read: fail

AWS 배치, 대규모 시뮬레이션을 위한 멀티-컨테이너 작업 지원 시작

AWS가 최근 AWS 배치에서 멀티-컨테이너 작업을 지원한다고 발표했습니다. 이 새로운 기능은 자율 주행 차량과 로봇과 같은 복잡한 시스템 테스트를 위한 대규모 시뮬레이션을 간소화합니다. 개발 시간을 단축하고, 여러 팀의 작업 통합을 위한 맞춤형 도구의 필요성을 제거합니다.

런던 QCon에서의 란비르 차울라: 예상치 못한 경쟁 우위를 위한 플랫폼 구축

RB 글로벌의 란비르 차울라 부사장은 회사를 수동적 시스템에서 현대적 이벤트 기반 아키텍처로 전환한 여정을 공유했습니다. 이 변화는 내부 작업의 간소화와 함께 판매자와 구매자에 대한 배려를 유지하는 것을 목표로 했습니다. 이제 그들의 엔지니어링 조직은 RB 글로벌의 경쟁 우위로 간주됩니다.

Lyft, iOS 라이브 액티비티를 활용하여 사용자 경험 향상

Lyft는 iOS의 Live Activities 기능을 활용하여 실시간 업데이트와 앱을 열지 않고도 작업을 수행할 수 있는 동적 콘텐츠를 추가했습니다. 이 기능은 사용자 경험을 향상시키는 데 성공적이었으며, 기술적 복잡성에도 불구하고 많은 도전을 극복했습니다.

QCon 런던에서의 경계 없는 클라우드: 아도라 노워도와의 질의응답

QCon 런던에서 아도라 노워도는 다중 클라우드를 애플리케이션 아키텍처와 배포 과정에 통합하는 복잡성에 대해 설명했습니다. 그녀는 성공적인 통합을 위한 '4P 접근법'을 제시하며, 보안 도전과 이를 극복하기 위한 전략도 공유했습니다. 이는 다중 클라우드 환경에서의 효율적인 작업을 위한 중요한 지침을 제공합니다.

팟캐스트: 인지 과학을 활용하여 개발자 경험 개선하기

개발자 경험을 개선하기 위해 인지 과학을 활용하는 방법에 대한 팟캐스트 요약입니다. 조직은 인지 피로컨텍스트 전환의 영향을 이해하고, 이를 기반으로 개발자의 생산성을 높이기 위한 투자를 해야 합니다. 이러한 투자는 비즈니스에 상당한 이점을 가져다 줄 수 있습니다.

트위터 규모에서의 효과적인 성능 엔지니어링 발표

야오 유에는 트위터에서 프로젝트를 확장하면서 효과적인 성능 엔지니어링에 대한 주요 교훈을 요약했습니다. 성능 엔지니어링은 하드웨어 개선이 느려지고 소프트웨어 복잡성이 증가함에 따라 더욱 중요해지고 있습니다. 이 발표에서는 데이터 기반 접근 방식과 조직 내 다른 팀들이 성능 데이터를 활용할 수 있도록 지원하는 플랫폼의 역할에 대해 강조했습니다.

QCon 런던: 링크드인의 gRPC 마이그레이션 자동화

링크드인은 Rest.li RPC 프로토콜에서 Google의 gRPC로 50,000개의 프로덕션 엔드포인트를 마이그레이션했습니다. 이 과정은 원래 2-3년이 걸릴 예정이었지만, AI의 도움으로 단 2-3분기 만에 완료되었습니다. 이 마이그레이션은 20백만 줄의 코드2,000개의 서비스를 변경하는 것을 포함했으며, 비즈니스 중단 없이 진행되었습니다.

소프트웨어 팀에서 심리적 안전성을 높이며 애자일 도입하기

이 기사는 심리적 안전성을 높이면서 애자일 방식을 도입하는 실용적인 팁을 제공합니다. 팀은 스크럼을 선택하고, 팀원 간의 친밀감을 높이기 위한 다양한 활동을 통해 개방적인 소통과 팀원들의 자율성을 강조했습니다. 이러한 접근 방식이 팀의 일상 업무에 어떻게 도움이 되었는지 경험한 내용도 공유합니다.

프레젠테이션: MLEs의 플랫폼과 기능, 고성능 데이터 제품을 위한 확장 가능하고 제품 중심적 접근법

Massimo Belloni가 Bumble Inc에서 데이터 과학 팀과 머신 러닝 엔지니어링을 조직하는 데 얻은 교훈을 공유했습니다. 플랫폼 MLEs는 복잡성을 추상화하고 컴퓨팅 자원에 접근을 제공하는 머신 러닝 플랫폼을 구축하는 반면, 기능 MLEs는 비즈니스 사례를 이해하고 모델을 설계 및 배포하는 역할을 담당합니다. 이러한 구조는 고성능 데이터 제품을 가능하게 하는 강력한 ML 플랫폼 구축에 중요합니다.

Azure API Management Basic V2 및 Standard V2 정식 출시: 확장성, 보안, 네트워킹 강화

Microsoft는 최근 Azure API Management의 새로운 요금제인 Basic V2와 Standard V2를 정식 출시했습니다. 이들 요금제는 확장성, 보안, 네트워킹 기능을 강화하여 다양한 작업 부하를 수용하고, 보다 안전한 API 백엔드 연결을 지원합니다. 특히, Standard V2는 네트워크 격리된 백엔드를 지원하는 생산 환경에 적합합니다.

QCon 런던: 현대 아키텍처에서 장기 실행 프로세스 마스터하기

QCon 런던에서는 현대 아키텍처에서 장기 실행 프로세스를 관리하는 방법에 대해 논의되었습니다. 발표자는 프로세스 오케스트레이션 플랫폼을 사용하여 비동기적으로 장기 작업을 처리할 것을 권장했습니다. 이는 서비스 경계를 개선하고, 효율성을 높이며, 복잡성과 위험을 줄일 수 있습니다. 또한, BPMN을 사용하여 요구 사항을 문서화하고 시스템 상태를 시각화하는 방법도 제안되었습니다.

QCon 런던: 의사결정의 예술, 과학 그리고 심리학

QCon 런던 2024에서 BBC의 건축 책임자인 Hannes Ricklefs가 의사결정의 예술, 과학, 심리학에 대해 발표했습니다. 구조화된 의사결정 프레임워크의 중요성, 팀 역학 이해를 돕는 성격 테스트, 편향 이해질문 프레이밍이 의사결정에 미치는 영향 등이 주요 내용입니다. Ricklefs는 효과적인 의사결정을 위한 4단계를 제시했습니다.

QCon 런던: 효율적인 서버리스 개발

QCon 런던에서 Lumigo의 서버리스 옹호자인 Yan Cui가 AWS 서버리스 기술을 이용한 효과적인 로컬 개발 패턴을 공유했습니다. 테스트 접근법, 배포 실습, 그리고 애플리케이션 환경에 초점을 맞추어 빠른 피드백 루프의 중요성과 다양한 테스트 방법을 설명했습니다. 이를 통해 엔지니어들이 코드 분기를 테스트할 수 있는 자체적인 AWS 의존성 그룹을 갖추고 비용을 최소화할 수 있습니다.

QCon 런던: 듀오링고, 슈퍼볼 광고 시간에 6초 만에 400만 개의 푸시 알림 전송

듀오링고는 슈퍼볼 광고 시간 동안 400만 개의 모바일 푸시 알림을 전송했습니다. 이를 위해 AWS의 비동기 구조를 구축하고, FIFO SQS 큐를 사용하여 중복을 방지했습니다. 광고 동안 95%의 알림이 3.9초, 99%가 5.7초 내에 전송되었습니다. 이 과정에서 듀오링고는 대규모에서의 성능을 확인하기 위해 100만 사용자와 여러 차례 테스트를 진행했습니다.

2024년 항상 궁금해했던 아키텍처 미니북

이 기사는 Netflix, AWS, Cloudflare, 그리고 Pinterest와 같은 대규모 기술 회사들이 직면한 아키텍처와 도전 과제를 탐구합니다. AWS Lambda의 대규모 서버리스 컴퓨팅 서비스 운영 방법, Cloudflare의 분산 PostgreSQL 데이터베이스 관리, 다중 지역 데이터 거주성 구현 전략, Netflix의 회원 플랫폼 확장, 그리고 Pinterest의 광고 서빙 및 랭킹 인프라 구축에 대해 다룹니다. 대규모 회사들이 직면한 고유한 아키텍처 도전에 대한 통찰을 공유하는 것이 목표입니다.

자카르타 EE 프로젝트를 위한 테스팅 관행 현대화

자카르타 EE 프로젝트의 테스팅 방법을 개선하기 위해, 개발자와 품질 엔지니어는 데이터 기반 테스팅을 채택하고, JUnit JupiterAssertJ 같은 현대적인 라이브러리를 활용해야 합니다. 또한, Testcontainers와 같은 컨테이너 기반 프레임워크를 사용하여 일관되고 재현 가능한 테스팅 환경을 보장하는 것이 중요합니다.

클라우드에서 고가용성을 위한 셀룰러 아키텍처 구축

Chris Price가 셀룰러 아키텍처의 이점, 설계 옵션, AWS 계정 수준에서의 효과적인 격리 방법에 대해 설명합니다. 이 아키텍처는 애플리케이션을 독립적으로 운영할 수 있는 '셀'로 나누어 실패의 영향 범위를 최소화합니다. 고가용성, 민첩성, 개발자 생산성 측면에서 중요한 이점을 제공합니다.

QCon 런던에서 Loubna Ben Allal이 발표한 코드를 위한 대규모 언어 모델

Loubna Ben Allal이 QCon 런던에서 발표한 코드 완성 및 생성을 위한 대규모 언어 모델(LLMs)에 대해 다룬 기사입니다. GitHub Copilot과 같은 LLMs가 소프트웨어 개발 관행에 큰 영향을 미쳤으며, CodeLlama, BigCode, DeepSeek Coder와 같은 오픈소스 대안이 등장하고 있습니다. 변환기(transformer) 아키텍처가 우세하며, 사용자 선호도에 맞추기 위한 기술도 소개되었습니다.

SLSA 인증 달성을 위한 '자체 빌더 가져오기' 프레임워크

Asra Ali가 기존 도구를 최소한의 노력으로 SLSA-준수 빌더로 래핑할 수 있는 최근 작업에 대해 논의합니다. 이는 소프트웨어 배달 파이프라인에 대한 신뢰를 구축하고 시스템에서 주장의 자동 검증을 가능하게 하는 것을 목표로 합니다. '자체 빌더 가져오기'(BYO Builder) 프레임워크를 통해 개발자는 기존 빌드 로직을 플러그인할 수 있으며, 신뢰할 수 있는 증명을 쉽게 추가할 수 있습니다.

NVIDIA, 차세대 AI 슈퍼칩 '블랙웰' 발표

NVIDIA가 역대 가장 큰 GPU인 2000억 개의 트랜지스터를 탑재한 새로운 블랙웰 GPU 아키텍처를 발표했습니다. 이는 이전 세대 하드웨어보다 최대 4배 빠른 대규모 언어 모델(Large Language Models, LLMs) 훈련이 가능하며, 20페타플롭스의 연산력을 지원하는 두 개의 GPU 다이가 하나로 작동합니다. 또한, 블랙웰은 민감한 데이터를 보호하기 위한 신뢰 실행 환경(TEE)을 지원하는 최초의 GPU입니다. NVIDIA는 이를 AI 모델 배포 및 실행을 위한 플랫폼으로 포지셔닝하며, 자율 주행 차량 플랫폼인 DRIVE Thor와 로보틱스 플랫폼인 Jetson Thor에도 사용될 예정입니다.