모델 서빙의 라우팅 현황 (새 탭에서 열림)

넷플릭스는 대규모 개인화 경험을 제공하기 위해 수백 개의 모델과 초당 100만 건의 요청을 처리하는 중앙 집중식 머신러닝(ML) 모델 서빙 플랫폼을 운영하고 있습니다. 이 플랫폼은 'Switchboard'라는 라우팅 계층을 통해 클라이언트 마이크로서비스와 복잡한 ML 모델 인프라를 분리하여, 클라이언트의 수정 없이도 새로운 모델을 신속하게 실험하고 배포할 수 있는 환경을 구축했습니다. 이를 통해 넷플릭스는 모델 추론뿐만 아니라 데이터 전처리 및 특징 추출을 포함한 전체 워크플로우를 표준화된 API로 추상화하여 혁신의 속도를 높이고 있습니다. ### 넷플릭스의 워크플로우 중심 모델 정의 * 넷플릭스에서 모델은 단순한 추론 함수(`score(features)`)를 넘어, 입력 데이터 변환, 특징(feature) 계산, 추론, 후처리를 모두 포함하는 독립적인 '워크플로우'로 정의됩니다. * 클라이언트는 사용자 ID나 국가와 같은 최소한의 컨텍스트만 제공하며, 모델 서빙 플랫폼이 필요한 데이터를 다른 마이크로서비스에서 가져와 직접 특징을 계산합니다. * 이러한 구조 덕분에 클라이언트는 모델의 내부 로직이나 데이터 의존성을 알 필요가 없으며, 모델의 아키텍처가 변하더라도 클라이언트 코드를 수정할 필요가 없습니다. ### 중앙 집중형 라우팅 엔진, Switchboard * 넷플릭스는 표준 API 게이트웨이나 서비스 메시가 제공하지 못하는 실험 플랫폼과의 통합, gRPC 지원, 도메인 특화 라우팅을 구현하기 위해 자체 프록시 서비스인 'Switchboard'를 개발했습니다. * Switchboard는 클라이언트 요청을 적절한 모델 인스턴스와 클러스터 샤드로 전달하는 역할을 수행하며, 초당 100만 건 이상의 요청을 처리하면서도 높은 가용성을 유지합니다. * 모델 배포 시 섀도 모드(Shadow mode), 카나리 배포(Canary), 롤백 등을 클라이언트 모르게 수행할 수 있어 안전한 운영이 가능합니다. ### 인프라 복잡성을 감추는 모델 샤딩 분리 * 모델은 트래픽 패턴, SLA, CPU/메모리 요구사항에 따라 여러 연산 클러스터 샤드(VIP 주소)에 분산 배치됩니다. * 서빙 플랫폼은 이러한 물리적 배치 상태를 클라이언트로부터 은폐하여, 인프라의 변경이나 모델의 샤드 이동이 클라이언트 서비스에 영향을 주지 않도록 설계되었습니다. * 이를 통해 ML 연구자는 인프라 제약 없이 자유롭게 실험을 설계하고 모델을 배포할 수 있습니다. ### 'Objective' 기반의 추상화 계층 * 플랫폼은 'Objective'라는 열거형(Enum) 단위를 통해 모든 요청을 관리하며, 이는 비즈니스 목적(예: 콘텐츠 추천, 결제 사기 탐지)을 나타냅니다. * Objective는 요청이 전달될 특정 서빙 클러스터와 모델 유형/버전을 결정하는 기준이 됩니다. * 또한, 각 Objective는 고유한 API 규격을 정의하여 서로 다른 도메인의 클라이언트가 동일한 방식으로 플랫폼과 통신할 수 있도록 표준화합니다. 성공적인 대규모 ML 시스템을 구축하려면 모델의 생명주기를 클라이언트 애플리케이션으로부터 완전히 격리해야 합니다. 넷플릭스의 사례처럼 워크플로우 단위의 모델 정의와 'Objective' 중심의 라우팅 추상화를 도입함으로써, 인프라의 복잡성을 관리하면서도 머신러닝 혁신의 속도를 극대화할 수 있습니다.

Code Orange: Fail Small is complete. The result is a stronger Cloudflare network (새 탭에서 열림)

Cloudflare는 2025년 말 발생했던 두 차례의 대규모 장애를 계기로 추진한 인프라 회복 탄력성 강화 프로젝트인 'Code Orange: Fail Small'을 성공적으로 마무리했습니다. 이번 프로젝트를 통해 설정 변경의 안정성을 확보하고, 장애 발생 시 영향을 최소화하며, 비상 상황에서의 대응 체계를 전면 개편했습니다. 결과적으로 Cloudflare 네트워크는 잠재적인 문제를 조기에 감지하고 격리함으로써 전 세계 사용자에게 더욱 신뢰할 수 있는 서비스를 제공할 수 있게 되었습니다. ### 안전한 설정 변경을 위한 Snapstone 도입 설정 변경이 네트워크 전체에 즉각적으로 반영되어 발생하던 대규모 장애를 방지하기 위해 새로운 배포 매커니즘을 구축했습니다. * **Snapstone 시스템 개발**: 설정을 패키지화하여 단계적으로 배포하고, 실시간 상태 모니터링을 통해 문제가 감지되면 자동으로 롤백하는 통합 관리 도구를 도입했습니다. * **점진적 배포의 표준화**: 과거에는 팀별로 달랐던 배포 방식을 Snapstone으로 통일하여, 데이터 파일이나 글로벌 제어 플래그 등 모든 유형의 설정 변경에 '상태 기반 점진적 배포(Health-mediated deployment)'를 적용합니다. * **리스크 관리 자동화**: 위험한 설정 패턴이 발견되면 이를 Snapstone 관리 대상으로 즉시 편입시켜, 별도의 추가 작업 없이도 안전한 배포 사이클을 보장받을 수 있습니다. ### 장애 영향력 최소화 및 서비스 세분화 장애가 발생하더라도 서비스 전체가 중단되지 않도록 시스템의 구조적 유연성을 높였습니다. * **Fail Open 및 Fail Stale 구현**: 최신 설정을 읽지 못할 경우 마지막으로 정상 작동했던 설정을 사용(Fail Stale)하거나, 일부 기능을 제한하더라도 트래픽 흐름은 유지(Fail Open)하도록 프로그래밍 모델을 개선했습니다. * **고객 코호트별 세분화**: 서비스 실행 환경을 여러 독립적인 세그먼트로 나누어, 무료 사용자 그룹에 먼저 업데이트를 적용하고 점진적으로 확대하는 방식을 도입했습니다. * **폭발 반경(Blast Radius) 제한**: 특정 서비스(예: Workers 런타임)에서 문제가 발생하더라도 전체 네트워크가 아닌 소수의 특정 세그먼트에만 영향이 국한되도록 설계하여 대규모 장애로 확산되는 것을 차단합니다. ### 비상 접근 권한(Break Glass) 및 사고 관리 체계 개편 인프라 장애로 인해 관리 도구 자체가 마비되는 '자기 의존성' 문제를 해결하기 위해 비상 대응 절차를 강화했습니다. * **백업 인증 경로 확보**: 핵심 Zero Trust 보안 툴이 작동하지 않는 극한 상황에서도 시스템에 접근할 수 있도록 18개 주요 서비스에 대한 별도의 비상 인증 경로와 스크립트를 마련했습니다. * **실전 중심의 대응 훈련**: 200명 이상의 엔지니어가 참여하는 대규모 드릴(Drill)을 통해 비상 상황에서의 대응 속도와 숙련도를 높였습니다. * **고객 소통 강화**: 내부 모니터링 데이터가 외부 공지 시스템으로 신속하고 명확하게 전달될 수 있도록 소통 프로세스를 개선하여 장애 시 고객의 불확실성을 해소합니다. Cloudflare의 이번 개선 작업은 단순한 기술적 수정을 넘어, '작게 실패(Fail Small)'함으로써 더 큰 가용성을 보장하는 구조적 변화를 의미합니다. 사용자는 이제 더욱 견고해진 인프라 위에서 예상치 못한 설정 오류나 시스템 장애로부터 보호받으며 서비스를 이용할 수 있습니다.

메타가 종단간 암호화된 백업을 강화하는 방법 (새 탭에서 열림)

Meta는 하드웨어 보안 모듈(HSM) 기반의 백업 키 저장소를 통해 왓츠앱(WhatsApp)과 메신저(Messenger)의 종단간 암호화(E2EE) 백업 보안을 강화하고 있습니다. 이 시스템은 사용자의 복구 코드를 위변조 방지 하드웨어에 저장하여 Meta나 클라우드 제공업체를 포함한 제3자의 접근을 원천 차단하며, 최근 무선(OTA) 키 배포 방식과 배포 투명성 강화를 통해 인프라의 신뢰성을 한층 더 높였습니다. ### HSM 기반 백업 키 저장소의 구조 * 지리적으로 분산된 여러 데이터 센터에 HSM 함대(Fleet)를 구축하고, 다수결 합의(Majority-consensus) 복제 방식을 통해 하드웨어 수준의 복원력과 보안성을 확보합니다. * 사용자의 메시지 복구 코드는 HSM 내부에서만 관리되므로 외부에서는 절대 탈취할 수 없는 구조를 가집니다. * 최근 패스키(Passkeys) 지원을 통해 편의성을 높인 데 이어, 기존 비밀번호 기반 암호화 백업 인프라를 보호하기 위한 보안 업데이트를 지속적으로 적용하고 있습니다. ### 무선(OTA) 함대 키 배포 메커니즘 * 메신저 앱의 경우 앱 업데이트 없이도 새로운 HSM 함대를 유연하게 도입할 수 있도록, HSM 응답 과정에서 함대 공개 키를 무선(Over-the-Air)으로 전달하는 방식을 구축했습니다. * 키 배포의 신뢰성을 보장하기 위해 공개 키는 '검증 번들(Validation bundle)' 형태로 제공되며, 이는 Cloudflare의 서명과 Meta의 교차 서명을 통해 독립적인 암호화 증명을 제공합니다. * Cloudflare는 모든 검증 번들에 대한 감사 로그를 유지하여 배포 과정의 무결성을 외부에서 확인할 수 있도록 지원합니다. ### 배포 투명성 및 검증 가능성 * Meta는 시스템이 설계대로 작동하며 사용자 백업에 접근할 수 없음을 증명하기 위해, 새로운 HSM 함대를 배포할 때마다 보안 증거를 블로그 등을 통해 외부에 공개하기로 했습니다. * 함대 배포는 보통 수년 주기로 드물게 발생하지만, 매 배포 시마다 사용자가 기술 백서의 감사(Audit) 절차를 따라 보안성을 직접 검증할 수 있는 환경을 제공합니다. * 이러한 투명성 강화 조치는 Meta가 보안 백업 분야에서 기술적 리더십을 공고히 하고 사용자 신뢰를 얻기 위한 핵심 전략입니다. 종단간 암호화 백업 시스템의 구체적인 작동 원리와 감사 절차가 궁금한 개발자나 보안 전문가는 Meta가 공개한 "Security of End-To-End Encrypted Backups" 기술 백서를 통해 전체 사양을 상세히 확인할 수 있습니다.

동적 워크플로우 소개: 테넌트를 따르는 내구성 있는 실행 (새 탭에서 열림)

Cloudflare는 멀티테넌트 SaaS나 AI 에이전트처럼 런타임에 코드가 생성되는 환경을 지원하기 위해 'Dynamic Workflows'를 도입했습니다. 이는 기존의 정적 배포 방식에서 벗어나, 각 테넌트가 작성한 고유한 워크플로우 코드를 동적으로 로드하고 실행할 수 있게 해주는 내구성 있는 실행(Durable Execution) 솔루션입니다. 개발자는 이를 통해 개별 테넌트나 세션마다 서로 다른 비즈니스 로직을 가진 워크플로우를 격리된 샌드박스 환경에서 안전하고 신속하게 구동할 수 있습니다. ### 정적 워크플로우 배포의 한계 * 기존 Cloudflare Workflows는 `wrangler.jsonc` 설정 파일에 워크플로우 클래스를 미리 정의해야 하는 정적 바인딩 구조를 가졌습니다. * AI가 사용자별로 코드를 생성하거나, 각 저장소마다 고유한 파이프라인을 갖는 CI/CD 서비스와 같은 현대적인 플랫폼에서는 모든 테넌트의 로직을 미리 정의하는 것이 불가능합니다. * 컴퓨트(Dynamic Workers)와 스토리지(Durable Object Facets)는 이미 동적 배포가 가능해졌으나, 장기 실행이 필요한 워크플로우 영역은 여전히 테넌트별 맞춤화가 어려운 공백으로 남아 있었습니다. ### 동적 워크플로우의 구조와 작동 방식 * `@cloudflare/dynamic-workflows` 라이브러리는 약 300줄의 TypeScript 코드로 구성되며, 'Worker Loader'가 각 테넌트의 코드로 호출을 라우팅하는 역할을 수행합니다. * 워크플로우 엔진이 `run(event, step)` 함수를 호출할 때, 라이브러리는 수 시간 또는 수일 후에도 해당 워크플로우를 생성했던 정확한 테넌트의 코드를 찾아 실행을 재개합니다. * 테넌트는 표준 `WorkflowEntrypoint`를 사용하여 평범한 워크플로우 코드를 작성하며, 자신이 동적으로 관리되는 환경에 있다는 사실을 인지할 필요 없이 독립적인 실행 환경을 보장받습니다. ### 주요 기능 및 기술적 이점 * **기존 기능 완전 계승**: 워크플로우 상태 확인(`.status()`), 일시 중지(`.pause()`), 재시도, 동적 단계 실행, `step.sleep()`을 이용한 장기 대기, `step.waitForEvent()` 등의 모든 기능을 그대로 사용할 수 있습니다. * **고성능 격리 환경**: 싱글 디지트 밀리초(단위 수 밀리초) 내에 격리된 샌드박스 Worker가 생성되어 보안성과 속도를 동시에 확보합니다. * **확장성**: Workflows V2 아키텍처를 기반으로 설계되어, 계정당 초당 300개의 새로운 인스턴스 생성과 최대 50,000개의 동시 인스턴스 처리를 지원하여 에이전트 중심의 서비스 확장에 최적화되어 있습니다. AI 에이전트가 스스로 도구를 작성하고 실행하거나, 고객마다 고유한 비즈니스 자동화 로직을 부여해야 하는 SaaS 플랫폼을 구축 중이라면 Dynamic Workflows가 최적의 대안이 될 것입니다. 이 시스템을 통해 인프라 관리의 부담 없이 테넌트별로 특화된 내구성 있는 워크플로우를 무한히 확장할 수 있습니다.

글로벌 파트너십과 오픈 리소스를 통한 과학적 영향력 촉진 (새 탭에서 열림)

구글 리서치는 책임감 있고 포용적이며 엄격한 연구 원칙을 바탕으로 오픈 사이언스를 추진하며, 전 지구적 파트너십과 공개 리소스를 통해 과학적 발견의 가속화를 도모하고 있습니다. 오픈소스 소프트웨어와 데이터셋을 공유함으로써 연구자들이 성과를 재현하고 확장할 수 있는 환경을 조성하며, 이는 단순히 기술적 혁신에 머무르지 않고 전 세계적인 사회적 진보를 이끄는 촉매제 역할을 합니다. 구글은 트랜스포머 아키텍처부터 전문화된 의료 및 기후 모델에 이르기까지 다양한 자원을 공개하여 전 세계 연구 생태계의 역량을 강화하는 데 집중하고 있습니다. **글로벌 파트너십과 연구 생태계 협력** * 유씨 산타크루즈(UCSC) 유전체 연구소, 자넬리아 연구 캠퍼스, 인도 의학 연구소(AIIMS) 등 전 세계 주요 기관과 협력하여 전문 분야별 연구를 심화하고 있습니다. * 인간 범유전체 연구 컨소시엄(HPRC), 지구 바이오게놈 프로젝트(EBP), NIH BRAIN 이니셔티브와 같은 거대 글로벌 컨소시엄에 참여하여 인류 공통의 과제 해결에 기여합니다. * 인도, 한국, 일본, 호주를 시작으로 지역별 과학 개발자 커뮤니티를 구축하기 위한 투자를 확대하여 실질적인 기술 실천 공동체를 형성하고 있습니다. **분야별 핵심 오픈소스 도구 및 데이터셋** * **유전체학:** DeepVariant, DeepConsensus, DeepPolisher 등 딥러닝 기반 도구를 통해 DNA 분석의 정밀도를 높였으며, 이를 통해 전 세계적으로 250만 명의 전장 유전체 분석을 지원했습니다. * **뇌과학:** 1.4페타바이트 규모의 인간 뇌 조직 데이터셋(H01)과 쥐 시각 피질 지도(MICrONS)를 공개했으며, Neuroglancer 및 TensorStore 같은 도구로 페타스케일의 고해상도 뇌 지도를 탐색하고 분석할 수 있게 했습니다. * **지구 및 기상 모델링:** 18억 개의 건물 감지 데이터를 포함한 'Open Buildings', 하이브리드 기상 모델인 'NeuralGCM', 산불 연구를 위한 'FireBench' 등을 통해 기후 변화 대응과 재난 예측을 돕고 있습니다. * **헬스케어:** MedGemma를 포함한 의료용 파운데이션 모델(HAI-DEF)은 480만 회 이상의 다운로드를 기록 중이며, '오픈 건강 스택(OHS)'은 10개국 이상에서 6,500만 명의 수혜자를 위한 디지털 건강 솔루션 구축에 활용되고 있습니다. **오픈 사이언스가 창출한 실질적 성과** * **유전체 연구 혁신:** UCSC와의 협업을 통해 유전적 변이 식별 오류를 50% 줄였으며, 이는 인류의 다양성을 보다 정확하게 반영하는 범유전체 참조 자료 구축으로 이어졌습니다. * **기상 예측과 농업 지원:** 시카고 대학교 연구팀은 NeuralGCM을 활용해 인도 몬순의 시작을 한 달 전 예측하는 데 성공했으며, 이 정보는 3,800만 명의 인도 농민에게 전달되어 작물 재배 최적화에 기여했습니다. * **의학적 발견:** 존스 홉킨스 대학교 연구진은 구글이 공개한 H01 뇌 데이터셋을 분석하여 기존 학설에 없던 새로운 신경 세포 통신 방식을 발견했으며, 이는 알츠하이머와 같은 질환 연구에 새로운 전기를 마련했습니다. * **인도주의적 활동:** UN 난민기구(UNHCR)는 Open Buildings 데이터를 활용하여 난민 거주지의 재난 대응 샘플링을 최적화하고 해수면 상승에 따른 위험도를 평가하고 있습니다. 오픈 사이언스는 기술적 장벽을 허물고 전 세계 연구자들이 동등한 출발선에서 혁신을 이룰 수 있게 합니다. 연구자와 개발자들은 구글 리서치가 공개한 MedGemma나 NeuralGCM과 같은 특화된 모델과 방대한 데이터셋을 적극 활용함으로써, 각자의 도메인에서 연구의 재현성을 확보하고 사회적 임팩트가 큰 발견을 더 빠르게 도출할 수 있을 것입니다.

Cloudflare IPsec용 양자 내성 암호 정식 출시 (새 탭에서 열림)

Cloudflare는 양자 컴퓨터를 이용한 미래의 암호 해독 공격(Harvest-now-decrypt-later)에 대응하기 위해 Cloudflare IPsec 서비스에 양자 내성 암호화(PQC)를 정식 출시했습니다. 이번 업데이트는 하이브리드 ML-KEM(FIPS 203) 표준을 채택하여 기존 하드웨어 교체 없이도 Cisco, Fortinet 등 주요 벤더 장비와 상호 운용이 가능한 보안 터널을 구축할 수 있게 합니다. 이는 2029년까지 모든 서비스에 양자 내성 보안을 적용하려는 Cloudflare의 로드맵에서 중요한 이정표가 될 것입니다. ### IPsec 기반 양자 내성 암호화의 핵심 기술 * **하이브리드 ML-KEM 메커니즘**: 고전적인 Diffie-Hellman(DH) 방식과 양자 내성 방식인 ML-KEM을 결합한 핸드셰이크를 사용합니다. DH 교환을 먼저 수행한 뒤 그 결과로 ML-KEM 교환을 암호화하며, 두 방식의 출력값을 혼합해 데이터 평면(ESP)을 보호하는 세션 키를 생성합니다. * **소프트웨어 기반 구현**: ML-KEM은 격자 기반(Lattice-based) 암호 알고리즘으로, 전용 물리적 링크나 특수 하드웨어가 필요한 양자 키 분배(QKD)와 달리 일반 프로세서의 소프트웨어 환경에서 구동됩니다. * **주요 벤더 상호 운용성**: IETF 드래프트(`draft-ietf-ipsecme-ikev2-mlkem`) 표준을 준수하여 Cisco 8000 시리즈 라우터(v26.1.1 이상) 및 Fortinet FortiOS(v7.6.6 이상) 장치와 성공적으로 연동됩니다. ### IPsec 표준화가 TLS보다 늦어진 이유와 한계 * **QKD 기술에 대한 의존**: IPsec 커뮤니티는 한동안 양자 키 분배(QKD) 기술에 집중했으나, 이는 특수 장비가 필요하고 인터넷 규모의 확장이 어려우며 능동적 공격자를 차단할 인증 기능이 부족하다는 한계가 있었습니다. * **파편화된 표준화**: 2023년 발표된 RFC 9370은 병렬 키 교환의 틀은 마련했지만 구체적인 암호 스위트를 지정하지 않았습니다. 이로 인해 초기 구현체들이 서로 다른 암호를 사용하게 되면서 Palo Alto Networks 등 일부 벤더 간의 호환성 문제가 발생했습니다. * **산업계의 통합**: 이번에 도입된 드래프트 표준은 RFC 9370의 빈틈을 메우며 하이브리드 ML-KEM을 명시함으로써, 벤더들이 단일한 표준으로 결집할 수 있는 토대를 마련했습니다. ### 안전한 네트워크 전환을 위한 권장 사항 현재의 업데이트는 데이터 '암호화'에 집중되어 있어, Q-Day 이후의 실시간 공격을 완벽히 방어하려면 향후 '양자 내성 인증' 표준 도입이 추가로 필요합니다. 기업들은 전용 회선이 필요한 QKD 방식보다는 기존 인프라에서 즉시 적용 가능한 소프트웨어 기반 PQC 표준을 우선적으로 검토해야 하며, 장비 업그레이드 시 `draft-ietf-ipsecme-ikev2-mlkem` 지원 여부를 확인하는 것이 권장됩니다.

Agents can now create Cloudflare accounts, buy domains, and deploy (새 탭에서 열림)

이제 AI 에이전트는 사람이 직접 대시보드에 접속하거나 신용카드 정보를 입력할 필요 없이, 스스로 클라우드플레어 계정을 생성하고 도메인을 구매하여 서비스를 배포할 수 있게 되었습니다. 클라우드플레어는 스트라이프(Stripe)와의 협업을 통해 '스트라이프 프로젝트(Stripe Projects)' 내에서 작동하는 새로운 프로토콜을 도입했으며, 이를 통해 에이전트가 소프트웨어 개발을 넘어 프로덕션 환경 구축까지 원스톱으로 처리할 수 있는 환경을 마련했습니다. 사용자는 최초의 권한 승인과 이용 약관 동의 외에는 복잡한 설정 과정에 개입할 필요가 없어 서비스 배포의 마찰력이 획기적으로 줄어들었습니다. **에이전트의 완전 자동화된 배포 흐름** * 사용자가 스트라이프 CLI를 통해 프로젝트를 초기화하면, AI 에이전트는 사용자의 스트라이프 계정 정보를 바탕으로 클라우드플레어 계정을 자동 생성하거나 기존 계정을 연결합니다. * 에이전트는 API 토큰을 발급받고, 도메인을 등록하며, 코드를 즉시 프로덕션 환경에 배포하는 모든 과정을 스스로 수행합니다. * 이 모든 과정은 사람이 대시보드에 들어가 API 토큰을 복사하거나 결제 수단을 수동으로 등록하는 단계 없이 하나의 흐름으로 진행됩니다. **상호운용성을 위한 세 가지 핵심 구성 요소** * **발견(Discovery):** 에이전트는 REST API 형태의 카탈로그를 조회하여 클라우드플레어의 도메인 등록과 같은 사용 가능한 서비스를 스스로 파악하고 선택할 수 있습니다. * **인증(Authorization):** 스트라이프가 신원 제공자(Identity Provider) 역할을 수행하여 사용자를 증명하면, 클라우드플레어는 즉시 계정을 프로비저닝하고 보안이 유지되는 자격 증명을 에이전트에게 반환합니다. * **결제(Payment):** 에이전트에게 실제 카드 번호를 공유하지 않고 스트라이프의 결제 토큰을 사용하며, 기본적으로 월 100달러의 지출 한도를 설정하여 예기치 못한 비용 발생을 방지합니다. **플랫폼 확정성 및 스타트업 지원** * 이 프로토콜은 스트라이프뿐만 아니라 로그인된 사용자를 보유한 어떤 플랫폼이든 '오케스트레이터' 역할을 맡아 클라우드플레어와 통합할 수 있도록 설계되었습니다. * 클라우드플레어는 이번 협업을 기념하여 스트라이프 아틀라스(Stripe Atlas)를 통해 법인을 설립하는 신규 스타트업에게 10만 달러 상당의 클라우드플레어 크레딧을 제공합니다. * 이를 통해 개발자들은 인프라 설정이라는 번거로운 작업에서 벗어나 AI 에이전트와 함께 아이디어를 프로덕션 수준의 서비스로 더욱 빠르게 전환할 수 있습니다. 에이전트 중심의 개발 환경을 구축하려는 개발자나 플랫폼 운영자라면 클라우드플레어의 'Code Mode MCP 서버'와 'Agent Skills'를 활용해 보시기 바랍니다. 인프라 구축의 모든 단계가 API화되어 있으므로, 사용자의 개입을 최소화하면서도 안전하고 확장 가능한 배포 자동화 시스템을 구현할 수 있습니다.

올해의 교육자 (새 탭에서 열림)

Grammarly는 학생들의 추천을 통해 교육 현장에서 커뮤니케이션의 가치를 실현하는 교사를 선정하는 ‘올해의 교육자상(Educator of the Year Award)’을 신설하고, 첫 번째 수상자로 센트럴 플로리다 대학교(UCF)의 훔베르토 로페즈 카스티요(Humberto López Castillo) 교수를 선정했습니다. 로페즈 카스티요 교수는 복잡한 학술적 개념을 대중의 언어로 번역하는 법을 가르치며, AI를 도구로서 비판적으로 수용하는 '계산기 원칙'을 통해 미래 지향적인 교육 모델을 제시합니다. 그의 교육 철학은 기술의 발전 속에서도 인간의 판단력과 청중 중심의 소통이 가장 강력한 힘이라는 점을 강조합니다. **학생의 목소리로 증명된 교육의 힘** - 이번 시상식은 학생들이 직접 교수님이 자신의 학업 여정과 글쓰기, 기술에 대한 사고방식을 어떻게 변화시켰는지 공유하는 비디오 제출 방식으로 진행되었습니다. - 첫 수상자인 로페즈 카스티요 교수는 "정교하면서도 접근하기 쉬운 언어"를 구사하도록 이끌어주었다는 제자 바르단 아바라디(Vardhan Avaradi)의 추천을 통해 선정되었습니다. - 소아과 의사이자 4개 국어 구사자, 공중보건 연구자라는 그의 다채로운 배경은 개인과 공동체를 동시에 아우르는 독특한 교육 철학의 기반이 되었습니다. **청중의 눈높이에 맞춘 커뮤니케이션 훈련** - 로페즈 카스티요 교수의 수업에서 학생들은 학술적 동료만을 위한 글쓰기에서 벗어나, 완전히 다른 청중에게 정보를 전달하는 과제를 수행합니다. - 공중보건이라는 복잡한 주제를 유치원생을 위한 그림책, HIV 환자의 삶을 다룬 보드게임, 결핵에 관한 랩 송, 역학을 다룬 팟캐스트 등으로 변주하며 소통 능력을 기릅니다. - 이는 소아과 의사로서 아이, 부모, 학회 전문가에게 각각 다르게 설명해야 했던 실전 경험에서 우러나온 교육 방식으로, 학생들이 졸업 후에도 실질적인 소통 역량을 갖추게 합니다. **비판적 사고를 전제로 한 AI 활용, '계산기 원칙'** - 교수는 AI를 금지하는 대신, 마치 수학 시간의 '계산기'처럼 강력하지만 인간의 비판적 사고가 뒷받침되어야 하는 도구로 정의합니다. - AI가 존재하지 않는 참고문헌을 생성(환각 현상)했을 때, 이를 처벌하기보다 소스를 확인하고 비판적으로 검토하는 '가르침의 순간'으로 활용하여 AI 문해력을 높입니다. - 실제 연구에서도 국립보건원(NIH)의 'All of Us' 데이터셋을 활용해 인구 집단을 분류하고 위험을 예측하는 머신러닝 프로젝트를 학생과 함께 진행하며, 인간이 주도하는 책임감 있는 AI 활용의 본보기를 보여줍니다. 교육의 미래는 단순히 새로운 도구를 채택하는 것에 있지 않습니다. 로페즈 카스티요 교수의 사례처럼, 도구를 현명하게 사용하는 법을 가르치고 목적 중심의 커뮤니케이션을 통해 소통의 대상인 '사람'을 놓치지 않는 태도를 길러주는 것이 AI 시대 교육자가 나아가야 할 방향입니다.

AI 시대에 인증 과제를 해결할 차세대 표준 후보, ID-JAG (새 탭에서 열림)

AI 에이전트가 다양한 기업용 서비스와 연동되는 과정에서 발생하는 인증 및 인가 복잡성을 해결하기 위해 **Identity Assertion JWT Authorization Grant(ID-JAG)**라는 새로운 표준안이 주목받고 있습니다. ID-JAG는 기존 SSO의 신뢰 모델을 API 접근 영역으로 확장하여, 기업 IdP가 중앙에서 권한 정책을 일원화해 관리하고 검증 가능한 JWT를 통해 안전하게 토큰을 교환하도록 돕습니다. 이를 통해 사용자 경험을 개선하고 보안 가시성을 확보함으로써, 복잡한 연동 구조가 AI 도입의 병목이 되지 않도록 하는 것이 핵심입니다. **ID-JAG의 개념과 기술적 배경** * SSO를 통해 확립된 IdP(Identity Provider)에 대한 신뢰를 앱 간 API 호출이나 에이전트 서비스 연동에 적용하는 방식입니다. * OAuth 2.0 Token Exchange(RFC 8693)와 JWT Profile for OAuth 2.0 Authorization Grants(RFC 7523)라는 기존의 두 표준 기술을 결합하여 작동합니다. * IdP가 서명한 검증 가능한 JWT를 일종의 '소개장'으로 발행하고, API 리소스 측 인가 서버가 이 소개장을 신뢰하여 최종 액세스 토큰을 발행하는 구조입니다. **핵심 구성 요소와 작동 흐름** * **주요 주체:** 요청 에이전트(AI 등), 기업 IdP(중앙 정책 보유), 인가 서버(대상 앱의 서버), 리소스 서버(실제 API)의 네 가지 역할로 구분됩니다. * **작동 프로세스:** 사용자가 에이전트에 로그인하여 ID 토큰 획득 → IdP에 토큰 교환을 요청하여 ID-JAG 발급 → 인가 서버에 ID-JAG를 제시하고 최종 액세스 토큰 획득 → 리소스 서버 API 호출 순으로 진행됩니다. * **권한 판단의 주체 변화:** 개별 서비스 간의 파편화된 관계 대신, 조직 전체를 관리하는 기업 IdP와 인가 서버 간의 신뢰 관계로 허가 판단 시점이 이동합니다. **조직의 운영 및 보안 측면의 이점** * **사용자 경험(UX) 개선:** 새로운 도구를 연동할 때마다 나타나는 권한 동의 화면(Consent Screen) 절차를 IdP 관리자 정책에 통합하여 사용자의 번거로움을 줄입니다. * **보안 가시성 확보:** 모든 서비스 연결 관계가 IdP로 집중되므로, 누가 어떤 에이전트를 통해 어떤 데이터에 접근했는지 중앙 로그를 통해 명확하게 감사(Audit)할 수 있습니다. * **중앙 집중형 리스크 통제:** 승인되지 않은 '섀도우 AI'의 접근을 차단하고, 보안 사고 발생 시 개별 엔드포인트를 수정할 필요 없이 IdP 단에서 즉각적으로 권한을 제어할 수 있습니다. * **토큰 스프롤(Sprawl) 방지:** 장기 유효한 API 키나 리프레시 토큰 대신 동적으로 발행되는 ID-JAG를 사용하여 시스템 곳곳에 흩어진 인증 정보 노출 리스크를 낮춥니다. **도입 시 고려 사항 및 실용적 제언** * **표준화 상태 유의:** 현재 IETF 드래프트 단계이며 RFC로 최종 확정된 사양이 아니므로, 향후 변경 가능성을 염두에 둔 유연한 아키텍처 설계가 필요합니다. * **사전 신뢰 관계 구축:** 요청 에이전트가 IdP와 인가 서버 모두에 OAuth 클라이언트로 등록되어야 하며, 각 주체 간의 명시적인 신뢰 설정이 선행되어야 합니다. * **결론:** AI 에이전트 도입으로 인해 파편화된 권한 관리에 어려움을 겪는 기업이라면, ID-JAG를 통해 인가 정책을 중앙화하고 보안 표준을 프로토콜 기반의 동적 신뢰 구조로 전환하는 전략적 검토가 권장됩니다.

워크플로우 랩: Figma MCP로 캔버스 확장하기 | 피그마 블로그 (새 탭에서 열림)

Anthropic이 발표한 MCP(Model Context Protocol)는 AI 모델이 기업 내부 데이터나 특정 도구의 맥락(Context)에 안전하고 표준화된 방식으로 접근할 수 있도록 돕는 개방형 프로토콜입니다. 특히 Figma는 이 프로토콜을 활용해 디자인 시스템의 데이터를 AI에게 직접 전달함으로써, AI가 단순한 추측이 아닌 실제 디자인 가이드라인에 기반한 정확한 결과물을 도출할 수 있도록 지원합니다. 결과적으로 MCP는 파편화된 데이터 소스를 AI와 연결하는 표준 인터페이스 역할을 하며, 개발과 디자인 사이의 간극을 좁히는 핵심 기술로 자리 잡고 있습니다. **AI의 한계와 맥락(Context)의 중요성** * 거대언어모델(LLM)은 방대한 지식을 학습했지만, 특정 조직의 최신 디자인 파일이나 내부 문서와 같은 '마지막 1마일'의 구체적인 정보는 알지 못합니다. * 이전에는 AI에게 이러한 맥락을 제공하기 위해 매번 복잡한 커스텀 통합(Integration) 과정을 거쳐야 했으며, 이는 유지보수와 보안 측면에서 큰 부담이었습니다. * MCP는 AI 모델과 데이터 소스 사이의 통신 규격을 표준화하여, 한 번의 설정으로 다양한 AI 도구가 기업 데이터에 즉시 접근할 수 있는 환경을 제공합니다. **Figma MCP를 통한 디자인 시스템의 활용** * Figma의 MCP 서버를 활용하면 AI 에이전트가 디자인 토큰, 컴포넌트 라이브러리, 레이아웃 명세 등에 직접 접근할 수 있습니다. * AI는 단순히 "버튼을 만들어줘"라는 요청에 대해 임의의 코드를 생성하는 대신, Figma에 정의된 실제 브랜드 컬러, 여백, 스타일 가이드를 준수하는 코드를 작성하게 됩니다. * 디자인 시스템이 업데이트되면 MCP를 통해 연결된 AI도 실시간으로 변경 사항을 인지하므로, 디자인과 코드 사이의 동기화 오류를 획기적으로 줄일 수 있습니다. **워크플로우 혁신과 효율성 증대** * 개발자는 디자인 사양을 일일이 확인하며 코드를 옮기는 대신, AI에게 MCP를 통한 디자인 가이드 참조를 명령함으로써 구현 속도를 높일 수 있습니다. * AI가 작성한 코드가 디자인 시스템을 준수하는지 자동으로 검수(Audit)하는 프로세스를 구축하여 품질 관리의 자동화가 가능해집니다. * 디자이너와 개발자 간의 핸드오프(Handoff) 과정에서 발생하는 커뮤니케이션 비용을 줄이고, 창의적인 문제 해결에 더 많은 시간을 할애할 수 있습니다. 성공적인 AI 도입을 위해서는 모델의 성능만큼이나 '정확한 데이터의 연결'이 중요합니다. MCP를 활용해 Figma와 같은 디자인 소스의 진실(Source of Truth)을 AI에게 연결하는 것은, 조직 내에서 AI가 실질적인 비즈니스 가치를 창출하게 만드는 가장 구체적이고 강력한 전략이 될 것입니다.

GitLab CI/CD 및 Duo를 이용한 탐지 테스트 자동화 (새 탭에서 열림)

GitLab의 신호 엔지니어링(Signals Engineering) 팀은 보안 모니터링 파이프라인이 예기치 않게 중단되는 '침묵하는 실패'를 방지하기 위해 자동화된 탐지 테스트 프레임워크인 **WATCH(Weekly Attack Testing for Continuous Health)**를 개발했습니다. 이 프레임워크는 스테이징 환경에서 실제 악성 행위를 시뮬레이션함으로써 로그 수집부터 SIEM 탐지, SOAR 알림 라우팅에 이르는 전체 과정을 엔드투엔드(End-to-End)로 검증합니다. 이를 통해 보안팀은 인프라 변경이나 설정 오류 속에서도 핵심 탐지 로직이 상시 정상 작동한다는 확신을 얻을 수 있습니다. ### 기존 탐지 검증 방식의 한계 * **로그 재주입의 맹점:** 단순히 과거의 악성 로그를 SIEM에 다시 밀어 넣는 방식은 실제 로그 소스에서 SIEM으로 데이터가 흐르는 '로그 수집(Ingestion)' 단계의 오류를 포착할 수 없습니다. * **배포와 실행의 간극:** '코드로서의 탐지(Detections as Code)' 파이프라인은 탐지 규칙이 성공적으로 배포되었는지는 확인할 수 있지만, 실제 환경에서 해당 규칙이 트리거되어 경보까지 이어지는지는 보장하지 못합니다. * **환경의 가변성:** 로그 스키마 변경, SIEM 업데이트, 파이프라인 오설정 등 탐지 시스템을 망가뜨릴 수 있는 변수는 무수히 많으며, 이는 실제 사고 발생 시 경보가 울리지 않는 치명적인 결과로 이어질 수 있습니다. ### WATCH 프레임워크의 작동 원리 * **무작위 스케줄링:** 매주 GitLab CI/CD 파이프라인이 활성화된 모든 테스트를 탐색하고, 이를 일주일 중 무작위 시간대에 분산 배치합니다. 이는 테스트가 예측 가능해지는 것을 막고 실제 위협 상황과 유사한 환경을 조성합니다. * **사전 알림 및 등록:** 테스트 실행 직전, WATCH는 SOAR 시스템에 '사전 알림'을 보내 예상되는 탐지 항목을 등록하고 추적 가능한 기록을 생성합니다. * **공격 시뮬레이션:** 스테이징 환경에서 관리자 계정 비밀번호 재설정이나 수상한 API 호출과 같은 실제 공격 행위를 스크립트로 실행합니다. * **알림 상관관계 분석:** SIEM에서 발생한 경보가 실제 침해 사고인지 WATCH 테스트인지 판별하기 위해 '실행 시간, 행위자 식별자(IP/ID), 탐지 규칙 ID'라는 세 가지 요소를 대조합니다. 이를 통해 테스트 경보가 실제 사고 대응팀(SIRT)으로 에스컬레이션되는 것을 방지합니다. ### GitLab CI/CD를 활용한 파이프라인 구조 * **`schedule_pipelines` 단계:** 전체 테스트를 그룹화하고 무작위 실행 시간이 설정된 하위 파이프라인을 생성하여 일주일간의 테스트 일정을 관리합니다. * **`run_tests` 단계:** 할당된 시뮬레이션을 실제로 수행하며, 실행 통계와 SOAR 레코드 ID를 저장하여 후속 단계에서 검증할 수 있도록 준비합니다. * **`pages` 단계:** SOAR 시스템을 쿼리하여 경보가 정상적으로 생성 및 라우팅되었는지 최종 확인합니다. 결과는 GitLab Pages 대시보드에 업데이트되며, 탐지 실패 시 보안팀의 슬랙 채널로 즉시 알림을 보냅니다. 상용 침해 및 공격 시뮬레이션(BAS) 도구는 비용이 많이 들고 개별 기업의 특수한 탐지 스택에 맞춤화하기 어렵습니다. GitLab의 WATCH 사례처럼 자사의 CI/CD 인프라와 SOAR를 결합한 자동화 프레임워크를 구축하면, 저비용으로도 보안 모니터링 시스템의 건강 상태를 지속적으로 검증하고 신뢰도를 높일 수 있습니다.

비개발자의 AI 협업 도전기 — 생산성 측정하려다 서버까지 띄운 9일 (새 탭에서 열림)

제공해주신 텍스트는 NAVER D2 웹사이트의 메뉴 구성(Hello world, D2 News, DEVIEW 등)과 하단 정보만 포함되어 있으며, **요약할 구체적인 기술 아티클의 본문 내용이 존재하지 않습니다.** 요약하고자 하시는 **특정 블로그 포스트의 본문 내용**을 복사하여 다시 전달해 주시면, 요청하신 아래 형식에 맞춰 상세히 요약해 드리겠습니다. 1. **첫 문단**: 글의 핵심 주장과 결론을 2-4문장으로 요약 2. **본문**: 기술적 디테일을 포함하여 섹션별로 핵심 내용 정리 3. **마지막**: 실용적인 결론이나 추천 제언 내용을 붙여넣어 주시면 바로 작업을 시작하도록 하겠습니다.

에이전트에게 결제 능력을 부여하기 (새 탭에서 열림)

Stripe은 AI 에이전트가 인터넷 경제의 능동적인 주체로 참여할 수 있도록 '에이전트용 Link 지갑(Link’s wallet for agents)'과 '에이전트용 Stripe Issuing'을 출시했습니다. 이 서비스는 에이전트에게 일회용 가상 카드나 공유 결제 토큰(SPT)을 발급하여 기존 결제 시스템에서 안전하게 구매를 수행할 수 있게 하며, 사용자는 앱을 통해 결제 요청을 검토하고 승인할 수 있는 통제권을 갖습니다. 결과적으로 복잡한 결제 인프라를 직접 구축할 필요 없이 AI 에이전트가 실질적인 상거래를 수행할 수 있는 기반을 마련해 줍니다. ### 에이전트용 Link 지갑의 작동 방식 * **보안 결제 수단 제공**: 에이전트는 사용자의 실제 카드 정보를 직접 보지 못하며, 대신 일회용 가상 카드나 SPT(Shared Payment Token)를 할당받아 결제를 진행합니다. * **OAuth 기반 권한 부여**: 사용자는 표준 OAuth 흐름을 통해 자신의 Link 지갑에 대한 접근 권한을 에이전트에게 부여할 수 있습니다. * **실시간 승인 프로세스**: 에이전트가 결제 요청을 생성하면 사용자는 Link의 웹 또는 모바일 앱(iOS/Android)에서 알림을 받고, 금액, 통화, 가맹점 등의 정보를 확인한 후 최종 승인합니다. * **다양한 결제 수단 추상화**: 현재 카드와 SPT를 지원하며, 향후 스테이블코인 및 기계 전용 결제 프로토콜 등으로 지원 범위를 확대할 예정입니다. ### 에이전트용 Stripe Issuing을 통한 맞춤형 인프라 * **API 기반 커스터마이징**: 독자적인 에이전트 지갑이나 카드 서비스를 구축하려는 기업은 Stripe Issuing API를 통해 온보딩, 자금 흐름, 지출 한도 등을 직접 설계할 수 있습니다. * **정교한 지출 제어**: 카드 수준의 권한 설정, 트랜잭션 승인 시점의 사기 방지 제어, 실시간 카드 활동 모니터링 기능을 제공합니다. * **자금 관리 최적화**: 가상 카드 발급부터 자금 보관, 지출 모니터링까지 에이전트 금융 워크플로우에 필요한 모든 하부 구조를 지원합니다. ### 주요 활용 사례 및 비즈니스 확장성 * **비즈니스 자동화**: 개발자는 에이전트를 활용해 기업의 반복적인 지출이나 프로그램 방식의 구매 워크플로우를 자동화할 수 있습니다. * **핀테크 및 SaaS**: 핀테크 제공업체는 실시간 지출 관리 시스템에 에이전트 발행 카드를 내장할 수 있으며, 수직형 SaaS 플랫폼은 중소상공인(SMB) 고객에게 자사 브랜드의 에이전트 결제 기능을 제공할 수 있습니다. * **마켓플레이스 효율화**: 판매자가 물류, 공급업체 결제, 주문 이행 등을 에이전트를 통해 자동 처리하도록 지원하여 운영 효율을 높일 수 있습니다. 개인 비서나 쇼핑 에이전트와 같은 소비자 지향 AI 서비스를 개발하는 기업이라면, 직접 복잡한 지갑 인프라를 구축하기보다 2억 명 이상의 사용자를 보유한 Link 지갑 기능을 도입하는 것이 효율적입니다. 보다 세밀한 금융 로직과 브랜드 경험이 필요한 경우에는 Stripe Issuing API를 활용하여 독자적인 에이전트 결제 생태계를 구축하는 것을 권장합니다.

Sessions 2026에서 발표한 모든 것 (새 탭에서 열림)

Stripe는 연례 컨퍼런스 'Stripe Sessions'를 통해 AI 에이전트 경제를 지원하기 위한 혁신적인 결제 인프라와 288개의 신규 기능을 발표했습니다. 이번 업데이트의 핵심은 AI 에이전트가 직접 결제를 수행하는 '에이전틱 커머스(Agentic Commerce)'의 구현과 기업들이 전 세계 어디서나 지능적이고 안전하게 비즈니스를 확장할 수 있도록 돕는 프로그래밍 가능한 금융 네트워크 구축에 있습니다. Stripe는 이를 통해 AI 중심의 새로운 경제 생태계를 위한 기반을 마련하고 결제 전환율과 보안성을 동시에 극대화한다는 결론을 제시합니다. **AI 에이전트 상거래와 프로그래밍 가능한 결제 (Agentic Commerce)** * AI 에이전트가 직접 제품을 검색하고 결제까지 수행할 수 있는 'Agentic Commerce Suite'를 출시하여, 기업이 대시보드에서 에이전트의 접근 권한을 직접 관리할 수 있게 합니다. * 구글의 Universal Commerce Protocol(UCP) 및 메타와의 파트너십을 통해 AI 검색 환경이나 페이스북 광고 내에서 이탈 없는 즉시 결제 흐름을 구현했습니다. * 머신 결제 프로토콜(MPP)과 공유 결제 토큰(SPT)을 도입하여 에이전트가 카드, 법정화폐뿐만 아니라 스테이블코인으로도 소액 결제 및 정기 결제를 수행할 수 있는 기술적 토대를 마련했습니다. * 'Link' 에이전트 지갑을 통해 기업은 에이전트에게 결제 권한을 부여하면서도, 지출 승인 및 구매 내역 가시성을 유지하며 통제력을 확보할 수 있습니다. **최적화된 체크아웃 및 글로벌 결제 인프라 확장** * AI 어시스턴트, 라이브 트랜잭션 재생, A/B 테스트 기능을 갖춘 'Checkout Studio'를 공개하여 기업이 클릭 몇 번으로 결제 화면을 분석하고 최적화할 수 있도록 지원합니다. * 'Adaptive Pricing AI' 모델을 적용하여 실시간으로 고객의 세션 신호를 분석하고, 고객이 선호하는 통화와 현지화된 구독 가격을 자동으로 표시합니다. * 신규 하드웨어 'Stripe Reader T600' 출시와 더불어 홍콩, 멕시코 등 15개 신규 시장으로 오프라인 결제(Terminal) 서비스를 확대하고, 별도의 POS 기기 없이 리더기만으로 결제를 시작할 수 있는 '독립형 모드'를 선보였습니다. * 디지털 비즈니스를 위한 'Managed Payments' 솔루션을 통해 80개국 이상의 간접세 준수, 사기 방지, 고객 지원을 Stripe가 대행하는 판매 기록(Merchant of Record) 서비스를 제공합니다. **AI 기반의 지능형 보안 및 사기 방지 (Radar & Intelligence)** * Radar 업데이트를 통해 무료 체험판 남용, 봇을 활용한 부정 결제, 계정 공유 및 다중 계정 생성 등 고도화된 사기 패턴을 정교하게 탐지합니다. * 각 비즈니스 고유의 신호와 Stripe의 글로벌 네트워크 인텔리전스를 결합한 '맞춤형 Radar 모델'을 통해 개별 기업 환경에 최적화된 사기 방지 정책을 수립할 수 있습니다. * 'Authorization Boost'에 AI 최적화 기술을 적용하여 데이터 전용 인증 흐름과 PIN 없는 직불카드 재시도를 지원함으로써, 승인율을 평균 3.8% 높이고 처리 비용을 최대 3.3% 절감합니다. * AI 기반의 'Smart Disputes' 기능을 통해 증거 서류를 자동으로 추천받고 관리함으로써 분쟁 해결 성공률을 높였습니다. **수익 모델 다변화를 위한 빌링 시스템 고도화** * AI 네이티브 비즈니스 모델을 지원하기 위해 실시간 미터링, 차원별 가격 책정(Dimensional Pricing), 스트리밍 결제 기능을 강화했습니다. * Stripe Billing의 사용자 정의 기능을 확대하고 실시간 데이터 쿼리 접근성을 높여, 복잡한 구독 모델이나 사용량 기반 과금 체계를 더욱 유연하게 운영할 수 있게 했습니다. 기업들은 이번에 발표된 Stripe의 도구들을 활용해 단순한 결제 처리를 넘어 AI 에이전트 중심의 미래 상거래 환경에 선제적으로 대응할 수 있습니다. 특히 글로벌 시장 진출 시 복잡한 세금 및 규제 문제를 해결해 주는 'Managed Payments'와 AI 기반의 승인율 최적화 도구를 적극 도입하여 운영 효율과 매출을 동시에 극대화할 것을 추천합니다.