Securing non-human identities: automated revocation, OAuth, and scoped permissions (새 탭에서 열림)

에이전트 기반 AI 시스템이 확산됨에 따라 스크립트나 AI 도구 같은 '비인간 ID(Non-human identities)'의 보안 관리가 현대 개발 환경의 핵심 과제로 부상하고 있습니다. 클라우드플레어는 이러한 비인간 ID를 안전하게 관리하기 위해 자격 증명 유출을 자동으로 탐지 및 무효화하고, 세분화된 RBAC(역할 기반 액세스 제어)를 통해 권한을 최소화하는 새로운 보안 업데이트를 도입했습니다. 이를 통해 개발자는 의도치 않은 토큰 유출이나 권한 남용으로 인한 데이터 손실 및 평판 훼손 리스크를 효과적으로 차단할 수 있습니다. **아이덴티티의 세 가지 기둥: 주체, 자격 증명, 정책** * **주체 (Principal - 여행자):** API에 접근하는 주체로, 인간 개발자뿐만 아니라 코드를 배포하는 에이전트나 서드파티 도구 등을 포함합니다. * **자격 증명 (Credential - 여권):** 신원을 증명하는 API 토큰입니다. 유출 시 누구나 해당 주체로 위장할 수 있으므로 철저한 보호가 필요합니다. * **정책 (Policy - 비자):** 인증된 주체가 수행할 수 있는 구체적인 작업을 정의하며, 검증된 신원이라도 필요한 자원에만 접근할 수 있도록 범위를 제한합니다. **자동화된 토큰 유출 탐지 및 무효화** * **GitHub 비밀번호 스캐닝 파트너십:** 공개 저장소에 클라우드플레어 토큰이 유출될 경우, GitHub이 이를 실시간으로 탐지하여 클라우드플레어에 알리고 즉각 무효화 처리합니다. * **스캔 효율성 개선:** 기존의 모호한 토큰 형식 대신 'cf' 접두사와 체크섬(Checksum)이 포함된 새로운 형식을 도입하여, 보안 도구들이 높은 정확도로 토큰을 식별하고 유효성을 검증할 수 있게 했습니다. * **사후 대응 자동화:** 유출 탐지 즉시 토큰이 취소되므로, 사용자가 실수를 인지하기 전에 이미 보안 위협이 차단되며 이후 이메일 알림을 통해 새 토큰 생성을 안내합니다. **Cloudflare One을 통한 전방위 보호** * **네트워크 및 이메일 보안:** Cloudflare Gateway와 Email Security를 통해 네트워크 트래픽이나 아웃룩 이메일 내에 포함된 토큰 유출을 실시간으로 감지하고 차단합니다. * **SaaS 및 AI 데이터 보호:** CASB를 통해 구글 드라이브나 원드라이브 등 클라우드 저장소 내 방치된 토큰을 스캔하며, AI Gateway를 통해 AI 모델로 입력되거나 출력되는 데이터 속의 민감 정보를 실시간 필터링합니다. **실용적인 보안 권장 사항** 비인간 ID 보안을 강화하기 위해 모든 신규 토큰 생성 시 스캔이 용이한 최신 형식을 사용하고, '리소스 범위 RBAC(Resource-scoped RBAC)'를 적용하여 각 에이전트가 업무 수행에 꼭 필요한 최소한의 권한만 가지도록 정책을 구성해야 합니다. 또한 Cloudflare One의 DLP(데이터 손실 방지) 프로필을 활성화하여 코드 저장소 외의 다양한 경로로 유출되는 토큰을 상시 모니터링하는 것이 권장됩니다.

Scaling MCP adoption: Our reference architecture for simpler, safer and cheaper enterprise deployments of MCP (새 탭에서 열림)

Cloudflare는 기업 전반에 걸친 모델 컨텍스트 프로토콜(MCP) 도입을 안전하고 효율적으로 확장하기 위해, 자사의 보안 플랫폼(Cloudflare One)과 개발자 플랫폼을 결합한 참조 아키텍처를 구축했습니다. 이 아키텍처는 로컬 MCP 서버의 보안 취약성을 해결하기 위해 중앙 집중식 원격 MCP 서버 모델을 채택하고, 인증 및 데이터 유출 방지(DLP) 기능을 통합하여 거버넌스를 강화했습니다. 이를 통해 기업은 권한 확산이나 프롬프트 인젝션과 같은 위험을 관리하는 동시에, 토큰 비용을 절감하고 생산성을 높이는 에이전트 워크플로우를 구현할 수 있습니다. **원격 MCP 서버를 통한 가시성과 제어권 확보** - 로컬에서 호스팅되는 MCP 서버는 검증되지 않은 소프트웨어 사용과 공급망 공격의 위험이 크며, IT 관리자의 중앙 통제가 불가능하다는 단점이 있습니다. - Cloudflare는 사내 모노레포(Monorepo) 내에 중앙 관리형 MCP 플랫폼을 구축하여, 직원이 템플릿을 통해 승인된 인프라 위에서 원격 MCP 서버를 신속하게 배포할 수 있도록 지원합니다. - 모든 원격 MCP 서버는 Cloudflare의 글로벌 네트워크를 통해 배포되므로 전 세계 어디서든 낮은 지연 시간으로 접근이 가능하며, 관리자는 모든 사용 내역에 대한 가시성을 가집니다. **Cloudflare Access 기반의 강력한 인증** - 내부 자산에 접근하는 MCP 서버를 보호하기 위해 Cloudflare Access를 OAuth 제공자로 통합하여 권한이 부여된 직원만 접근할 수 있도록 제한합니다. - 단일 로그인(SSO), 다요소 인증(MFA)뿐만 아니라 IP 주소, 위치, 기기 인증서와 같은 컨텍스트 기반의 속성을 검증하여 보안 수준을 높입니다. - 공개된 리소스(문서, 레이더 등)와 내부 프라이빗 리소스에 대한 접근 권한을 명확히 분리하여 운영합니다. **MCP 서버 포털을 통한 중앙 집중식 거버넌스** - 직원이 사용 가능한 모든 MCP 서버를 쉽게 찾을 수 있도록 'MCP 서버 포털'을 제공하여 검색성(Discovery) 문제를 해결합니다. - 포털 내에서 중앙 집중식 로깅과 데이터 유출 방지(DLP) 규칙을 적용하여 개인정보(PII) 등의 민감 데이터가 외부로 유출되는 것을 차단합니다. - 사용자 역할에 따라 도구 노출 범위를 다르게 설정하는 정책을 시행할 수 있습니다. (예: 재무팀은 읽기 전용 도구만, 엔지니어링팀은 읽기/쓰기 도구 모두 노출) **비용 절감과 보안 감지 기술** - 모든 API 엔드포인트를 개별 도구로 정의할 때 발생하는 토큰 비용 문제를 해결하기 위해, 에이전트가 코드를 생성하여 API와 상호작용하는 '코드 모드(Code Mode)'를 도입하여 컨텍스트 창 최적화를 달성했습니다. - Cloudflare Gateway를 활용한 '섀도우 MCP(Shadow MCP)' 감지 기능을 통해 조직 내에서 승인되지 않은 원격 MCP 서버가 사용되는 것을 식별하고 통제합니다. - 포털, 원격 서버, 인증 시스템이 모두 Cloudflare의 동일한 물리적 네트워크 노드 내에서 작동하므로 보안 검사 과정에서 발생하는 네트워크 지연을 최소화합니다. 기업이 MCP를 성공적으로 도입하려면 개별 사용자의 로컬 실행에 의존하기보다는, 인증과 거버넌스가 결합된 중앙 관리형 원격 아키텍처를 구축하는 것이 필수적입니다. 이를 통해 보안 리스크를 관리하는 동시에 AI 에이전트 운영에 드는 비용 효율성까지 확보할 수 있습니다.

Managed OAuth for Access: make internal apps agent-ready in one click (새 탭에서 열림)

Cloudflare는 내부 애플리케이션을 보호하는 'Cloudflare Access'에 클릭 한 번으로 활성화 가능한 'Managed OAuth' 기능을 도입하여 AI 에이전트의 접근성 문제를 해결했습니다. 기존에는 에이전트가 인증 페이지의 리다이렉션을 처리하지 못해 내부 데이터에 접근할 수 없었으나, 이제 OAuth 2.0 표준을 통해 에이전트가 사용자 대신 안전하게 인증을 수행하고 권한을 위임받을 수 있습니다. 이를 통해 기업은 수많은 레거시 앱의 코드를 수정하지 않고도 AI 에이전트가 즉시 활용할 수 있는 환경을 구축할 수 있게 되었습니다. **Managed OAuth의 작동 원리와 기술 표준** * Cloudflare Access가 직접 권한 부여 서버(Authorization Server) 역할을 수행하여 인증되지 않은 에이전트에게 `www-authenticate` 헤더를 반환합니다. * 에이전트는 RFC 9728 표준에 따라 `/.well-known/oauth-authorization-server` 경로에서 인증 서버 정보를 자동으로 탐색합니다. * RFC 7591(동적 클라이언트 등록)을 통해 에이전트가 자신을 클라이언트로 등록하고, RFC 7636(PKCE) 기반의 인증 흐름을 통해 보안성을 확보합니다. * 사용자가 인증을 승인하면 에이전트는 사용자 ID가 포함된 JWT(JSON Web Token)를 발급받아 이후 요청에 활용합니다. **레거시 앱의 즉각적인 AI 대응 환경 구축** * 수많은 내부 앱과 위키, REST API 등을 AI 에이전트가 읽을 수 있도록 개별적으로 코드를 수정하거나 별도의 MCP(Model Context Protocol) 서버를 구축할 필요가 없습니다. * Cloudflare Access 전면에 Managed OAuth를 활성화하는 것만으로 기존 앱들을 에이전트 친화적인 환경으로 즉시 업그레이드할 수 있습니다. * 특히 내부 위키와 같은 서비스의 경우 'Markdown for Agents' 기능과 Managed OAuth를 결합하여 에이전트가 보호된 콘텐츠를 원활하게 소비하도록 지원합니다. **서비스 계정 방식의 보안 한계 극복** * 정적 자격 증명을 사용하는 서비스 계정(Service Account) 방식은 감사 로그에서 실제 행위자를 파악하기 어렵고 '혼동된 대리인(Confused Deputy)' 문제에 취약합니다. * Managed OAuth는 모든 에이전트의 작업을 실제 사용자의 ID와 연결하므로, 사용자가 가진 권한 범위 내에서만 에이전트가 동작하도록 엄격히 제어합니다. * 이를 통해 기업은 보안 정책을 유지하면서도 어떤 사용자의 에이전트가 어떤 데이터에 접근했는지 명확한 감사 추적(Audit Log)을 남길 수 있습니다. **에이전트 도구의 표준 채택 권고** * 현재 대부분의 에이전트용 'web fetch' 도구는 HTTP 응답의 `www-authenticate` 헤더를 처리하지 못하는 한계가 있습니다. * Cloudflare는 에이전트가 MCP 서버뿐만 아니라 일반적인 웹 페이지나 API에 접근할 때도 RFC 9728 표준을 준수하여 자동으로 OAuth 흐름을 수행할 것을 제안합니다. * 이를 위해 오픈소스 프로젝트인 OpenCode의 web fetch 도구에 해당 표준을 적용하는 예시를 제시하며 에이전트 생태계의 표준화를 촉구하고 있습니다. 내부 인프라의 보안을 유지하면서 AI 에이전트의 활용도를 높이고 싶다면, 정적 토큰이나 서비스 계정 대신 Managed OAuth를 활성화하여 사용자 중심의 권한 위임 체계를 구축하는 것이 권장됩니다. 이는 보안 감사 가시성을 확보하는 동시에 가장 빠르고 효율적으로 내부 앱을 AI 시대에 맞게 현대화하는 방법입니다.

Secure private networking for everyone: users, nodes, agents, Workers — introducing Cloudflare Mesh (새 탭에서 열림)

AI 에이전트의 부상으로 기존의 인간 중심적인 VPN이나 SSH 터널은 자율적으로 작동하는 소프트웨어의 네트워크 접근 요구를 충족하기 어려워졌습니다. Cloudflare Mesh는 AI 에이전트, 서비스, 사용자 기기를 아우르는 통합 보안 프라이빗 네트워크를 제공하여, 복잡한 설정 없이도 내부 리소스에 안전하게 접근하고 가시성을 확보할 수 있도록 돕습니다. 이는 Cloudflare One의 제로 트러스트 보안 체계와 직접 통합되어, 개발자부터 기업용 워크로드까지 유연하게 확장 가능한 에이전트 중심의 네트워크 인프라를 실현합니다. ### 에이전트 중심 시대를 위한 네트워크의 변화 * **기존 방식의 한계:** VPN은 수동 로그인이 필요하고 SSH 터널은 설정이 번거로우며, 서비스를 공용 인터넷에 노출하는 것은 보안 위험이 큼. 특히 자율적으로 동작하는 AI 에이전트에게는 부적합한 방식임. * **Cloudflare Mesh의 도입:** AI 에이전트가 스테이징 DB나 내부 API에 직접 접근할 수 있도록 네트워크를 연결하며, Cloudflare Workers 및 Agents SDK와 통합되어 서버리스 환경에서도 프라이빗 리소스에 도달할 수 있게 함. * **단일화된 인프라:** Cloudflare One의 SASE 아키텍처를 기반으로 하며, 'Mesh 노드'(기존 WARP Connector)와 'Cloudflare One Client'를 통해 인간과 에이전트 트래픽을 모두 수용함. ### 주요 에이전트 워크플로우와 활용 사례 * **개인용 에이전트 원격 접속:** 모바일 기기에서 집 안의 홈 네트워크에 있는 AI 에이전트(예: Mac mini에서 실행 중인 모델)에 안전하게 접속. 인터넷 노출 없이 셸 접근 및 파일 시스템 제어가 가능함. * **코딩 에이전트의 스테이징 환경 접근:** 개발자 노트북의 코딩 에이전트(Cursor, Claude Code 등)가 프라이빗 클라우드 VPC 내의 스테이징 데이터베이스나 API 서버에 직접 쿼리를 날릴 수 있도록 연결함. * **배포된 에이전트와 내부 서비스 통합:** Cloudflare Workers 기반의 에이전트가 퍼블릭 인터넷에 노출되지 않은 내부 API 및 DB와 통신할 때, 세밀한 권한 제어와 감사 추적(Audit Trail)을 제공함. ### Cloudflare One 기반의 통합 보안 및 관리 * **글로벌 네트워크 활용:** 전 세계 330개 이상의 도시에 걸친 Cloudflare 네트워크를 통해 프라이빗 IP로 라우팅되어 높은 안정성과 통제력을 확보함. * **자동화된 보안 정책:** Gateway 정책, 디바이스 포스처(Posture) 체크, DNS 필터링 등이 Mesh 트래픽에 자동으로 적용되어 추가 설정 없이 보안 수준을 강화함. * **확장성 있는 기능 제공:** 초기 설정 후 필요에 따라 SSH/RDP 세션 관리, 브라우저 격리, 데이터 손실 방지(DLP) 및 SaaS 보안(CASB) 등 고급 제로 트러스트 기능을 점진적으로 도입할 수 있음. 프라이빗 네트워킹이 필요한 개발자나 기업은 Mesh를 통해 수 분 내에 네트워크를 구축하고 에이전트에게 안전한 통로를 제공할 수 있습니다. 단순한 터널링을 넘어 향후 제로 트러스트 보안의 전체 스택으로 마이그레이션 없이 확장 가능하다는 점이 큰 장점입니다. 특히 자율적인 AI 에이전트의 활동에 대한 보안 통제가 필요한 환경에 Cloudflare Mesh 도입을 강력히 권장합니다.

AWS Weekly Roundup: Claude Mythos Preview in Amazon Bedrock, AWS Agent Registry, and more (April 13, 2026) | Amazon Web Services (새 탭에서 열림)

AWS는 이번 발표를 통해 AI 모델의 실험 단계를 넘어 실제 운영 환경에서의 비용 투명성과 관리 효율성을 높이는 데 주력하고 있습니다. 특히 Amazon Bedrock의 비용 할당 기능과 새로운 에이전트 레지스트리는 기업이 AI 자원을 체계적으로 거버넌스하고 최적화할 수 있는 기틀을 마련해 줍니다. 결과적으로 개발 가속화와 동시에 재무적 가시성을 확보하려는 기업들에게 실질적인 해결책을 제시하고 있습니다. ### AI 비용 관리 및 거버넌스 체계 구축 * **IAM 기반 Bedrock 비용 할당**: 이제 IAM 사용자 및 역할별로 Amazon Bedrock 사용 비용을 할당할 수 있습니다. 팀이나 비용 센터별로 태그를 지정해 AWS Cost Explorer 및 상세 비용 보고서(CUR)에서 모델 추론 비용을 명확히 추적할 수 있어 AI 투자의 가시성이 크게 향상되었습니다. * **AWS Agent Registry 출시**: 기업 내 AI 에이전트, 도구, MCP(Model Context Protocol) 서버 등을 통합 관리하는 프라이빗 카탈로그입니다. 시맨틱 검색과 승인 워크플로를 통해 중복 개발을 방지하고, CloudTrail을 통한 감사 추적 기능을 제공하여 에이전트 기반 시스템의 거버넌스를 강화합니다. ### 보안 및 관리형 AI 서비스 확장 * **Claude Mythos 프리뷰**: Anthropic의 가장 정교한 보안 특화 모델이 Amazon Bedrock에 연구 프리뷰 형태로 출시되었습니다. 소프트웨어 취약점 식별 및 대규모 코드베이스 분석에 탁월하며, 현재는 인터넷 주요 인프라 기업 및 오픈소스 유지 관리자를 중심으로 접근이 제한적으로 허용됩니다. * **Amazon WorkSpaces Advisor**: 생성형 AI를 활용하여 IT 관리자의 업무를 돕는 도구입니다. 가상 데스크톱 환경의 구성을 분석하고 문제를 자동으로 감지하여, 서비스 복구 및 성능 최적화를 위한 구체적인 권장 사항을 제공합니다. ### 고성능 데이터 스토리지 및 관측성 강화 * **Amazon S3 Files**: S3 버킷을 Amazon EFS 기술 기반의 파일 시스템으로 직접 연결하여 사용할 수 있습니다. 코드 수정 없이도 기존 파일 시스템 세맨틱을 유지하면서 초당 수 테라비트의 읽기 처리량을 확보할 수 있으며, S3 API와 파일 인터페이스를 동시에 사용할 수 있는 유연성을 제공합니다. * **OpenSearch 통합 관측성 지원**: Managed Prometheus 및 에이전트 트레이싱 기능이 추가되었습니다. 로그, 메트릭, 트레이스를 하나의 인터페이스에서 통합 관리할 수 있으며, 특히 LLM 실행 가시성을 위한 OpenTelemetry GenAI 시맨틱 컨벤션을 지원하여 AI 운영의 효율성을 높였습니다. ### 양자 컴퓨팅 및 고급 컴퓨팅 옵션 * **Rigetti 108 큐비트 QPU 지원**: Amazon Braket에서 Rigetti의 'Cepheus' 프로세서를 사용할 수 있게 되었습니다. 100 큐비트 이상의 초전도 양자 프로세서로, 펄스 수준의 제어가 가능하여 연구자들이 더 복잡한 양자 알고리즘을 테스트할 수 있는 환경을 제공합니다. * **AWS Lambda 매니지드 인스턴스**: 서버리스의 장점을 유지하면서도 메모리 집약적인 애플리케이션을 지원할 수 있도록 Lambda 인프라 옵션이 확장되어, 가벼운 워크로드를 넘어선 복잡한 계산 작업도 처리가 가능해졌습니다. 성공적인 AI 운영을 위해서는 도입 초기부터 **IAM 태그를 활용한 비용 할당 정책**을 수립하는 것이 권장됩니다. 또한, Amazon Bedrock에서 사용 중인 파운데이션 모델의 **생명주기(Lifecycle)** 문서를 정기적으로 확인하여, 모델 업데이트 및 단종 계획에 따른 서비스 중단 위험을 사전에 방지하시기 바랍니다.

입문자를 위한 GitHub: GitHub Pages 시작하기 (새 탭에서 열림)

제시해주신 텍스트는 기술 블로그의 본문이 아닌 작성자의 **프로필(Bio)** 정보입니다. 해당 내용을 바탕으로 요청하신 형식에 맞춰 요약해 드립니다. Kedasha는 GitHub의 Developer Advocate로서 자신의 개발 경험과 지식을 커뮤니티에 공유하며 타인의 성장을 돕는 데 주력하고 있습니다. 그녀는 소프트웨어 개발자로서 쌓은 실무적인 교훈을 전파하며, 기술 산업 내에서 교육적 가치를 창출하는 것을 핵심 역할로 삼고 있습니다. **Developer Advocate로서의 지식 공유** * GitHub 소속의 Developer Advocate로서 실무에서 얻은 인사이트와 교훈을 전 세계 개발자 커뮤니티와 활발하게 공유함. * 소프트웨어 개발자로서의 개인적인 여정과 경험을 바탕으로 기술 생태계의 학습 문화를 조성하는 데 기여함. **기술 교육에 대한 철학과 소통** * 타인이 기술 산업을 이해하고 새로운 지식을 습득하는 과정에서 보람을 느끼며, 이를 위해 교육적 멘토 역할을 수행함. * 소셜 미디어 플랫폼(@itsthatladydev)을 적극적으로 활용하여 온라인상에서 전 세계 개발

클라우드플레어 전체를 위한 CLI 구축하기 (새 탭에서 열림)

Cloudflare는 100개 이상의 제품과 3,000여 개의 API 작업을 아우르는 거대한 생태계를 단일화하기 위해 Wrangler CLI를 전면 재구축하고 있습니다. 특히 AI 에이전트가 주요 사용자로 부상함에 따라, 모든 제품을 CLI, SDK, Terraform 등 다양한 인터페이스에서 일관되게 사용할 수 있도록 하는 것을 목표로 합니다. 이를 위해 새로운 TypeScript 기반 스키마 시스템을 도입하여 코드 생성 파이프라인을 자동화하고 개발 생산성을 높이고 있습니다. ### 통합 CLI 'cf'로의 진화 * Cloudflare의 방대한 API를 모두 수용하기 위해 차세대 Wrangler의 기술 프리뷰 버전인 `cf` 커맨드를 공개했습니다. * 기존 Wrangler가 일부 제품만 지원하던 한계를 극복하고, 인간과 AI 에이전트 모두에게 인체공학적인 출력을 제공하도록 설계되었습니다. * 현재 `npx cf` 또는 `npm install -g cf`를 통해 초기 버전을 미리 체험해 볼 수 있으며, 향후 기존 Wrangler 기능들과 통합될 예정입니다. ### TypeScript 기반의 새로운 스키마 엔진 * 기존 OpenAPI 스키마만으로는 로컬 개발 환경과 API 요청이 결합된 복잡한 CLI 명령어나 Workers 바인딩을 표현하는 데 한계가 있었습니다. * 이에 Cloudflare는 API, CLI 인자, 에이전트 기술(Agent Skills) 등을 포괄적으로 정의할 수 있는 새로운 TypeScript 기반 스키마 시스템을 구축했습니다. * 이 시스템은 일종의 '코드 생성기' 역할을 하며, 단일 정의로부터 OpenAPI 스키마, SDK, Terraform 제공자 등을 자동으로 생성하여 제품 업데이트 속도에 맞춘 신속한 동기화를 지원합니다. ### 일관성 확보와 컨텍스트 엔지니어링 * 수많은 제품군 사이에서 일관성 없는 명령어(예: `info`와 `get`의 혼용)는 특히 AI 에이전트의 오작동을 유발하므로, 스키마 계층에서 명칭 규칙을 강제합니다. * 모든 명령어에 `--force`, `--json`과 같은 표준 플래그를 적용하여 예측 가능성을 높였습니다. * 로컬 리소스와 원격 리소스 간의 동작 차이를 명확히 시그널링하여, 에이전트가 개발 중 리소스를 수정할 때 혼동하지 않도록 컨텍스트를 제공합니다. ### 로컬 익스플로러(Local Explorer) 도입 * 로컬 개발 환경에서 시뮬레이션되는 KV, D1, R2, Durable Objects 등의 리소스 내부를 쉽게 들여다볼 수 있는 'Local Explorer' 기능이 베타로 출시되었습니다. * Wrangler나 Cloudflare Vite 플러그인 실행 중 단축키 `e`를 눌러 활성화할 수 있으며, 기존처럼 `.wrangler/state` 디렉토리를 직접 분석할 필요가 없습니다. * 이를 통해 개발자와 에이전트는 로컬 데이터 상태를 즉각 확인하고, 테스트 레코드를 삽입하거나 스키마를 검증하는 등 상호작용 중심의 개발 사이클을 가질 수 있습니다. Cloudflare의 새로운 변화를 미리 경험해보고 싶다면 지금 바로 터미널에서 `npx cf`를 실행해 보세요. 또한 로컬 개발 중에는 `e` 키를 활용해 데이터 상태를 실시간으로 점검하며 개발 속도를 높일 수 있습니다.

Durable Objects in Dynamic Workers: Give each AI-generated app its own database (새 탭에서 열림)

Cloudflare는 AI가 생성한 애플리케이션에 독립적인 영구 저장소를 제공하기 위해 'Durable Object Facets' 기능을 출시했습니다. 이 기능은 가볍고 빠른 Dynamic Workers 환경에서 AI 코드가 자신만의 전용 SQLite 데이터베이스를 가질 수 있게 하여, 일회성 실행을 넘어 상태를 유지하는 복잡한 앱 구축을 가능하게 합니다. 개발자는 이를 통해 동적으로 생성된 코드에 대해 제로 레이턴시 수준의 저장소 성능과 체계적인 관리 권한을 동시에 확보할 수 있습니다. ### Dynamic Workers와 상태 관리의 필요성 * **Isolate 기반의 효율성:** Dynamic Workers는 컨테이너가 아닌 Isolate 기술을 사용하여 기존 방식보다 100배 빠르고 메모리 사용량은 1/10 수준으로 가볍습니다. * **일회성 실행의 한계:** 기존에는 AI 에이전트가 생성한 코드를 즉시 실행하고 버리는 용도로 주로 사용되었으나, 사용자 상호작용이 필요한 앱을 만들려면 장기적인 상태(State) 저장이 필수적입니다. * **스토리지 대안:** 원격 SQL 데이터베이스(D1, Postgres 등)를 연결할 수도 있지만, 더 빠르고 밀접한 데이터 처리를 위해 Durable Object의 로컬 SQLite 활용이 제안되었습니다. ### 기존 Durable Objects의 제약 사항 * **정적 설정의 한계:** 일반적인 Durable Object는 코드 작성 후 API를 통한 프로비저닝과 Wrangler 설정이 필요하며, 이는 실시간으로 코드가 생성되는 동적 환경에는 적합하지 않습니다. * **통제 및 관리 문제:** AI나 사용자가 생성한 코드가 무제한으로 스토리지를 생성하거나 사용하는 것을 방지하기 위해 로깅, 과금, 리소스 제한 등을 수행할 '감독자(Supervisor)' 역할이 필요합니다. ### Durable Object Facets의 구조와 작동 방식 * **Facets 개념 도입:** 개발자가 작성한 고정된 Durable Object(관리자) 내에서 AI가 생성한 Dynamic Worker 코드를 'Facet'이라는 하위 단위로 로드하고 인스턴스화합니다. * **독립된 SQLite 데이터베이스:** 각 Facet은 관리자의 데이터베이스와 분리된 자신만의 SQLite 데이터베이스를 할당받습니다. 이를 통해 일반적인 Durable Object 스토리지 API(kv, sql)를 그대로 사용할 수 있습니다. * **감독자 패턴(Supervisor Pattern):** 모든 요청은 먼저 관리자 Durable Object를 거쳐 Facet으로 전달되므로, 개발자는 요청 전달 전에 로깅, 보안 검사, 할당량 제한 등의 로직을 실행할 수 있습니다. * **코드 구현:** `this.ctx.facets.get()` 메서드를 사용하여 동적 클래스를 인스턴스로 만들고, RPC(원격 프로시저 호출)나 HTTP 요청을 통해 해당 Facet과 통신합니다. AI 기반의 맞춤형 앱 플랫폼이나 사용자 정의 로직을 실행해야 하는 SaaS를 구축한다면, Durable Object Facets를 활용해 보시기 바랍니다. 이를 통해 인프라 설정의 번거로움 없이 각 사용자 앱마다 독립적이고 성능이 뛰어난 전용 데이터베이스를 즉시 제공할 수 있으며, 관리자 계층을 통해 시스템 안정성과 가시성을 동시에 확보할 수 있습니다.

Agents have their own computers with Sandboxes GA (새 탭에서 열림)

Cloudflare는 AI 에이전트가 코드를 안전하게 개발하고 실행할 수 있도록 설계된 '샌드박스(Sandboxes)'와 'Cloudflare Containers'의 정식 출시(GA)를 발표했습니다. 이 서비스는 에이전트에게 격리된 가상 컴퓨터 환경을 제공하여 리포지토리 복제, 코드 빌드, 개발 서버 실행과 같은 복잡한 작업을 안전하게 수행할 수 있게 돕습니다. 이를 통해 개발자는 확장성, 상태 복구, 보안 등 인프라 구축의 난제들을 직접 해결할 필요 없이 고도화된 AI 에이전트 서비스를 배포할 수 있습니다. ### 샌드박스의 핵심 기능 및 업데이트 * **보안 인증 정보 주입(Secure Credential Injection)**: 프로그래밍 가능한 송신(Egress) 프록시를 통해 네트워크 계층에서 인증 정보를 주입합니다. 에이전트가 실제 비밀번호나 API 키에 직접 접근하지 못하게 차단하면서도 필요한 내부 서비스에는 안전하게 접근할 수 있도록 설계되었습니다. * **PTY(의사 터미널) 지원**: 단순한 텍스트 입력-출력 구조를 넘어, WebSocket과 xterm.js를 활용한 실제 터미널 환경을 제공합니다. 이를 통해 인간과 에이전트 모두 스트리밍 출력을 실시간으로 확인하고 상호작용할 수 있습니다. * **지속성 코드 인터프리터**: Python, JavaScript, TypeScript를 위한 상태 유지형 인터프리터를 기본 제공하여, 에이전트가 이전 실행 상태를 기억하며 연속적인 코드를 실행할 수 있습니다. * **스냅샷 및 상태 복구**: 스냅샷 기능을 통해 에이전트의 이전 작업 세션을 신속하게 복구할 수 있으며, 유휴 상태일 때는 자동으로 절전 모드에 진입하여 리소스를 절약합니다. ### 인프라 관리 및 운영 효율성 * **프로그래밍 방식의 제어**: `exec`, `gitClone`, `writeFile` 등의 API 메서드를 제공하여 개발자가 샌드박스의 생명주기와 파일 시스템을 코드만으로 손쉽게 조작할 수 있습니다. * **라이브 프리뷰 및 배경 프로세스**: 백그라운드에서 실행되는 개발 서버와 상호작용할 수 있는 라이브 프리뷰 URL을 지원합니다. 파일 시스템 변경 사항을 감지하는 모니터링 기능과 결합하여 에이전트의 작업 결과를 즉시 검증할 수 있습니다. * **유연한 과금 체계**: 'Active CPU Pricing' 정책을 도입하여 에이전트가 실제로 CPU를 사용하는 시간에 대해서만 비용을 지불합니다. 대규모 에이전트 함대를 운영하더라도 대기 상태의 유휴 리소스에 대한 비용 부담이 적습니다. ### 기술적 특징 및 작동 방식 * **Cloudflare Containers 기반**: 모든 샌드박스는 Cloudflare Containers에 의해 구동되며, 고유한 이름을 통해 요청 시 즉시 생성되거나 기존 환경을 재개합니다. * **전역 접근성**: 동일한 ID를 제공하면 전 세계 어디에서나 이전에 작업하던 동일한 샌드박스 환경에 다시 접속하여 작업을 이어갈 수 있습니다. * **검증된 안정성**: Figma의 'Figma Make'와 같은 실제 서비스에서 이미 활용되고 있으며, 신뢰할 수 없는 사용자 작성 코드나 에이전트 코드를 실행하는 데 최적화된 격리 환경을 보장합니다. AI 에이전트가 단순한 텍스트 응답을 넘어 실제 환경에서 도구를 사용하고 코드를 실행하는 '행동하는 에이전트'로 진화하기 위해서는 안전한 샌드박스가 필수적입니다. Cloudflare의 이번 GA 출시는 복잡한 인프라 설정 없이도 엔터프라이즈급 보안과 확장성을 갖춘 에이전트 실행 환경을 즉시 구축할 수 있는 실질적인 해답을 제공합니다.

동적이며 신원 기반의 안전한 샌드박스 인증 (새 탭에서 열림)

AI 에이전트와 같은 신뢰할 수 없는 워크로드를 안전하게 실행하기 위해서는 샌드박스 환경이 필수적이지만, 외부 서비스와의 통신 시 보안과 편의성을 동시에 확보하는 것은 어려운 과제였습니다. 이를 해결하기 위해 도입된 '아웃바운드 워커(outbound Workers)'는 프로그래밍 가능한 이그레스 프록시를 통해 샌드박스 내부로 비밀 키를 노출하지 않고도 안전하고 유연한 인증을 구현합니다. 이 방식은 제로 트러스트 원칙을 준수하면서도 개발자에게 강력한 통제권과 관찰 가능성을 제공하여 AI 워크로드의 보안 수준을 획기적으로 높여줍니다. ### 샌드박스의 핵심 가치와 아웃바운드 워커의 역할 * 샌드박스는 마이크로VM 기술을 활용해 신뢰할 수 없는 사용자나 LLM이 호스트 시스템이나 다른 워크로드를 침해하지 못하도록 격리하는 보안 기능을 제공합니다. * 단순한 격리를 넘어, 사용자가 이전 상태를 빠르게 복구할 수 있는 속도와 플랫폼이 샌드박스 내부 동작을 제어할 수 있는 통제권이 핵심입니다. * 아웃바운드 워커는 샌드박스에서 나가는 모든 트래픽을 가로채는 프록시 역할을 하며, 이를 통해 외부 서비스 연결, 로깅 추가, 동적 인증 주입 등을 프로그래밍 방식으로 처리합니다. ### 기존 에이전트 인증 방식의 문제점 * **표준 API 토큰:** 환경 변수나 파일로 토큰을 직접 주입하는 방식은 가장 단순하지만, 샌드박스가 탈취되거나 에이전트가 실수로 토큰을 노출할 경우 보안에 치명적입니다. * **워크로드 ID 토큰(OIDC):** 보안성은 높으나 많은 외부 서비스가 이를 직접 지원하지 않아, 토큰 교환을 위한 별도의 서비스를 구축해야 하는 등 통합의 유연성이 떨어집니다. * **커스텀 프록시:** 높은 유연성을 제공하지만 모든 트래픽을 효율적이고 동적으로 가로채는 시스템을 직접 설계하고 운영하는 것은 기술적 난이도가 매우 높습니다. ### 아웃바운드 워커를 통한 지능형 인증 매커니즘 * **제로 트러스트 구현:** 샌드박스 내부의 에이전트에게 토큰을 절대 전달하지 않습니다. 대신 프록시 계층에서 요청을 가로채 인증 헤더(예: `x-auth-token`)를 안전하게 삽입합니다. * **세밀한 통제와 관찰:** 자바스크립트 코드를 통해 특정 호스트(예: `github.com`)에 대해서만 인증을 적용하거나, GET 요청 이외의 동작을 차단하고 로깅하는 정책을 손쉽게 설정할 수 있습니다. * **성능과 투명성:** 프록시가 샌드박스와 동일한 머신에서 실행되므로 지연 시간이 거의 없으며, 샌드박스 내부의 워크로드는 프록시의 존재를 모른 채 평소처럼 통신하면 됩니다. * **동적 정책 변경:** 런타임 중에 인증 규칙이나 접근 권한을 즉시 변경할 수 있어, 에이전트의 작업 단계에 따른 유연한 권한 관리가 가능합니다. AI 에이전트가 외부 도구와 상호작용해야 하는 환경을 구축한다면, 에이전트에게 직접 권한을 부여하기보다 아웃바운드 워커와 같은 투명한 프록시 계층을 활용하는 것이 권장됩니다. 이를 통해 보안 사고의 위험을 원천 차단하면서도 개발 복잡성을 획기적으로 줄일 수 있습니다.

The Trust Question: How Higher Education Is Really Navigating AI (새 탭에서 열림)

고등 교육 현장에서의 AI 도입은 단순한 기술적 수용의 문제를 넘어, 구성원 간의 '신뢰(Trust)'를 구축하고 조율하는 과정이다. 대학 내 다양한 이해관계자들은 각기 다른 가치관을 바탕으로 AI에 접근하며, 성공적인 도입을 위해서는 도구 자체보다 기관의 철학을 반영한 가치 정렬(Alignment)이 선행되어야 한다. 결국 AI는 교육 기관이 오랫동안 미뤄왔던 핵심 가치에 대한 근본적인 질문을 다시 던지게 만드는 촉매제 역할을 하고 있다. **캠퍼스 내 네 가지 유형의 협상가들** * **혁신가(Innovators):** 교육 기관이 기술 변화를 선도해야 한다고 믿으며, 사후 대응적인 거버넌스보다 책임감 있는 선제적 도입이 낫다고 판단한다. * **전략가(Strategists):** 명확한 증거를 우선시하며, AI 도입으로 인한 결과가 확실하게 증명될 때까지 신중하고 계획적으로 움직인다. * **저항가(Resisters):** 윤리, 무결성, 기관의 명성을 최우선으로 하며, 도입 속도를 늦추는 것을 원칙 있는 리더십의 일환으로 여긴다. * **실무가(Pragmatists):** 철학적인 논쟁보다는 학생의 성공, 형평성, 그리고 실제 구현 과정에서 소외되는 사람이 없는지에 집중한다. * 이러한 네 가지 관점은 한 캠퍼스 내에서 동시에 공존하며, 이들 사이의 생산적인 긴장과 갈등을 이해하는 것이 변화 관리의 핵심이다. **도구보다 중요한 가치 정렬과 파트너십** * 교육 리더들에게 필요한 것은 더 많은 AI 도구가 아니라, 기관의 우선순위와 제약, 가치를 반영할 수 있는 내부적 정렬이다. * 단순한 솔루션 제공자가 아닌, 대학 내부의 복잡한 협상 과정을 이해하고 트레이드오프(Trade-offs)를 함께 고민할 수 있는 파트너가 절실하다. * AI는 속도와 엄격함, 접근성과 통제, 혁신과 안정성 중 무엇을 더 가치 있게 여길 것인지에 대한 명확한 의사결정을 강요하고 있다. **학술적 무결성: 감시에서 판단으로의 전환** * 학술적 무결성 논의는 단순히 "부정행위를 어떻게 막을 것인가"에서 "우리는 학생을 신뢰하는가, 학생은 우리를 신뢰하는가"라는 근본적인 질문으로 옮겨가고 있다. * 지나치게 제한적인 거버넌스는 학생에 대한 불신을 드러내고, 거버넌스의 부재는 책임 회피로 비칠 수 있는 딜레마가 존재한다. * 많은 교육 리더들이 적발과 감시(Surveillance) 위주의 태도에서 벗어나, 학생들이 올바른 선택을 할 수 있도록 돕는 비판적 사고와 판단력(Discernment) 배양으로 초점을 이동시키고 있다. AI를 '기적'이나 '위협'이라는 이분법적 프레임으로 바라보는 피로감에서 벗어나야 합니다. 기관은 불확실성 속에서도 원칙을 지키며 구성원들과 소통할 수 있는 구체적인 언어를 마련해야 하며, 기술적 규칙을 강화하는 것보다 신뢰를 회복하고 기관의 교육적 가치를 재확인하는 거버넌스를 구축할 것을 권장합니다.

Towards developing future-ready skills with generative AI (새 탭에서 열림)

구글 리서치는 뉴욕대학교(NYU)와의 협력을 통해 생성형 AI를 활용하여 '미래 역량(future-ready skills)'을 측정하는 연구 프로젝트인 'Vantage'를 공개했습니다. 이 시스템은 AI 아바타와의 대화를 통해 협업, 비판적 사고 등 정량화하기 어려운 인간의 역량을 시뮬레이션 환경에서 평가하며, 연구 결과 AI의 채점 정확도가 인간 전문가 수준에 도달했음을 입증했습니다. Vantage는 현재 구글 랩스(Google Labs)를 통해 영어 버전으로 제공되어 교육 현장에서의 활용 가능성을 탐색하고 있습니다. **미래 역량 측정의 난제와 시뮬레이션의 도입** * 비판적 사고, 협업, 창의적 사고와 같은 미래 역량은 현대 사회에서 필수적이지만, 기존의 표준화된 시험으로는 그 사고 과정이나 상호작용을 포착하기 어렵습니다. * 실제 인간 간의 상호작용을 통해 평가하는 방식은 자원 소모가 크고, 모든 학생에게 동일한 갈등 상황이나 과제를 부여하기 어려워 표준화된 채점이 불가능하다는 한계가 있습니다. * Vantage는 이러한 문제를 해결하기 위해 AI 아바타와 함께 과제를 수행하는 역동적인 다자간 대화 환경(Sandbox)을 구축하여 실제 세계와 유사한 평가 시나리오를 제공합니다. **Executive LLM을 활용한 적응형 평가 엔진** * **Executive LLM의 역할:** 대화의 흐름을 실시간으로 분석하고 평가 루브릭(평가 기준표)에 따라 AI 아바타들을 통제합니다. 사용자가 특정 역량을 드러낼 수 있도록 의도적으로 의견을 반박하거나 갈등을 도입하는 등 동적인 도전을 제시합니다. * **데이터 밀도 최적화:** 단순한 대화에 그치지 않고, 평가에 필요한 핵심 정보를 단시간 내에 이끌어낼 수 있도록 대화를 유도하는 '차세대 적응형 평가 엔진' 역할을 수행합니다. * **AI 평가기(Evaluator):** 대화가 종료되면 AI 평가기가 전체 대화 기록을 분석하여 정밀한 기술 지도(Skill map)와 정성적인 피드백을 제공함으로써, 보이지 않던 인간의 역량 발달 과정을 시각화합니다. **연구를 통한 기술적 타당성 검증** * **대화 유도 능력:** 실험 결과, Executive LLM은 독립적인 AI 모델들보다 대화 흐름을 자연스럽게 유지하면서도 평가에 필요한 기술 관련 정보를 훨씬 더 높은 밀도로 이끌어내는 것으로 나타났습니다. * **채점 정확도:** AI 평가자가 매긴 점수와 NYU 전문가들이 매긴 점수를 비교했을 때, 두 집단 간의 일치도는 인간 전문가들 사이의 일치도와 유사한 수준을 기록했습니다. 이는 AI가 복잡한 인간 역량을 신뢰할 수 있는 수준으로 자동 채점할 수 있음을 의미합니다. * **확장성:** 구글은 스타트업 OpenMic과의 협력을 통해 창의성 및 영어 영문학 과제 등 다른 교과 영역에서도 AI 평가기의 성능을 확인하며 적용 범위를 넓히고 있습니다. **실용적인 시사점** Vantage는 교육자가 학생들의 소프트 스킬을 객관적으로 파악하고 이를 기반으로 맞춤형 수업을 설계할 수 있도록 돕는 강력한 도구가 될 수 있습니다. 기술의 발전으로 정답이 없는 복합적인 문제 해결 능력이 중요해진 만큼, 이러한 AI 기반 시뮬레이션 평가 도구를 학습 과정에 도입하여 학생들에게 안전한 실패와 성장의 기회를 제공할 것을 권장합니다.

GitLab, 2026년 옴디아 유니버스 리더로 선정 (새 탭에서 열림)

GitLab이 2026년 옴디아 유니버스(Omdia Universe) AI 지원 소프트웨어 개발 부문에서 리더로 선정되며, 전체 소프트웨어 개발 수명 주기(SDLC)를 아우르는 독보적인 기술력을 입증했습니다. 이번 평가는 단순한 코드 생성을 넘어 테스트, 보안, 배포 및 오케스트레이션 능력을 중점적으로 다뤘으며, GitLab은 솔루션 광범위성(100%)과 전략적 혁신성(88%) 등 주요 항목에서 최고 점수를 기록했습니다. 결과적으로 GitLab은 AI 도입이 단순한 개발 속도 향상을 넘어 실제 비즈니스 가치 창출과 운영 효율성으로 이어질 수 있음을 보여주었습니다. ### SDLC 전반을 아우르는 솔루션의 확장성 * GitLab은 '솔루션 광범위성' 항목에서 100% 점수를 획득하며, 계획 및 요구사항 관리부터 배포 및 이슈 해결까지 SDLC 전 단계를 단일 플랫폼에서 지원합니다. * 플래너 에이전트(Planner Agent)와 보안 분석 에이전트(Security Analyst Agent)를 통해 개발 지연이 빈번한 스프린트 계획 및 취약점 분석 단계까지 AI 지원을 확장했습니다. * 단순 코드 생성을 넘어 테스트, 보안 검토, 배포 단계를 통합함으로써 코딩 단계의 가속화가 병목 현상 없이 전체 인도 속도 향상으로 이어지도록 설계되었습니다. ### 에이전트 기반 AI와 전략적 혁신 * Anthropic, Google, AWS와의 파트너십을 통한 멀티 모델 지원을 제공하여, 사용자가 워크로드와 데이터 요구사항에 최적화된 모델을 선택할 수 있습니다. * 에이전트가 이슈, 머지 리퀘스트(MR), 파이프라인, 보안 결과물 간의 문맥을 잃지 않고 협업하는 '통합 문맥(Unified Context)' 아키텍처를 구축했습니다. * 2026년 평가의 핵심 지표인 '에이전틱 AI(Agentic AI)' 역량에서 자율적인 작업 조정 및 전문 에이전트 간의 핸드오프 오케스트레이션 능력을 인정받았습니다. ### 엔터프라이즈 환경을 위한 보안 및 실행력 * 고객의 비공개 데이터를 학습에 사용하지 않는 프라이버시 우선 아키텍처를 통해 엔터프라이즈 급 보안을 보장합니다. * SOC 2, ISO 27001 인증 및 폐쇄망(Air-gapped) 환경 지원, 자체 호스팅 AI 모델 지원 등을 통해 규제가 엄격한 산업군의 요구사항을 충족합니다. * AI 영향력 대시보드(AI Impact Dashboard)를 통해 사이클 타임, 배포 빈도 등 AI가 실제 생산성에 미치는 영향을 지표로 시각화하여 제공합니다. ### 개발자와 AI 에이전트의 역할 변화 * 개발팀의 역할은 이제 직접 코드를 작성하는 것에서 AI 에이전트를 감독하고 기술적 요구사항 및 보안 가드레일을 적용하는 방향으로 진화하고 있습니다. * 단순히 코드 생성 속도에만 집중하는 조직은 배포와 테스트 단계에서 병목 현상을 겪게 되므로, 전체 수명 주기를 관리할 수 있는 플랫폼 도입이 필수적입니다. * GitLab은 보안과 운영이 통합된 환경을 제공함으로써, AI가 생성한 코드가 고품질과 성능을 유지하며 즉시 생산 환경에 반영될 수 있는 혁신 속도를 지원합니다.