|
오픈AI는 수십만 개의 최신 엔비디아 그래픽처리장치(GPU)를 포함한 AWS 컴퓨팅 자원을 활용하고 최대 수천만 개 중앙처리장치(CPU)까지 확장해 에이전틱 워크로드를 빠르게 확장할 수 있다. 오픈AI는 2026년 말까지 용량을 모두 확보한 뒤 2027년 이후 추가 확장에 나설 예정이다.
AWS는 “AWS의 클라우드 인프라 리더십과 오픈AI의 생성형 AI 혁신 역량이 결합되면 전 세계 수백만 명의 사용자에게 더욱 향상된 챗GPT 서비스를 제공할 것”이라고 기대했다.
AWS가 오픈AI를 위해 배포 및 구축 중인 인프라는 최고 수준의 AI 처리 효율과 성능을 위해 정교하게 설계됐다. 엔비디아 GB200 및 GB300 GPU를 동일 네트워크의 아마존 EC2 울트라서버(Amazon EC2 UltraServer)를 통해 클러스터링(묶음 구성)함으로써 상호 연결된 시스템 간 저지연 성능을 구현하고, 챗지피티 추론부터 차세대 모델 학습까지 다양한 워크로드를 유연하게 지원할 수 있다는 설명이다.
샘 알트만 오픈AI 공동 창립자 겸 CEO는 “프런티어 AI를 확장하려면 방대하고 안정적인 컴퓨팅 파워가 필요하다”며 “AWS와의 협력은 다음 세대를 이끌 폭넓은 컴퓨팅 생태계를 강화하고 첨단 AI를 모두에게 제공하는 데 기여할 것”이라고 말했다.
맷 가먼 AWS CEO는 “오픈AI가 계속해서 가능성의 한계를 넓혀 나가는 가운데 AWS의 최고 수준 인프라가 그들의 AI 비전을 뒷받침하는 핵심 기반이 될 것”이라며 “최적화된 컴퓨팅의 광범위한 범위와 즉각적인 가용성이 AWS가 오픈AI의 방대한 AI 워크로드를 지원할 수 있는 독보적인 위치에 있는 이유를 보여준다”고 전했다.
양사는 올해 초 오픈AI의 개방형 AI 모델인 오픈웨이트(Open Weight) 파운데이션 모델을 AWS의 AI 플랫폼인 아마존 베드록(Amazon Bedrock)을 통해 제공하는 등 협력해 왔다.





![[단독] “뭐라도 해야죠”…박나래, 막걸리 학원서 근황 첫 포착](https://image.edaily.co.kr/images/vision/files/NP/S/2026/01/PS26012300805t.jpg)