OpenAI, 세레브라스와 750MW 규모 AI 인프라 구축
OpenAI가 세레브라스와 협력해 750MW 규모의 초고속 AI 인프라를 구축하며 실시간 추론 속도 한계 극복과 엔비디아 의존도 탈피에 나섭니다.

엔비디아 GPU 수천 개를 이어 붙여 만든 거대한 데이터센터가 인공지능(AI)의 정답으로 통하던 시대에 OpenAI가 새로운 승부수를 던졌습니다. 텍스트가 한 글자씩 느릿하게 출력되는 ‘타이핑 효과’를 기다리는 시대는 곧 막을 내릴지도 모릅니다. OpenAI가 칩 스타트업 세레브라스(Cerebras)와 손을 잡고 750MW(메가와트) 규모의 초고속 AI 컴퓨팅 인프라를 구축하며 실시간 AI 서비스의 속도 한계를 정조준했습니다.
엔비디아의 성벽 너머, '웨이퍼' 한 장의 반란
OpenAI가 도입하는 세레브라스의 핵심 병기는 '웨이퍼 스케일 엔진(WSE)'입니다. 일반적인 반도체가 커다란 실리콘 웨이퍼를 수백 개의 작은 조각으로 잘라 만드는 것과 달리, 세레브라스는 웨이퍼 한 장을 통째로 하나의 칩으로 사용합니다. 이 거대한 실리콘 조각 위에는 44GB의 SRAM 메모리가 연산 코어와 함께 통합되어 있습니다.
기존 GPU 기반 시스템의 가장 큰 고충은 '병목 현상'이었습니다. 연산은 빠르지만, 데이터를 저장하는 메모리(HBM)에서 데이터를 가져오는 통로가 좁아 칩의 성능을 온전히 활용하지 못했습니다. 세레브라스의 WSE는 메모리를 칩 안에 직접 때려 넣는 방식으로 이 통로를 넓혔습니다. 결과는 숫자로 증명됩니다. 세레브라스의 메모리 대역폭은 21PB/s로, 기존 GPU 대비 약 7,000배 높습니다.
이러한 물리적 강점은 곧장 서비스 품질로 이어집니다. 테스트 결과에 따르면 라마 3.1(Llama 3.1 70B) 모델 기준, 세레브라스 인프라는 GPU 대비 약 15~20배 빠른 추론 속도를 기록했습니다. 초당 최대 3,000개의 토큰을 쏟아내는 수준입니다. 인간의 읽기 속도를 아득히 추월하는 이 성능은 OpenAI가 꿈꾸는 ‘생각하는 즉시 답하는 AI’의 기반이 됩니다.
750MW의 야심, 공급망의 판도를 바꾸다
OpenAI가 확보한 750MW 규모의 전력량은 단순한 숫자 이상의 의미를 가집니다. 이는 중소형 원자력 발전소 한 기의 출력에 육박하는 거대한 규모로, OpenAI가 하드웨어 인프라에 투입하는 자본과 의지가 어느 정도인지 가늠케 합니다.
이번 파트너십은 엔비디아에 대한 극심한 의존도를 낮추려는 OpenAI의 전략적 탈출구이기도 합니다. 그동안 AI 업계는 엔비디아의 공급 일정과 가격 정책에 따라 서비스 확장 계획을 수정해야 했습니다. OpenAI는 세레브라스라는 강력한 대안을 확보함으로써 인프라 공급망을 다변화하고, 저지연(Low-Latency) 추론 워크로드에 특화된 독자적인 연산 환경을 구축할 수 있게 되었습니다. 이는 특정 제조사의 상황에 휘둘리지 않는 서비스 안정성과 독립성을 보장하는 핵심 자산이 됩니다.
우려도 있습니다. 일각에서는 보도된 100억 달러 규모의 계약 금액이 주는 재무적 압박과 세레브라스 장비의 높은 전력 소모량을 우려합니다. 거대한 단일 칩 아키텍처는 발열 관리와 전력 공급 측면에서 기존 방식보다 훨씬 까다로운 엔지니어링 역량을 요구하기 때문입니다. 또한, 세레브라스 장비가 OpenAI의 차기 모델들과 얼마나 매끄럽게 소프트웨어적으로 통합될 수 있을지도 지켜봐야 할 대목입니다.
실시간 멀티모달 시대의 개막
사용자가 체감할 변화는 극적입니다. 750MW급 고속 연산 자원은 특히 음성 대화나 실시간 이미지 생성 같은 '멀티모달' 서비스에서 위력을 발휘합니다. 현재의 AI 음성 비서는 사용자의 말을 듣고 이해한 뒤 답변을 생성하기까지 미세한 멈춤이 발생합니다. 세레브라스의 인프라가 적용되면 이 지연 시간이 획기적으로 줄어들어, 마치 실제 사람과 대화하듯 끊김 없는 상호작용이 가능해집니다.
개발자들은 이제 추론 속도 제약 때문에 포기했던 복잡한 에이전트 기반 서비스를 설계할 수 있습니다. AI가 여러 단계의 추론을 거치더라도 응답 속도가 충분히 빠르다면, 사용자는 AI가 뒤에서 수많은 데이터를 처리하고 있다는 사실조차 인지하지 못할 것입니다. OpenAI는 이번 인프라 확장을 통해 전 세계 수억 명의 사용자에게 실시간에 가까운 지능형 서비스를 안정적으로 제공할 계획입니다.
FAQ: 당신이 궁금해할 세 가지
Q1: 세레브라스 인프라가 도입되면 ChatGPT 답변 속도가 구체적으로 얼마나 빨라지나? A: Llama 3.1(70B) 모델 테스트 사례를 기준으로 볼 때, 기존 GPU 환경보다 약 15~20배 빠른 추론 속도를 기대할 수 있습니다. 이는 사용자가 질문을 던지는 즉시 문장 단위의 답변이 쏟아져 나오는 수준이며, 특히 음성 모드에서 대기 시간이 거의 사라지는 효과를 줄 것입니다.
Q2: 이번 파트너십으로 엔비디아 GPU를 더 이상 사용하지 않는 것인가? A: 아닙니다. 이번 파트너십은 인프라의 '다변화'에 초점이 맞춰져 있습니다. 대규모 모델 학습에는 여전히 엔비디아의 범용 GPU 클러스터가 효율적일 수 있지만, 실시간 응답이 중요한 '추론' 서비스 영역에서는 세레브라스의 특화된 칩을 사용하여 효율성을 극대화하려는 전략입니다.
Q3: 750MW라는 전력 규모는 어느 정도의 크기인가? A: 수십만 가구에 전력을 공급할 수 있는 거대한 규모입니다. 이는 OpenAI가 단순한 소프트웨어 기업을 넘어, 막대한 물리적 인프라를 직접 통제하는 에너지 및 컴퓨팅 기업으로 진화하고 있음을 보여주는 지표입니다.
결론: 속도가 곧 지능인 세상
OpenAI와 세레브라스의 만남은 AI 기술의 중심축이 '모델의 크기'에서 '실시간 접근성'으로 이동하고 있음을 시사합니다. 아무리 똑똑한 AI라도 응답이 늦으면 도구로서의 가치가 떨어집니다. 750MW의 전력과 웨이퍼 스케일 엔진이 결합된 이 거대한 실험이 성공한다면, 우리는 비로소 AI와 지연 없는 대화를 나누는 진정한 '실시간 지능'의 시대를 맞이하게 될 것입니다. 이제 관심은 이 압도적인 하드웨어가 OpenAI의 베일에 싸인 차기 모델들과 어떤 시너지를 낼지로 쏠리고 있습니다.
참고 자료
- 🛡️ OpenAI partners with Cerebras to deliver faster AI inference
- 🛡️ Cerebras gives waferscale chips an inferencing twist
- 🛡️ OpenAI Bets $10 Billion on Cerebras Chips in Shift Away From Nvidia (NVDA)
- 🛡️ OpenAI Signs A $10 Billion Deal With NVIDIA Rival Cerebras For AI Compute Infra
- 🛡️ OpenAI Partners With Cerebras To Add 750MW Of Ultra Low-Latency AI Compute
- 🏛️ Cerebras Inference Launches the World's Fastest AI Inference
- 🏛️ OpenAI partners with Cerebras
업데이트 받기
주간 요약과 중요한 업데이트만 모아서 보내드려요.
오류를 발견했나요? 정정/오류 제보로 알려주시면 검토 후 업데이트에 반영할게요.