Kalam News

아마존, 자체 개발 AI 칩 공개

아마존 웹서비스(AWS)가 자체 개발한 최신 AI 칩을 공개했다.

이로써 얼마전 TPC를 공개한 구글에 이어서 아마존까지 엔비디아가 장악한 AI 반도체 시장에 공식적으로 도전장을 내밀어 빅테크 초거대 기업들 간에 치열한 경쟁이 펼쳐질 전망이다.

특히 아마존은 차기 AI 반도체 칩 모델에서 엔비디아 기술과의 호환성을 예고해 이른바 '경쟁 속 협력'이라는 유연한 전략을 선보였다.

아마존 웹서비스는 라스베가스에서 열린 연례 기술 콘퍼런스 'AWS 리인벤트(re:Invent) 2025'에서 3나노미터(nm) 공정 기반의 3세대 AI 칩 '트레이니엄3(Trainium3)'와 이를 탑재한 '트레이니엄3 울트라서버(UltraServer)'를 발표했다.

이번에 공개된 아마존의 트레이니엄3는 지난 2세대 칩 대비 비약적인 성능 향상을 이뤘다.

아마존 웹서비스에 따르면 트레이니엄3 시스템은 전작 대비 AI 학습과 추론 속도가 4배 정도나 더 빠르며, 메모리 용량 역시 4배 가량 늘어난 것으로 나타났다.

이는 피크 타임에 폭증하는 AI 앱 수요를 감당하기 위한 설계다.

가장 눈에 띄는 점은 확장성으로 아마존 웹서비스는 수천 대의 울트라서버를 연결해 최대 100만 개의 트레이니엄3 칩을 하나의 거대한 컴퓨터처럼 구동할 수 있다고 설명했다.

이것은 이전 세대 대비 10배 늘어난 규모로 울트라서버 한 대당 144개의 반도체 칩이 탑재된다.

최근 전력 소비가 데이터 센터의 핵심 이슈로 떠오른 가운데, 아마존 웹서비스는 '에너지 효율'을 강점으로 내세웠다.

트레이니엄3 시스템은 이전 세대에 비해서 에너지 효율이 약 40%나 향상됐다.

전 세계적으로 데이터 센터 전력 소비량이 천문학적으로 치솟고 있는 상황에서, 아마존 웹서비스는 저전력 고효율 시스템을 통해 고객들의 비용을 절감할 수있게 됐다는 사실을 강조했다.

이미 앤스로픽(Anthropic), 일본의 LLM 기업 가라쿠리(Karakuri), 스플래시 뮤직(SplashMusic), 데카르트(Decart) 등 주요 고객사들이 트레이니엄3 시스템을 도입해 추론 비용을 획기적으로 절감하고 있다.

아마존 웹서비스는 트레이니엄3 발표에 그치지 않고, 이미 개발 중인 차기작 '트레이니엄4'의 로드맵을 깜짝 공개해 AI 반도체 시장에 대해서 강력한 의지를 나타내 더욱 이목을 끌었다.

차기작의 핵심은 '엔비디아와의 호환성'이다.

아마존 웹서비스는 차기작 트레이니엄4가 엔비디아의 고속 칩 연결 기술로 잘 알려져 있는 'NV링크 퓨전(NVLink Fusion)'을 지원할 것이라고 밝혔다.

이는 트레이니엄4 기반 시스템이 엔비디아 GPU와 상호 운용될 수 있음을 의미한다.

즉, 고객들은 아마존의 자체 서버 기술을 사용하면서도 엔비디아 GPU의 성능을 확장해서 활용할 수 있을 전망이다.

업계에서는 현재 사용되고 있는 주요 AI 관련 앱들이 엔비디아의 소프트웨어 플랫폼 '쿠다(CUDA)'를 표준으로 삼고 있어, 아마존 웹서비스가 엔비디아 생태계와의 호환성을 높여 더 많은 고객을 자사 클라우드로 끌어들이려는 전략으로 풀이하고 있다.

아마존은 트레이니엄4의 구체적인 출시 일정은 밝히지 않았지만, 전례를 따를 경우 내년(2026년) 열리는 리인벤트 행사에서 그 상세한 내용이 공개될 가능성이 매우 높을 것으로 관측된다.