AWS 트레이니엄3 AI 칩 공개, 엔비디아와의 협력 로드맵도 공개되다

AWS가 자체 AI 칩 경쟁에서 또 한 번 강력한 카드를 꺼냈네요. 3나노 공정의 ‘트레이니엄3’ 칩과 이를 탑재한 ‘울트라서버’ 시스템을 공식 출시했는데, 성능 향상폭이 정말 인상적이에요.

솔직히 말하면, AI 인프라 전쟁은 이제 성능만이 전부가 아니죠. 트레이니엄3이 주목받는 이유는 단순한 성능 향상보다는 ‘4배 빠른 속도에 40% 더 적은 전력’이라는 효율성에 있습니다. 데이터센터 전력 소비가 천문학적으로 늘어나는 요즘, 이건 아마존의 실용적 접근이 잘 드러나는 부분이에요. 비용에 민감한 클라우드 고객들에게는 직접적인 이익이죠.

개인적으로 이번 발표에서 가장 흥미로웠던 건 로드맵이었어요. 다음 세대 트레이니엄4가 엔비디아의 NVLink 기술을 지원한다는 건 큰 전환점이라고 생각합니다. 지금 AI 생태계는 사실상 엔비디아 CUDA에 종속되어 있는데, 아마존이 ‘협력’을 선택한 거죠. 벤더 락-인에서 벗어나 유연한 멀티클라우드, 멀티하드웨어 환경을 원하는 기업들에게는 좋은 소식이에요.

이런 움직임은 암호화폐 생태계, 특히 대규모 AI 연산이 필요한 분산형 AI 프로젝트들에게도 시사하는 바가 큽니다. 중앙화된 GPU 공급에 대한 의존도를 줄이고, 비용 효율적인 인프라 옵션이 늘어난다는 건 결국 온체인 AI 에이전트나 복잡한 디파이 프로토콜을 구동하는 데도 도움이 되거든요.

물론 아직은 엔비디아의 독보적 지위가 쉽게 무너질 것 같지는 않아요. 소프트웨어 생태계와 개발자 편의성 측면에서 CUDA는 너무 깊이 뿌리내렸죠. 하지만 아마존이 ‘호환성’이라는 키워드로 접근하는 전략은 장기적으로 시장 구도를 바꿀 수 있는 잠재력이 있습니다. 트레이니엄4가 실제로 어떤 모습으로 출시될지, 내년 re:Invent가 더 기대되네요.

원문: [TechCrunch](https://techcrunch.com/2025/12/02/amazon-releases-an-impressive-new-ai-chip-and-teases-a-nvidia-friendly-roadmap/)

위로 스크롤