AWS, NV링크 퓨전 적용 차세대 AI 칩 공개
트레이니움3 서버, 성능 4배 향상·전력 40% 절감
기업 맞춤형 AI 모델 구축 ‘AI 팩토리’ 서비스 개시
노바2·소닉 모델로 멀티모달 AI 대응 강화
클라우드 기반 AI 시장 경쟁 속 성장세 지속

미국 아마존의 클라우드 부문 아마존 웹 서비스(AWS)는 3일(현지시간) 엔비디아의 핵심 기술인 ‘NV링크 퓨전’을 차세대 AI 연산 칩 트레이니움4에 도입한다고 발표했다. NV링크는 서로 다른 칩 간 초고속 연결을 지원하는 기술로, 수천 대 서버를 연결해야 하는 대형 AI 모델 훈련 속도를 크게 높일 수 있다. AWS는 이를 통해 기업 고객이 자사 데이터센터에서 전용 AI 모델을 훈련하고 즉시 배포할 수 있는 ‘AI 팩토리’ 서비스를 제공할 계획이라고 로이터통신이 전했다.
AWS는 이날 기존 AI 칩 트레이니움3를 탑재한 신형 서버도 공개했다. 해당 서버는 144개의 칩을 탑재해 이전 세대보다 연산 성능이 4배 이상 향상됐고, 전력 소비는 40% 절감됐다. AWS 컴퓨트·머신러닝 부문 부사장 데이브 브라운은 “새 서버를 통해 기업 고객들은 필요한 성능을 확보하면서도 비용 효율을 높일 수 있다”고 설명했다.
AWS는 자체 AI 모델 ‘노바’ 시리즈의 업그레이드 버전도 공개했다. 노바2는 기존보다 반응 속도가 빠르고, 이미지·텍스트·음성·영상까지 멀티모달 입력을 처리할 수 있다. 또한 음성 입력에 음성으로 답하는 ‘소닉’ 모델도 새로 선보였다. AWS 최고경영자 매트 가르만은 “이 모델들은 인간과 비슷한 수준으로 자연스러운 상호작용이 가능하다”고 강조했다.
기업 고객이 직접 데이터를 입력해 맞춤형 AI 모델을 개발할 수 있는 ‘노바 포지’ 서비스도 공개됐다. AWS 측은 “기업은 핵심 정보를 유지하면서 자체 데이터를 심층적으로 이해하는 AI 모델을 생산할 수 있다”고 설명했다. 이로써 기업들은 클라우드 기반 AI 모델을 즉시 활용하면서도 보안과 데이터 독립성을 확보할 수 있게 됐다.
이번 발표는 엔비디아 중심이던 AI 칩 시장에 도전장을 내민 것으로 평가된다. 트레이니움 칩 기반 서버를 도입한 기업들은 기존 대비 AI 모델 훈련 비용을 최대 50% 절감할 수 있는 것으로 나타났다. 실제 앤스로픽, 카라쿠리, 메타제노미, 네토AI, 리코 등 기업들이 이미 성능과 비용 효율을 경험하고 있다.
AWS는 이번 발표와 함께 연례 클라우드 컨퍼런스 ‘리인벤트’에서 글로벌 AI 고객 확보 의지를 강조했다. 브라운 부사장은 “성능과 가격 경쟁력을 증명해 고객이 원하는 AI 칩과 서버를 선택할 수 있도록 하겠다”고 밝혔다. 엔비디아 젠슨 황 CEO 역시 “AWS와 함께 AI 산업혁명을 위한 컴퓨팅 인프라를 구축하고 있다”며 협력 의미를 강조했다.
한편 AWS는 트레이니움 칩과 신규 서버, 노바 모델을 통해 오픈AI의 챗GPT, 구글 제미나이, 앤스로픽 클로드 등 경쟁 모델과 차별화를 꾀하고 있다. AWS의 최근 분기 AI·클라우드 인프라 매출은 20% 증가하며 성장세를 이어가고 있다. 그러나 업계에서는 AWS가 시장 점유율 확대와 동시에 엔비디아 의존도를 낮추려는 전략을 주목하고 있다.