마이크로소프트, 애틀랜타에 세계 최초 AI 슈퍼팩토리 구축

이성철 기자
Icon
입력 : 2025-11-17 10:17
Icon
글로벌마켓
2025-11-17 11:51

애틀랜타 페어워터, 전 세계 데이터센터와 연결된 AI 슈퍼팩토리
랙 수준 액체 냉각과 2층 구조로 초고밀도 GPU 배치 실현
앱 기반 네트워크로 AI 작업별 최적화된 GPU 통합 운영
고가용성 전력과 AI 광역망으로 안정적 대규모 학습 지원
블랙웰 GPU와 첨단 네트워크로 차세대 AI 모델 학습 가능

마이크로소프트는 애틀랜타, 조지아에 새로운 페어워터 AI 데이터센터를 공개했다. 애틀랜타 데이터센터는 위스콘신에 있는 기존 페어워터 사이트와 이전 세대 AI 슈퍼컴퓨터, 그리고 전 세계 애저 데이터센터망과 연결되어, 지리적으로 분산된 수많은 자원을 통합해 하나의 거대한 AI 슈퍼컴퓨터처럼 운영된다. 이를 통해 페어워터는 방대한 AI 연산 수요를 효율적으로 충족하고, AI 모델의 지능을 확장하며, 모든 개인과 조직이 더 많은 성과를 내도록 지원한다.

페어워터 데이터센터는 기존 클라우드 데이터센터와 달리 단일 평면 네트워크 구조를 채택했다. 수십만 개의 최신 엔비디아 GB200, GB300 GPU를 하나의 슈퍼컴퓨터처럼 연결하고, 사전 학습, 세밀 조정, 강화 학습, 합성 데이터 생성 등 다양한 AI 학습 작업을 유연하게 처리할 수 있도록 설계됐다. 이를 위해 마이크로소프트는 각 페어워터 사이트를 연결하는 전용 AI 광역망을 구축해 GPU 활용도를 극대화했다.

데이터센터는 GPU 랙마다 직접 액체를 이용한 냉각 시스템을 도입해 고밀도 GPU 배치를 가능하게 하고 장시간 대규모 AI 연산에서도 안정적인 온도를 유지한다. / 마이크로소프트 공식 트위터

페어워터는 초고밀도 연산 환경을 구현했다. 각 랙에는 랙 수준 직통 액체 냉각 시스템이 적용되어 GPU 발열을 효율적으로 제거하고, 장시간 대규모 AI 연산에서도 안정적인 온도를 유지할 수 있다. 한 랙당 약 14만 와트, 한 행당 1,360킬로와트의 전력을 안정적으로 사용하면서 GPU를 최대한 촘촘히 배치할 수 있다. 또한 데이터센터를 2층 구조로 설계해 GPU 간 케이블 길이를 최소화하고, 지연 시간과 대역폭, 안정성, 비용을 동시에 개선했다.

각 랙은 앱 기반 네트워크가 적용된 고밀도 GPU 랙으로 구성되어, AI 작업 특성에 맞춘 데이터 흐름 최적화를 통해 수십만 GPU 클러스터를 하나의 슈퍼컴퓨터처럼 효율적으로 운영한다.

각 랙에 촘촘히 배치된 GPU는 AI 작업 특성에 맞춘 앱 기반 네트워크로 연결되어, 대규모 GPU 클러스터를 하나의 슈퍼컴퓨터처럼 효율적으로 운영한다. / 마이크로소프트 공식 트위터

각 랙에는 최대 72개의 블랙웰 GPU가 연결되어 있으며, 1.8테라바이트 GPU 간 대역폭과 14테라바이트 풀 메모리를 갖추고 있다. 랙 간 연결은 800기가비트 GPU 간 연결을 지원하는 이더넷 기반 스케일 아웃 네트워크로 구성돼, 단일 클러스터처럼 작동한다.

전력 공급 측면에서도 페어워터는 고가용성 전력을 확보해 비용 효율성을 높였다. 전력 변동 문제를 해결하기 위해 소프트웨어 기반 작업 조정, GPU 자체 전력 제한, 현장 에너지 저장 장치 등을 도입했다. 이를 통해 대규모 AI 학습 작업에서도 안정적인 전력 공급이 가능하며, 이전보다 빠른 학습 시간과 안정적인 운영을 보장한다.

마이크로소프트는 또한 미국 전역에 걸쳐 12만 마일 이상의 광케이블 기반 AI 광역망을 구축했다. 이를 통해 다양한 세대의 슈퍼컴퓨터를 하나의 AI 슈퍼팩토리로 연결하고, 데이터센터 간 트래픽을 실시간으로 분산하며, AI 개발자가 필요에 따라 자원을 최적화하도록 지원한다.

새로운 애틀랜타 페어워터 데이터센터는 높은 연산 밀도, 지속 가능성, 랙 수준 액체 냉각, 앱 기반 네트워크, 블랙웰 GPU와 고속 이더넷 네트워크 등 첨단 기술을 결합해 방대한 AI 연산 수요를 충족한다. 이를 통해 전 세계 AI 개발자와 조직이 혁신적인 AI 솔루션을 구현하고, AI를 다양한 업무 흐름에 손쉽게 통합할 수 있게 됐다. 이전에는 불가능했던 새로운 솔루션 개발도 가능해졌다.

다른 뉴스 보기