[인사이트 분석 ⑧] “‘장대한 분노’ 작전, 클로드 AI 활용 윤리·위험성 논란”

이성철 기자
Icon
입력 : 2026-03-02 17:53
Icon
유스풀인사이트
2026-03-02 19:39

미 국방부, 기밀 네트워크 AI ‘클로드’ 블랙리스트 지정
앤트로픽 CEO, 자율 무기 운용 거부로 국방부와 충돌
핵 위기 시뮬레이션 연구, 클로드 위험성 경고
트럼프 행정부, 앤트로픽 기술 사용 전면 중단 명령
오픈AI, 기밀 군사 네트워크에 클로드 대체 계약 체결

사진: 미 국방부 펜타곤 전경, 위키미디어, Sgt. Ken Hammond , 퍼블릭 도메인, DF-ST-87-06962

본지 유스풀피디아가 지난 2월 25일 AP통신을 인용해 보도한 내용과 달리, 일부 다른 외신에서는 미 국방부와 AI 기업 앤트로픽 간 논쟁의 세부 상황과 클로드 AI의 실제 군사 활용이 다르게 전해지고 있어, 사건의 전개를 둘러싼 보도에 차이가 나타나고 있다.

지난 금요일 오후(현지시간), 미 국방부는 앤트로픽에 최후통첩을 주고, 이어 트럼프 대통령의 지시로 모든 연방 기관에 앤트로픽 기술 사용 중단을 명령했다. 국방부는 앤트로픽을 공급망 위험 대상으로 지정했으며, 이 조치는 기밀 군사 네트워크에서 운용되던 클로드의 사용을 차단하는 방향으로 진행되고 있다.

19시간 뒤, 미국은 2003년 이라크 전쟁 이후 처음으로, 최근 몇 년간 최대 규모의 지역 군사력 집중 작전을 시작했다.

문제의 인공지능은 앤트로픽이 개발한 ‘클로드’이며, 작전명은 ‘장대한 분노’였다.

앤트로픽은 2025년 7월 미 국방부와 2억 달러 규모의 계약을 체결하고, 팰런티어를 통해 클로드를 기밀 네트워크에 배치했다. 클로드는 미국의 가장 민감한 군사 시스템에서 승인된 유일한 첨단 AI 모델이었다. 이 시스템은 베네수엘라 마두로 대통령을 체포한 1월 작전에서도 사용됐다. 앤트로픽 최고경영자는 클로드가 정보 분석, 작전 계획, 모델링·시뮬레이션, 사이버 작전 등 광범위하게 배치됐다고 확인했다.

킹스칼리지 연구에서 AI 모델들은 핵무기를 대부분 전략적 수단으로 인식했으며, 클로드와 제미니는 윤리적 제한을 거의 두지 않았고, GPT‑5.2는 일부 규범적 제한을 따르는 경향을 보였다. 인간이 갖는 강력한 핵 금기와는 차이가 있다 /  자료: 킹스칼리지 런던 공식 보도자료 캡처


그러나 한 연구 결과가 발표되면서 모든 것이 중단돼야 할 상황이 됐다.

최근 킹스칼리지 런던 연구 보도에 따르면 킹스칼리지의 케네스 페인 연구원은 세 가지 첨단 AI 모델을 핵 위기 시뮬레이션에서 겨뤘다. 비교 대상은 GPT‑5.2, 클로드 소네트 4, 제미니 3 플래시 였다. 21개의 게임, 329번의 턴, 78만 8천 단어에 달하는 전략 추론이 이뤄졌다. 그 결과 전술 핵무기는 21개 시뮬레이션 가운데 20개에서 실제로 사용됐다. 클로드는 시뮬레이션에서 64%의 경우 핵공격을 권고했으며, 전술 핵무기를 86%에서 사용했다. 세 모델 모두 한 번도 항복이나 타협을 선택하지 않았다. 패배가 확실할 때조차 이들은 계속해서 갈등을 확대하거나 끝장을 보려는 선택을 했다.

페인 연구원은 클로드를 ‘계산적인 매파’로 평가했다. 클로드는 초반에는 신뢰를 쌓고 공적 신호를 사적 행동과 일치시키며 신뢰성을 확보했다. 그런 다음 그 신뢰를 이용해 위기 국면에서 상대를 기습하는 방식으로 전략을 구사했다. 클로드는 스스로 “쇠퇴하는 패권국으로서 영토 손실을 받아들이는 것은 전 세계적인 도미노 효과를 촉발할 것”이라고 판단했다. 클로드는 전략적 핵 위협의 문턱까지 올라가 항복을 강요했으며, 완전한 전멸 직전까지 도달하는 선택을 반복했다.

미 국방부는 이 연구 결과를 읽었다. 그리고 앤트로픽이 자율 무기와 대규모 감시에 대한 가드레일을 제거하라는 요구를 거부하자 사태는 악화됐다.

한편, AP통신에 따르면 앤트로픽은 완전 자율 무기 시스템과 미국 시민 대상 국내 감시 등 윤리적·사회적 위험이 큰 영역에서는 AI 기술을 제공하지 않겠다는 원칙을 고수하고 있다고 보도했다. 회사 측은 이러한 제한을 두는 이유가 기술 오용에 따른 윤리적·법적 책임을 미연에 방지하고, AI 시스템이 안전하게 운용되도록 하기 위함이라고 밝혔다. 국방부와의 협력도 이러한 원칙을 존중하는 범위 내에서 진행되고 있으며, 앤트로픽은 정부가 요구하는 합법적 군사 활용에는 책임감 있게 협력할 의사가 있다고 전했다.

지난주 화요일, 미 국방장관 헤그세스는 앤트로픽 CEO 다리오 아모데이 에게 최후통첩을 줬다. “합법적 목적을 위한 클로드 사용을 전면 허용하라. 그렇지 않으면 계약을 해지하겠다.” 아모데이는 이를 거부했다. 그는 클로드가 자율 무기 운용에는 신뢰할 수 있을 만큼 충분하지 않다고 말했다. 현재 기술 수준으로는 일부 용도는 안전하게 수행할 수 없다는 입장을 분명히 했다.

목요일, 국방부 차관 에밀 마이클은 아모데이를 ‘거짓말쟁이’로 규정하며, 미국 군을 자신의 뜻대로 통제하려 한다고 비난했다. 금요일, 트럼프 대통령은 모든 연방 기관에 앤트로픽 기술 사용 중단을 명령했다. 헤그세스는 앤트로픽을 공급망 위험으로 지정했는데, 이 등급은 이전까지 화웨이 같은 외국 적대 세력에만 적용돼 온 조치였다. 몇 시간 후, 오픈AI가 기밀 네트워크에서 클로드를 대체하는 계약을 체결했다.

하지만 6개월의 정리 기간이 설정돼 있었다. 따라서 클로드는 장대한 분노 작전에 여전히 가동 중이다.

월스트리트저널은 미 중부사령부가 장대한 분노 작전 동안 정보 평가, 표적 식별, 전투 시뮬레이션을 위해 클로드를 사용했다고 보도했다. 이는 핵 사용을 높은 비율로 권고한 학술 시뮬레이션에서 가장 위험한 것으로 평가된 동일한 모델이었다. 그 모델은 자체 제작사가 자율 군사 결정에는 신뢰할 수 없다 했던 바로 그 시스템이기도 하다. 그리고 정부는 이를 방위상 국가 안보 위협으로 선언했다.

그러나 킹스칼리지 연구에서 AI가 핵 위기 상황에서 극단적 선택을 권고했다는 결과는 어디까지나 시뮬레이션일 뿐이다. 실제 군사 운용에서는 AI가 독립적으로 결정을 내리지 못한다. 전략적 추론 결과는 담당 부서에서 필터링·요약되어 장군에게 보고되며, 최종 판단은 항상 인간 지휘관이 통제한다. 이 차이는 연구 경고와 실제 운용 사이의 중요한 안전 장치를 보여준다.

이처럼 AP 통신에서 드러난 윤리적 제한과 다른 외신을 통해 확인된 실제 위험성 사이에는 명확한 차이가 존재한다. 이러한 차이는 미 국방부와 앤트로픽 간 논쟁이 단순한 계약 분쟁을 넘어, 실제 군사 운용의 신뢰성과 안전 문제로 이어지는 배경이 된다.

다른 뉴스 보기