“작아도 똑똑하다” 삼성 TRM, 대형 AI 모델 능가
단 700만 파라미터로 ARC-AGI 테스트 45% 정확도 기록
스도쿠·미로 문제서 HRM 성능 크게 뛰어넘어
4GPU·500달러로 훈련 가능…스타트업도 실험 가능
반복적 사고 구조로 효율성과 정확도 동시에 확보
삼성전자가 AI 연구의 새로운 방향을 제시했다. 마켓포스트 보도에 따르면, 몬트리올 삼성미래기술연구소가 개발한 ‘타이니 리커전 모델’은 단 700만 개 파라미터를 가진 초소형 AI임에도 불구하고, 일부 추론 과제에서 구글의 제미니 2.5 프로와 오픈AI의 o3-mini-high를 능가하는 성과를 냈다.
그동안 AI 산업은 ‘규모 경쟁’이 지배적이었다. GPT 시리즈, 구글 제미니, 메타 라마등 대부분의 모델은 파라미터 수를 늘려 성능을 확보하는 전략을 택했다. 하지만 TRM은 정반대 접근을 시도했다. 두 층짜리, 700만 파라미터 수준의 단순한 구조로도 ARC-AGI-1 테스트에서 44.6~45% 정확도를 기록, 제미니 2.5 프로(37%)와 o3-mini-high(34.5%)를 웃도는 결과를 냈다.
“작아도 똑똑할 수 있다”
TRM의 핵심은 ‘재귀적 사고 구조’다. 모델은 스스로 초기 답안을 작성한 뒤, 이를 반복적으로 검토하고 수정한다. 연구진은 “AI가 크다고 무조건 똑똑하다는 생각은 착각”이라며, “적절한 구조와 반복적 사고 설계로 작은 모델도 깊이 있는 추론이 가능하다”고 밝혔다.
TRM은 스도쿠, 미로 찾기와 같은 규칙 기반 과제에서 강점을 보였다. 스도쿠 익스트림에서는 87.4%, 미로 찾기에서는 85.3% 정확도를 기록하며, 이전 모델인 HRM(27M 파라미터)보다 크게 향상됐다. 연구진은 이러한 성과가 단순 계산량이 아닌 ‘사고의 반복성’에서 비롯됐다고 분석했다.
효율성과 접근성
TRM은 4개의 엔비디아 H100 GPU와 약 500달러 비용으로 훈련이 가능하며, 학습 시간은 단 이틀에 불과하다. 또한 코드와 데이터, 학습 설정을 MIT 오픈 라이선스로 공개해, 대학 연구실이나 스타트업도 동일한 환경에서 실험할 수 있다. 이로써 대규모 자원이 필요한 기존 대형 AI 연구에 대한 균형점을 제공한다는 평가다.
향후 전망
TRM은 현재 언어 이해와 창작 같은 복잡한 영역에는 한계가 있지만, ‘작지만 똑똑한 모델’이라는 새로운 가능성을 보여주었다. 연구진은 TRM을 통해 “거대한 연산 능력이 아닌, 반복적 사고와 구조 설계가 AI 성능을 좌우한다”는 메시지를 전달했다.
이번 연구는 대형 AI의 ‘규모 경쟁’에 도전하며, 앞으로 AI 모델 설계에서 효율성과 인간적 사고 구조의 중요성을 재조명하는 계기가 될 것으로 기대된다.