본문 바로가기

뉴스

“질 바엔 다 죽자” AI에 전쟁 시켜봤더니…95% 핵 쏘고 공멸 택했다

댓글0
헤럴드경제

[인공지능을 이용해 제작함]



[헤럴드경제=문영규 기자] 인공지능(AI) 모델들이 핵 위기 상황이 발생할 경우 전쟁을 피하지 않고 95%가 핵무기를 사용했다는 연구 결과가 나왔다.

영국 런던 킹스칼리지(KCL)는 27일(현지시간) 홈페이지를 통해 “대규모 언어 모델이 모의 핵 위기 상황에서 어떻게 대처하는지 분석했다”며 “21개의 시나리오에 걸쳐 95%의 시나리오에서 핵 신호가 발생했고 어떤 모델도 전면적인 양보를 선택하지 않았다”고 설명했다.

케네스 페인 KCL 교수 연구팀이 이번 연구에 사용된 AI 모델은 오픈AI의 ‘챗GPT 5.2’, 앤스로픽의 ‘클로드 소네트4’, 구글의 ‘제미나이 3 플래시’다.

연구팀은 국경 분쟁, 자원 경쟁 등 외교적 대치 상황을 부여하고, 단순 항의부터 전면 핵전쟁까지 30단계로 나누어 대응하도록 했다.

게임이 총 329턴 진행되는 동안, 모델들이 생성한 추론 결과는 약 78만 단어에 달했다. 이는 톨스토이의 ‘전쟁과 평화’, 호메로스의 ‘일리아스’의 길이를 합친 것보다 더 많은 양이다.

위기 시뮬레이션 21개 중 모든 시나리오에서 한 쪽이 핵무기 사용 의사를 밝혔고 양쪽이 모두 핵무기를 사용하겠다고 밝힌 건 95%였다.

전술 핵무기 사용은 450건 이상, 전략적 핵무기 위협을 가한 것은 850건 이상이었다.

세 가지 모델의 공통점은 어떤 모델도 타협이나 항복을 선택하지 않았다는 것이다. KCL은 “최소한의 양보부터 완전한 항복까지 8가지의 명확한 긴장 완화 옵션이 있었지만, 단 한 번도 사용되지 않았다”고 지적했다.

AI들이 선택한 가장 타협적 행동은 ‘시작 지점으로 복귀’였다. 선택 비중은 단 6.9%에 불과했다.

연구를 진행한 케네스 페인 교수는 “AI모델들은 패배할 경우 상징적인 양보조차 선택하지 않았다”며 “긴장 완화는 타협이 아닌 공격성 감소를 의미했다”고 분석했다.

핵으로 위협받으면 순응하거나 후퇴하는 것이 아니라 긴장이 고조됐고 AI들은 억지 수단이라기 보다 강압적 도구로 취급하는 경향을 보였다.

챗GPT의 경우엔 위기 상황 기한이 정해지지 않은 상황에선 다른 AI에 비해 억제된 모습을 보이며 모두 패배했다.

하지만 기한이 주어진 상황에선 ‘지금 아니면 안 된다’는 긴장감이 조성되고 급격히 성능을 끌어올렸다. 어떤 경우엔 최고 수준의 핵무기 사용 문턱까지 도달했다.

페인 교수는 “AI 모델에서 핵 억지력이 핵 확전을 막는 장애물이 되지 않는다는 점, 전략적 핵 공격은 드물지만 실제로 발생한다는 점 등이 발견됐다”며 “위협은 순응보다는 반격으로 이어지는 경우가 더 많았고 높은 상호 신뢰도가 갈등을 억제하기보다는 오히려 가속화했다”고 분석했다.

또한 “어떤 AI도 극심한 압박 속에서도 타협이나 철수를 선택하지 않고 단지 폭력 수준을 낮추는 것만을 선택했다”며 “최첨단 모델이 인간의 전략적 논리를 어떻게 모방하고 또 어떻게 모방하지 않는지를 이해하는 것은, AI가 점점 더 전략적 결과를 좌우하게 될 세상을 대비하는 데 필수적”이라고 강조했다.

기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.

헤럴드경제 주요뉴스

해당 언론사로 연결

지금 봐야할 뉴스

  • 뉴시스의협, 비대위 안 꾸린다…'의대 증원' 대정부 투쟁만 결의
  • 이데일리美 이란 전격공습에 비트코인 시총 100조원 사라졌다
  • 더스쿠프美 공격 당한 이란, '호르무즈 해협' 봉쇄하면 벌어질 일  
  • 인더뉴스우리금융 회장 3연임 66.7% 특별결의…주주통제로 지배구조 선진화

쇼핑 핫아이템

AD