픽사베이 |
안전한 AI?…앤스로픽과 오픈AI '엇갈린 행보'
앤스로픽은 이번 채용이 "AI 시스템의 치명적인 오용 방지"를 목적으로 한다고 밝혔다. AI 모델 '클로드'가 살상 무기 개발에 활용되는 위험을 사전에 차단하려는 것이다. 실제 단순 AI 엔지니어가 아닌 무기 방어 분야에서 5년 이상의 경력을 가진 박사급 전문가를 찾고 있다. 이들은 AI 모델이 화학 무기 제조업이나 폭발물 합성 관련 질문에 어떻게 대응할지 가이드라인을 설계·모니터링하고, 악용되는 사례를 방지·차단하는 업무를 하게 된다.
앤스로픽의 이 같은 행보는 미 국방부로부터 '공급망 위험 기업'으로 지정된 직후에 이뤄져 눈길을 끈다. 앞서 앤스로픽은 '모든 합법적 목적'에 따라 클로드를 제한 없이 사용하겠다는 국방부의 요구를 거부했다. 이에 연방기관 내 자사 AI 기술 사용이 금지되는 등의 조치가 이어지자 "전례 없는 위법 행위"라며 소송을 제기한 상태다.
반면 오픈AI는 2024년 1월 이용 약관에서 군사적 활용 금지 조항을 삭제하고 국방부와 협력을 강화하는 등 안보에 무게를 실었다. 여전히 '타인에게 해를 끼치는 행위', 무기 직접 개발'은 금지하고 있지만 국가 안보·사이버 보안 등 광범위한 군사적 활용의 가능성을 열어뒀다. 최근에는 국방부의 기밀 네트워크에 AI 모델을 배포하는 계약을 체결해 이용자들의 반발을 사기도 했다. 이에 샘 올트먼 최고경영자(CEO)는 절충안으로 '국내 대중 감시 금지', '살상 무기 사용 시 인간의 책임'과 같은 조항을 계약서상에 명문화한 것으로 알려졌다.
AI 기술 우위는 지켜야 하지만, 급격한 무기화는 반대
AI 기반 자율 무기 개발에 대해서는 48%가 반대했다. 찬성 비율은 39%였다. 다만 미국이 타국보다 앞선 AI 기술을 보유하는 것이 중요하다는 데에는 79%가 동의했다. 결국 AI 무기화는 우려하지만, 기술 자체는 중국 등에 앞서야 한다는 것이다. 안전과 개발 속도 중 우선순위를 가리는 질문에는 안전·보안 규칙 유지가 우선이라는 응답이 80%로 압도적이었다. 빠른 개발이 우선이라는 비율은 8%에 불과했다. 이 조사는 미국 전역의 성인 3128명을 대상으로 지난해 4월 25일부터 5월 5일까지 이뤄졌다.
업계 관계자는 "미국인들의 복합적인 경계심을 보여주는 지표"라며 "비단 미국만의 문제가 아니다. 어떤 수준까지가 안전한 국방용 AI인지에 대한 사회적 합의가 먼저 이뤄져야 한다"고 말했다.
노경조 기자 felizkj@asiae.co.kr
<ⓒ투자가를 위한 경제콘텐츠 플랫폼, 아시아경제(www.asiae.co.kr) 무단전재 배포금지>















