“금융 분야에서 인공지능(AI) 활용에 따른 사고를 예방하기 위해서는 임원급 위원장이 이끌며 유관 부서들을 아우를 수 있는 AI 의사 결정 기구가 필요합니다. 여기엔 정보기술(IT)이나 리스크 관리 임원도 당연히 속해야 하지만 금융소비자 보호 총괄 책임자(CCO)의 역할이 가장 중요합니다.”
이종오 금융감독원 디지털·IT 부원장보는 18일 ‘제2회 서울경제 내부통제 정책포럼’ 기조강연을 통해 “AI 위험관리 전담 조직과 AI 기획·개발 조직은 이해 상충 문제를 해결하기 위해 조직과 기능을 분리하라는 게 금감원의 권고 사항”이라며 이같이 말했다. 위험관리, AI 시스템 개발, 소비자 보호, AI 윤리위원회 운영 지침 등 위험관리 규정들도 회사 내규로서 마련돼야 한다.
이 부원장보는 최근 금융권의 잇단 보안 사고가 과거 경영진이 보안 투자를 비용으로 인식해 소홀했던 영향이 크다는 지적이 나오는 만큼 AI가 업무 전반으로 확산하는 현시점에 AI 사고를 막기 위해 체계적인 접근을 서둘러야 한다고 강조했다. AI 상담을 통해 잘못된 정보가 고객에게 안내돼 피해가 발생하거나 AI 챗봇 학습 데이터에 포함된 개인정보가 답변에 노출되는 등의 사고가 발생할 가능성이 높다는 것이다.
은행·보험·증권 등 금융업은 여러 산업군 중 AI 잠재력이 가장 큰 분야로 꼽힌다. 지난해 세계경제포럼(WEF·다보스포럼)은 금융업의 방대한 데이터와 언어 기반 업무 특성상 자동화와 업무 강화 측면에서 지금보다 효율성이 69~73% 제고될 것이라 관측했다. 최근 국제금융협회(IIF) 보고서에 따르면 전 세계 금융기관의 84%가 생성형 AI를 업무 환경에 도입한 반면 국내는 약 56%가 사용하고 있는 상황이다. 이 부원장보는 “AI 도입과 확산을 가로막는 가장 큰 장애 요인은 AI 거버넌스와 위험관리 방안의 부재”라고 짚었다.
이 부원장보는 국내 금융사들의 경우 특히 고영향 AI(생명·신체안전·기본권 등에 중대한 영향을 미치거나 위험을 초래할 우려가 있는 AI 시스템)와 관련해 서비스 제공률이나 관련 의무 이행 수준이 다소 미흡하다고 지적했다. 올 1월 금감원 조사 결과 국내 금융사의 8%만 고영향 AI 서비스를 제공하고 있으며 위험관리 방안, 이용자 보호 방안, 문서 작성 등의 측면에서 다수 회사가 사업자 책무를 다하지 못했다.
이 부원장보는 AI 거버넌스와 위험관리 방안 구축을 위해 금감원이 마련한 AI 위험관리 프레임워크(AI RMF)에 대해 자세히 설명했다. 거버넌스, 위험 평가, 위험 통제 등 3축으로 구성된 RMF는 금융사 스스로 위험을 관리할 수 있는 구조적 기반을 제시한 일종의 가이드라인이다. 금융사들이 가장 난항을 겪고 있는 위험 평가의 경우 합법성 원칙, 신뢰성 원칙, 신의성실 원칙, 보안성 원칙 등 4가지 부문을 각각 3~5개 평가 항목으로 세분화해 위험도를 측정하고 그 결과에 따라 상품이나 서비스의 통제 수준을 결정하는 방식이다.
올해 1월 시행된 AI기본법에 따라 현재 금융권에서 고영향 AI 서비스로 분류되는 업무가 아직까지는 은행권의 ‘인간 개입 없는 심사를 통한 대출’에 국한되나 향후 기술 발전에 따라 범위가 더 넓어질 가능성이 높다는 점도 금융권이 위험관리 방안에 관심을 기울여야 하는 이유 중 하나다.
이 부원장보는 “가이드라인에도 고영향 AI 서비스에 해당하는 대출 범위가 어디부터 어디까지라고 딱 나오지 않았다”며 “당분간 특정 서비스가 고영향 AI에 해당하는지, 아닌지에 대해 금융사가 적극적으로 과학기술정보통신부·금감원 등과 소통해야 한다”고 설명했다.
끝으로 이 부원장보는 규제가 AI 기술 발전 속도를 결코 따라잡을 수 없는 만큼 자율적 내부통제 구축이 가장 중요하다고 당부했다. 그는 “최근 발생한 가상자산거래소 사고도 내부 자율 규제를 잘 따랐다면 막을 수 있었을 것”이라며 “AI 기술이 규제의 속도를 앞서가고 있는 지금, 금융사 스스로 책임 있는 위험관리 체계를 구축할 때 지속 가능한 성장의 길도 함께 열릴 것”이라고 강조했다.
김남균 기자 south@sedaily.com박신원 기자 shin@sedaily.com
[ⓒ 서울경제, 무단 전재 및 재배포 금지]















