그간 가이드라인 수준에 머물렀던 AI 윤리와 안전성 기준이 법제화됨에 따라, 국내 의료 AI 산업은 이제 '기술력'을 넘어 '법적 신뢰성'을 입증해야 하는 새로운 국면에 진입했다는 평가다.
AI의료 정책 관련 이미지 (사진=제미나이 생성) |
'고영향 AI'로 묶인 의료기기… '양날의 검' 된 안전성 의무
이번 AI 기본법의 핵심은 국민의 생명과 안전에 중대한 영향을 미치는 '고영향 AI'의 범위를 규정하고 그 책임을 명확히 한 데 있다. 보건의료 제공 체계와 의료기기법에 따른 디지털 의료기기 등이 고영향 AI의 범주에 포함되면서, 의료 AI 기업들은 한층 강화된 관리 체계를 갖춰야 한다.
가장 눈에 띄는 대목은 '설명 가능성'의 의무화다. 법 제34조에 따르면 AI 서비스로 생명이나 신체 안전에 영향을 받는 이용자는 결과 도출의 주요 기준과 원리에 대해 설명을 들을 권리가 있다. 이는 이른바 '블랙박스'로 불리는 AI 알고리즘의 투명성을 요구하는 것으로, 환자와 의료진의 신뢰를 높일 수 있지만 기술적 구현 측면에서는 기업에 상당한 부담이다.
업계에서는 '이중 규제'에 대한 우려도 나온다. 현재 루닛의 '루닛 인사이트', 뷰노의 '뷰노메드' 등은 이미 식품의약품안전처로부터 엄격한 임상적 유효성과 안전성 검증을 거쳐 허가를 받은 상태다. 여기에 AI 기본법에 따른 별도의 '영향 평가'나 '위험 관리 체계 구축' 의무가 더해질 경우, 동일한 제품에 대해 두 번의 심판대를 거쳐야 하는 상황이 발생할 수 있다.
특히 의료기관과 의료인이 '인공지능 이용 사업자'로 분류될 가능성이 열리면서 현장의 혼란도 예상된다. AI 의료기기를 도입한 병원이 법적 의무 준수를 위해 추가적인 비용과 시스템을 정비해야 한다면, 이는 중소 의료기관의 AI 도입 문턱을 높이는 부작용으로 이어질 수 있다는 지적이다.
'합법' 넘어 '신뢰'가 경쟁력… 글로벌 파트너십의 필수 관문
하지만 전문가들은 이번 법 시행을 단순히 규제 강화로만 해석해서는 안 된다고 조언한다. EU AI Act(유럽 인공지능법)는 2024년 승인됐으나 고위험 AI에 대한 핵심 규제 조항의 시행이 2027년으로 16개월 연기된 상황으로, 한국의 AI 기본법은 세계에서 가장 먼저 포괄적 AI 규제를 전면 가동한 사례가 됐다. 이는 K-의료 AI 기업들이 글로벌 규제 흐름을 선제적으로 경험하고 대응 역량을 쌓을 수 있는 기회이기도 하다.
글로벌 빅파마나 대형 의료 네트워크는 이미 기술 수출이나 공동 임상 계약 시 알고리즘의 투명성과 거버넌스 체계를 요구하고 있다. 국내 기업들이 AI 기본법에 맞춰 내부 통제 시스템을 고도화한다면, 이는 글로벌 시장에서 '신뢰할 수 있는 파트너'라는 프리미엄으로 작용할 수 있다.
실제로 루닛과 뷰노 등 선두 기업들은 이미 글로벌 스탠다드에 맞춘 AI 거버넌스 구축에 속도를 내고 있다. 단순히 식약처 허가에 안주하지 않고, 학습 데이터의 편향성을 제거하고 임상 현장에서의 실질적 통제 기능을 강화하는 '컴플라이언스 바이 디자인(Compliance by Design)' 전략을 택한 것이다.
결국 관건은 향후 마련될 세부 시행령과 가이드라인에 달려 있다. 보건의료 분야의 특수성을 반영해 기존 의료기기법과의 중복성을 얼마나 정교하게 해소하느냐가 산업 발전의 성패를 가를 전망이다.
의료 AI 업계 한 관계자는 "정부의 유연한 규제 해석이 혁신의 골든타임을 확보해줄 수는 있지만, 환자 안전에 대한 책임은 온전히 기업의 몫"이라며 "법적 최소 기준을 맞추는 데 급급하기보다, 분쟁 시 기업의 합리적 주의 의무를 입증할 수 있는 '감사 로그' 구축 등 선제적인 거버넌스 투자가 필요한 시점"이라고 강조했다.














