법 조문과 시행령만으로는 적용 기준이 모호하다는 업계 우려를 반영해, 실제 운영 중인 AI 제품·서비스 유형을 기준으로 표시 방식과 고지 방법을 정리한 것이 핵심이다.
기사와 무관함.(사진=게티이미지) |
이번 가이드라인은 투명성 확보 의무를 두 축으로 나눴다.
첫째는 고영향 또는 생성형 AI 기반으로 운용된다는 사실의 사전 고지, 둘째는 AI 생성물이 생성형 AI로 만들어졌다는 사실의 표시다.
의무 주체는 ‘이용자에게 AI 제품·서비스를 직접 제공하는 인공지능사업자’로 명확히 했다.
구글이나 오픈AI 같은 국내 이용자를 대상으로 서비스를 제공하는 해외 사업자도 포함된다.
반면, AI를 업무나 창작의 도구로 쓰는 유튜버 등 이용자(예: 영상 생성 AI로 콘텐츠를 만드는 제작사)는 규제 의무 대상이 아니라는 점도 분명히 했다.
표시 기준은 “서비스 안”과 “서비스 밖”을 갈랐다.
생성물이 앱 화면·이용 UI 등 서비스 환경 내에서만 제공될 때는 로고 표출, 이용 전 안내 등 비교적 유연한 방식이 허용된다. 챗봇은 이용 전 안내나 화면 내 표기, 게임·메타버스는 로그인 시 안내 또는 캐릭터 표기 같은 예시가 제시됐다.
반대로, 다운로드·공유 등으로 결과물이 서비스 환경 밖으로 반출될 때는 표시 강도가 올라간다. 텍스트·이미지·영상 등 생성물을 외부로 내보내는 경우 사람에게 보이거나 들리는 방식(가시·가청 워터마크 등)으로 표시하거나, 안내 문구·음성 안내와 함께 기계 판독 방식(메타데이터 등)을 적용하도록 했다.
특히 실제와 구분이 어려운 가상의 생성물(딥페이크 등)은 이용자 혼란을 막기 위해 사람이 명확히 인식 가능한 표시를 반드시 하도록 했다.
과기정통부는 제도 초기 혼선을 고려해 최소 1년 이상 계도기간을 운영하고, 이 기간 투명성 조항에 대한 사실조사와 과태료 부과를 유예한다는 방침도 재확인했다.
기업 상담을 위한 지원 창구도 운영하며, 새 서비스 유형과 기술 변화를 반영해 가이드라인을 지속 보완하겠다고 밝혔다.














