대한민국에서 세계 최초로 '인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(이하 AI 기본법)'이 22일 시행되면서 인공지능 생성물을 활용하는 산업 전반에 고지와 표시 책임이 부여됐다. 지난 21일 배포된 정부 가이드라인은 AI 활용을 무조건 제한하기보다 창작의 자유를 존중하면서 이용자를 보호하는 균형 잡힌 규제 구조를 제시했다.
가이드라인의 핵심은 AI 생성물에 대한 알림 방식을 '고지'와 '표시'로 이원화하고 이를 최종 이용자 관점에서 판단하도록 한 점이다. 단순히 AI를 도구로 사용하는 창작자와 AI 기술 자체를 제공하는 사업자를 명확히 구분하여 일반 창작자인 이용자에게는 과도한 법적 의무를 지우지 않도록 설계됐다.
고지는 AI를 제작 과정의 일부에 보조적으로 사용했을 때 이를 포괄적으로 알리는 방식이다. 게임이나 영화처럼 수많은 요소가 결합된 콘텐츠에서 AI가 에셋 제작 등 도구로 활용되었다면 약관이나 작품 설명, 엔딩 크레딧 등으로 AI 사용 여부를 안내하면 된다. 기준은 인간의 주관적인 판단과 편집 여부다. 최종 결과물에 실질적으로 개입했다면 개별 장면마다 AI 사용 여부를 일일이 표시할 필요가 없다. 즉 AI로 초안을 잡고 사람이 재작업하여 완성도를 높인 경우 창작자는 고지 대상에서 제외된다.
(출처=과기정통부 '인공지능 투명성 확보 가이드라인').
'표시'는 개별 콘텐츠가 AI 생성물임을 이용자가 즉각적으로 인식해야 하는 경우에 적용된다. 실제 인물이나 사건으로 착각하게 할 우려가 큰 딥페이크 이미지 혹은 영상 콘텐츠 등이 주요 대상이다. 실존 인물의 얼굴이나 음성을 활용하여 정보를 왜곡할 가능성이 있는 영상은 자막, 아이콘, 워터마크 등 시각적으로 식별 가능한 방식을 통해 AI 생성물임을 최종 이용자에게 알려야 한다.
이러한 체계는 허위 정보 유포나 여론 조작 같은 사회적 부작용은 엄격히 차단하되 산업계의 창작 활동은 위축시키지 않겠다는 정부의 의지가 반영됐다. 실제로 가이드라인은 글로벌 스탠다드에 맞춰 게임, 인터랙티브 콘텐츠 등 몰입도가 중요한 일부 콘텐츠에 시각적 표시 의무에서 예외로 두는 등 특수성을 반영해 설계됐다.
다만, 제도 시행 초기인 만큼 산업 현장에서 AI 생성물 제공자와 단순 이용자의 경계를 구분하는 데 혼란이 잇따를 것으로 예상된다. 이에 정부와 과학기술정보통신부는 주요 규제에 대해 1년의 유예 기간을 두어 현장의 목소리를 반영하고 제도를 안착시킨다는 계획이다. 특히, AI를 적극적으로 도입 중인 영상과 게임 업계는 반복 작업을 대체하는 생성형 AI 활용이 활발한 만큼 이번 가이드라인을 통해 자사의 서비스가 고지 대상인지 표시 대상인지를 명확히 점검하는 과정이 필요할 것으로 보인다.