| 제목 | [이슈리포트] 2026-2-[EU] 인공지능법 투명성 의무 실천 강령 초안(1차) 공개(박준우) | ||||||||||||
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
| 담당부서 | 통상산업연구팀 손휘용(055-792-0097) | 등록일 | 2026-02-11 | ||||||||||
| 첨부문서 |
[이슈리포트] 2026-2-[EU] 인공지능법 투명성 의무 실천 강령 초안(1차) 공개(박준우).pdf
미리보기 |
||||||||||||
|
인공지능법 투명성 의무 실천 강령 초안(1차) 공개
서강대학교 법학전문대학원/교수 박준우
2025년 12월 17일 유럽연합 집행위원회(European Commission)는 ‘인공지능 생성 콘텐츠의 투명성에 관한 실천 강령 1차 초안’을 공개하였다. (이하 ‘강령 초안(1차)’) EU 인공지능법(이하 ‘법’) 제50조는 인공지능 시스템의 제공자와 이용자에게 투명성 의무를 부과하였는데, 제2항은 오디오, 이미지 또는 텍스트 콘텐츠를 합성하여 생성하는 인공지능 시스템(범용 인공지능 시스템 포함) 제공자(providers)에게 인공지능 결과물임을 그 결과물에 기계 판독 가능 형식으로 표시하고 탐지할 수 있도록 보장할 의무를 부과하고, 제4항은 ㉠ 딥페이크를 구성하는 이미지, 오디오 또는 비디오 콘텐츠를 생성·조작하는 인공지능 시스템 배포자(deployers)에게 그 콘텐츠가 인공지능으로 생성·조작(manipulates)되었음을 공개할 의무와 ㉡ 공익 관련 정보를 공중에게 제공할 목적으로 텍스트를 생성·조작하는 인공지능 시스템 이용자에게 그 텍스트가 인공지능 결과물임을 공개할 의무를 부과하였다. 또한 제5항은 ㉠ 명확하고 구별 가능한 방식으로 ㉡ 늦어도 첫 번째 상호작용 또는 노출까지는 ㉢ 관련된 자연인에게 위 정보들이 제공될 것을 규정하였다. 유럽연합 집행위원회는 위 의무의 구체적인 실행을 위한 강령을 2026년 6월까지 발행할 목적으로 2개의 워킹그룹을 조직하여 위 1차 초안을 발행하였는데, 워킹그룹 1은 ‘생성형 인공지능 시스템 산출물의 표시·탐지 의무 요건’(제50조 제2항과 제5항 의무)을, 워킹그룹 2는 ‘딥페이크 및 공익 관련 인공지능 생성 텍스트 공개 의무 요건’(제50조 제4항과 제5항 의무)을 담당하였다. 2026년 3월에 2차 초안을 발행할 예정이다. 강령 초안(1차)은 인공지능 서비스 제공자 의무에 관한 법 제50조 제2항 및 제5항의 구체적 실행 방법에 관한 섹션 1과 이용자 의무에 관한 법 제50조 제4항 및 제5항의 구체적 실행 방법에 관한 섹션 2로 구성되었고, 각 섹션은 목적(objectives), 전문(recitals), 실행(commitments), 조치(measures)로 구성되었다. 강령 초안(1차)에서 정한 요건은 그 성격에 따라 실체, 절차, 기술 요건으로 나눌 수 있는데, 다음에서는 실체 요건을 중심으로 소개한다.
법 제50조 제2항은 표시 및 탐지를 위한 기술적 솔루션이 ㉠ 실효성, ㉡ 호환성, ㉢ 견고성, ㉣ 신뢰성 등 네 가지 요건을 충족할 것을 규정하였다. 강령 초안(1차)은 이 요건들의 의미를 구체적으로 설명하였다. 1) 실효성(effectiveness) 실효성 있는 기술적 표시 및 탐지 솔루션은 다음을 의미한다. ㉠ ‘인공지능 생성·조작 콘텐츠라는 정보를 효과적으로 제공’한다는 ① 목적에 부합하고 ② (실제로) 그렇게 할 수 있음(fit-for-purpose and capable of effectively informing about the artificial origin of the content). ㉡ 정보 생태계의 무결성에 기여함(contribute to the integrity of the information ecosystem). 그리고 위 목적 달성을 위해 표시 및 탐지 솔루션은 다음 요건을 모두 충족해야 한다. ⓐ 연산 효율성이 높고 비용이 낮음(computationally efficient and low-cost) ⓑ 실시간 적용을 보장함 ⓒ 생성된 콘텐츠의 품질을 보존할 수 있어야 함 ⓓ 인공지능 모델·시스템 기능을 저해하지 않음 ⓔ 환경적 지속가능성을 지향함 2) 신뢰성(reliability) 기술적 표시 및 탐지 특히 탐지의 정확도(accuracy)는 다음의 확립된 지표를 사용하여 측정한다. ㉠ 탐지의 거짓 양성/음성 비율(false positive/negative rates) ㉡ 해당하는 경우, 해독(decoded)된 표시 정보(marker information)의 비트 오류 비율(bit error rates) 그리고 ‘거짓 양성/음성 비율’이 낮음은 ㉠ 인공지능 모델·시스템 학습·개발 과정에서 이용되지 않은 ㉡ 인공지능 생성 콘텐츠 및 인간 창작 콘텐츠 표본(sample)을 통해 증명되어야 한다. 3) 견고성(robustness) 표시 및 탐지 솔루션은 그 표시 기술이 ㉠ 일반적인 변형(common alterations) 및 ㉡ 적대적 공격(adversarial attacks)에 대하여 높은 수준의 견고함을 달성해야 한다. 여기서 ‘일반적 변형’은 반전(mirroring), 자르기(cropping), 압축(compression), 화면 캡처(screen capturing), 의역 (paraphrasing), 문자 삭제(character deletions), 이미지 또는 영상 해상도의 변경, 음높이 변환(pitch shifting), 시간 늘리기(time stretching) 또는 형식 변경(change of format) 등과 같은 전형적인 처리 작업(typical processing operations)을 모두 포함한다. ‘적대적 공격’이란 복제(copying), 제거(removal), 재생(regeneration), 변경(modification) 그리고 공통 표시 패턴 공격/비용 분할 상환 공격(amortisation attacks) 등을 뜻한다. 적대적 공격에 대한 회복력(resilience) 측면에서 보안 견고성(security robustness)이 측정되어야 하는데, 탐지기(detector) 또는 탐지 인터페이스에 대한 접근을 제공할 때, 표시 및 탐지 메커니즘에 대한 악의적 사용과 공격을 방지하고 대응하기 위해, 요청 횟수 제한(rate limits)과 같은 표준 보안 관행(standard security practices)이 적용되어야 한다. 4) 호환성(interoperability) 호환성 있는 인공지능 생성·조작 콘텐츠 표시·탐지 기술 솔루션이란 적용 분야나 상황과 관계없이 다양한 배포 채널과 기술 환경에서 작동함을 뜻한다. 이를 위해서 표시·탐지 솔루션을 자체적으로 개발한 제공자는 그들의 생성형 인공지능 시스템·모델 산출물을 탐지하기 위한 ‘공동 통합 검증기’ 구축(creation of shared aggregated verifier)에 협력한다. 대안으로, 제공자는 기계 판독 가능 표시의 탐지와 검증에 사용될 수 있는 수단 관련 정보를 산출물 또는 메타데이터에 직접 인코딩하는 적절한 조치를 실행함으로써, 그 탐지 방법(detection methods)이 ㉠ 제공자들 사이에서 호환되고 ㉡ 이용자가 쉽게 접근할 수 있음을 보장한다.
법 제50조 제4항이 인공지능 결과물 배포자(deployers)에게 부과한 공개 의무 내용은 ㉠ ‘딥페이크를 구성하는 이미지, 오디오 또는 비디오 콘텐츠가 인공지능 생성·조작물임’과 ㉡ ‘공중에게 제공되는 공익 정보 텍스트가 인공지능 생성·조작물임’이다. 다만, 두 의무 모두 범죄의 발견, 예방, 수사 또는 기소를 위해 법이 허용하는 경우에는 적용되지 않는다. 또한, ㉢ 딥페이크 콘텐츠가 명백하게 예술적, 창작적, 풍자적, 허구적 또는 이와 유사한 작품이나 프로그램의 일부인 경우, 위 작품의 표현이나 향유(display or enjoyment)를 저해하지 않는 적절한 방식으로 공개해야 한다. 그리고 ㉣ 공익 정보 텍스트가 ① 인간의 검토 또는 편집상의 통제 과정을 거치고 ② 자연인 또는 법인이 그 콘텐츠의 발행에 대한 편집상의 책임을 가지는 경우에는, 공개 의무를 부담하지 않는다. 강령 초안(1차) 섹션 2는 이 요건들의 의미와 세부 요건들을 보다 구체적으로 설명하였는데, 주요 내용은 다음과 같다. 1) 일반적 조치 (Part A) 강령 초안(1차)은 이용자들이 딥페이크 및 공익 정보 텍스트에 대하여 ㉠ 공통된 분류체계와 아이콘(common taxonomy and icon)을 사용하여 ㉡ 출처를 일관성 있게 공개(consistent disclosure of origin)할 것을 정하고 있다. (1) 공통된 분류체계 사용 법 제50조 제4항의 콘텐츠를 일관되고 투명하게 식별하기 위하여 사용되는 공통된 분류체계는 ㉠ 통일된 용어를 사용하고 ㉡ 공개 대상 콘텐츠를 구별하는 지침으로 기능한다. 이용자들은 콘텐츠를 최소한 ㉠ 인공지능 시스템이 모든 부분을 자율적으로(fully and autonomously) 작성하고, 인간이 작성한 진정한 콘텐츠(human authored authentic content)가 없는 ‘순수 인공지능 생성 콘텐츠’(fully AI-generated content)와 ㉡ 인간과 인공지능이 모두 개입한 ‘인공지능 보조 콘텐츠’(AI-assisted content)로 구분한다. (2) 공통된 아이콘 사용 EU 전역에서 사용할 아이콘(EU-wide icon)은 다음의 사용성(usability)과 호환성(interoperability) 요건을 충족해야 한다. - 강령 초안(1차) Measure 1.1의 분류체계에 따른 다른 정도의 기만적인(deceitful) 콘텐츠(즉, 순수 인공지능 생성 콘텐츠와 인공지능 보조 콘텐츠)를 자연인이 구별할 수 있는 가능성까지 포함(integrates)할 것, 예를 들면 다음과 같다.
- 해당 아이콘과 상호작용할 경우, 정확하게 어느 부분이 인공지능 생성·조작 부분인지에 관한 추가 정보를 얻을 수 있게 하며, 이는 법 제50조 제2항과 강령 초안(1차) 섹션 1이 정한 표시가 제공하는 기계 판독 가능한 정보에 부합(in accordance with)해야 한다. 예를 들면 다음과 같다.
- 일관된 공개를 지원할 수 있고, 인공지능을 뜻하는 두 글자 약어(two-letter acronym)로 구성되며, 이는 회원국 언어로 번역된 글자들일 수 있다. (예. AI, KI). 오른쪽 아이콘 예시 참조. (※ ChatGPT가 만든 아이콘으로 순수 인공지능 콘텐츠와 인공지능 보조 콘텐츠를 색으로 구분함. 강령 초안(1차), 31쪽, Figure 1.) - 콘텐츠 포맷과 유통 상황(dissemination context)에 적절한 고정된 위치에 배치(placed in a fixed position)되어야 한다. - 예술적, 창작적, 풍자적, 허구적 작품의 향유를 방해하지 않는 방법으로 실행(implemented)될 것, 오른쪽 아이콘 예시 참조. (※ 인공지능 생성 이미지 오른쪽 아래 구석에 ‘AI’ 아이콘 표시함. 출처는 Center for AI Safety. 강령 초안(1차), 31-32쪽, Figure 2.) - 상호작용할 수 있는 음성에 의한 공개(audio disclosures)가 오디오만으로 된 콘텐츠에 접근성 목적으로 포함될 가능성이 있으며(potentially include), 적용 가능한 접근성 요건을 준수할 것(comply with). 2) 딥페이크 공개 관련 조치 (Part B) 이용자의 딥페이크 관련 공개 의무는 ㉠ 딥페이크 콘텐츠를 정확하게 분류하고 ㉡ 명확하고, 구별가능하며, 시기 적절하게 실행되어야 한다. 이용자는 공개 의무 실행을 위해 ㉠ 일관된 방식으로 딥페이크 이미지, 오디오, 비디오 콘텐츠를 식별하여 법 제3조 제60항의 ‘딥페이크’ 정의를 적용하고 ㉡ 공개 의무가 면제되는 콘텐츠인지 (예를 들면, 법 집행을 위한 콘텐츠) 또는 예술적, 창작적, 풍자적, 허구적 작품 관련 콘텐츠인지를 결정하기 위한 내부 절차(internal process)를 마련한다. 또한 딥페이크 라벨 표시 절차는 자동화에만 의존하지 않고 인간의 적절한 감독(appropriate human oversight)으로 보완됨을 보장해야 한다. 구체적인 내용은 다음과 같다. (1) 명확하고 구별 가능한 공개 법 제50조 제5항은 ㉠ ‘명확하고 구별 가능한 방식’으로 ㉡ ‘늦어도 첫 번째 노출까지’는 딥페이크 콘텐츠임을 공개할 것을 규정하고 있는데, 강령 초안(1차)은 콘텐츠 종류에 따라 다음과 같이 정하고 있다. - 실시간 비디오(real-time video)의 경우, 아이콘을 ㉠ 가능한 범위 내에서 ㉡ 비침해적 방식으로 ㉢ 일관되게 ㉣ 노출 모든 과정에 걸쳐 표시한다. (in a non-intrusive way consistently throughout the exposure where feasible). 그리고 '콘텐츠가 딥페이크를 포함'한다는 고지(disclaimer)를 ㉠ 노출 시작할 때 삽입하여 ㉡ 적절한 기간 동안 인지할 수 있게 해야 한다. - 실시간 비디오가 아닌 경우(non-real-time video), 비디오가 딥페이크를 포함하였음을 아이콘으로 공개하며, 다음 공개 방법 중 하나 또는 여러 개 조합을 상황에 따라 적절하게 선택한다. ① 노출을 시작할 때 고지한다. 구두 고지(oral disclaimer)할 때는 아이콘이 음성 공개(audio disclosure)와 동시에 표시되어야 한다. ② 아이콘을 노출 모든 과정 동안 적절하고 고정된 위치에 일관되게 배치함으로써, 자연인이 추가 상호작용 없이 명확히 볼 수 있게 공개됨(the disclosure is clearly visible to the natural person without any further interaction)을 보장한다. 온라인 플랫폼의 경우, 아이콘을 ㉠ 비디오 프레임 바로 바깥에 ㉡ 사용자 인터페이스 또는 인터페이스 오버레이에 통합된 형태로 배치함을 의미한다. ③ 비디오 끝부분 크레딧에 고지한다. 이 조치는 항상 위 조치 중 하나와 함께 사용할 필요가 있다. - 이미지 콘텐츠의 경우, 공통 아이콘을 모든 노출에 일관성 있게 고정된 위치에 배치하는데, 이 아이콘은 특히 이미지 자체로부터 명확히 구별되게 보여야 하며, 이미지 레이어 또는 다중 배경의 경우 숨겨지면 안 된다. - 오디오 콘텐츠의 경우, 다음과 같다. ① 30초 미만 콘텐츠의 경우(예: 광고), ㉠ 평이하고 단순한 자연어(plain and simple natural language)로 된 ㉡ 짧은 음성 고지를 ㉢ 콘텐츠 시작 부분에 포함한다. ② 30초 넘는 경우(예: 팟캐스트): 음성 고지를 콘텐츠의 시작, 중간, 끝부분에 반복해서 제공한다. ③ 사용자와 음성 상호작용에서 스크린 이용 가능한 경우(예: 자동차 또는 스마트폰 디스플레이), 자연인에게 처음 노출된 시점 또는 오디오 콘텐츠에 처음 접근한 시점에 아이콘을 표시(display)한다. ④ (앞으로 개발할) EU 전역에서 사용될 아이콘이 음성만으로 된 표시 수단(audio-only solution)을 포함한다면, 그 솔루션은 자연어 고지 대신 이용될 수 있다. - 복합(multimodal) 콘텐츠의 경우, 딥페이크를 포함함을 ㉠ 아이콘을 사용하여 ㉡ 일관되게 공개함을 보장하며, ㉢ 자연인이 추가 상호작용 없이 명확히 볼 수 있게 공개됨을 보장한다. 복합(멀티모달) 콘텐츠는 image-text-sound, text-sound, image-sound, image-text 등의 정적 또는 동적 콘텐츠를 포함하지만, 위의 실시간/비실시간 콘텐츠는 제외한다. (2) 예술‧창작‧풍자‧허구적 작품과 딥페이크 공개 제한 딥페이크가 예술‧창작‧풍자‧허구적 작품의 일부인 경우, 그 작품의 표현이나 향유를 저해하지 않는 방식으로 표시해야 하는데(법 제50조 제4항 1단락 3문), 강령 초안(1차)은 아이콘을 비침해적 위치(non-intrusive position)에 배치할 것을 정하고 있다. 비침해적 위치의 예시는 다음과 같다. - 실시간 또는 준실시간 비디오 콘텐츠의 경우, 아이콘을 ㉠ 늦어도 첫 번째 노출할 때 위 또는 아래 구석 또는 ㉡ 노출 후 최소 5초 동안 표시한다. - 비디오 콘텐츠의 경우, 아이콘을 ㉠ 정보 제공에 충분한 시간 동안 ㉡ 늦어도 첫 번째 노출할 때 ㉢ 사용자 경험(시청)을 심각하게 방해함 없이 표시한다. - 이미지 콘텐츠의 경우, ㉠ 늦어도 첫 번째 노출할 때 ㉡ 이미지 자체 또는 그 배경의 적절한 위치에 포함하여 ㉢ 사용자가 식별(discern)할 수 있도록 표시한다. - 오디오 콘텐츠의 경우, ① 스크린 이용 가능하면, 아이콘을 늦어도 노출이 시작될 때 적절한 위치에 배치하면 충분하고, 콘텐츠가 시작 부분에 구두 고지가 필요 없다. ② 스크린 이용할 수 없으면, 비침해적 구두 고지 (a non-intrusive audible disclaimer)가 늦어도 첫 번째 노출할 때 삽입되어야 한다. 위 비침해적 구두 고지는 ㉠ 콘텐츠 언어와 같은 언어의 구두 공개(spoken disclosure), ㉡ 리듬 신호(rhythmic cues), ㉢ 음 기반 신호(sound-based signals) 등을 포함할 수 있다. - 기타 복합(multimodal) 콘텐츠: 아이콘을 ㉠ 늦어도 첫 번째 노출할 때 ㉡ 사용자가 추가로 상호작용할 필요 없도록 자연인에게 명확하게 보이도록 표시함을 보장한다. 3) 공익 정보 텍스트 공개 관련 조치 (Park C) 법 제50조 제4항은 ‘공중에게 제공되는 공익 정보 텍스트가 인공지능 생성·조작물임’을 공개할 의무를 인공지능 시스템 이용자(deployers)에게 부과하였다. 이 의무에도 딥페이크 콘텐츠 공개 의무와 같이 법 제50조 제5항이 적용되어 명확하고, 구별가능하며, 늦어도 첫 번째 상호작용 또는 노출할 때 실행되어야 한다. 또한 범죄의 발견, 예방, 수사 또는 기소를 위해 법이 허용하는 경우에는 적용되지 않는다. 다만, 공익 정보 텍스트가 ㉠ 인간의 검토 또는 편집상의 통제 과정을 거치고 ㉡ 자연인 또는 법인이 그 콘텐츠의 발행에 대한 편집상의 책임을 가지는 경우에는 공개 의무를 부담하지 않는다. 강령 초안(1차)은 위 예외의 적용을 위한 내부 절차 수립과 최소한의 문서 유지를 정하고 있다. 또한, 위 절차와 문서 내용은 이용자 규모에 따라 달라질 수 있지만, 최소한 다음 요소는 갖추어야 한다. - 편집상 책임 있는 자연인 또는 법인의 신원 정보(identification. 이름, 역할 그리고 상세 연락처 등.) - 적절한 자연인 검토 또는 편집상 통제가 발행 전 실행됨을 보장하기 위한 구체적인 조직상‧기술적 조치와 인적 자원에 관한 개요(overview). 이 개요는 해석 또는 그 효과에 영향을 미치는 국가별 특수한 요소들(예: 언어, 문화 또는 맥락 관련 요소)에 대한 고려를 포함한다. - 검토 및 승인일자 - 최종 승인본 출처(reference. 예: 파일이름, URL 또는 내부식별자) 이밖에 행정적 부담이 추가되지 않는 선에서 검토 성격(nature of the review) 또는 인공지능 개입 유형(type of AI involvement) 등 정보도 제공할 수 있다.
지금까지 EU 인공지능법 제50조 제2항과 제4항, 제5항이 정한 투명성 의무의 실천을 위한 강령 초안(1차)의 주요 내용을 실체 규정 중심으로 소개하였다. 강령 초안(1차)에는 이밖에 배포자와 이용자들이 준수하고 협력해야 할 기술적, 절차적 요건, 그리고 장애인을 위한 요건도 함께 정하고 있다. 짧은 준비 기간을 고려하면 매우 상세하게 규정되었다고 평가할 수 있으나, 앞으로 이해관계자들의 의견을 수렴하여 2차 초안과 최종본에서는 현재 1차 초안보다는 요건을 완화하는 방향으로 정리될 것이라고 한다. 한국도 인공지능기본법 시행령과 안내서를 작성하여 인공지능 결과물 관련 투명성을 보장하는 규정을 만들고 있는데, EU의 강령 초안(1차)이 유용한 참고 자료라고 생각된다. 저작권법 측면에서는 인공지능 산출물의 표시‧탐지와 관련하여, 저작물 유통 및 편집 과정에서 정보의 왜곡이나 손실이 일어나지 않도록 하는 견고성(reliability) 보장을 위한 이력 정보(provenance information) 관리와 기존 저작물 분류 표시와의 호환성 확보가 중요한 의미를 가질 것이라고 본다.
‘First Draft Code of Practice on Transparency of AI-Generated Content’. https://ec.europa.eu/newsroom/dae/redirection/document/123074
|
|||||||||||||