(KISTEP 브리프 119호. 2024.2.13)
22년 12월 EU 이사회는 AI의 개념, 분류 기준과 그것의 요구사항 및 범용목적 AI(ChatGPT 공개, ‘22.11.30.)규제 등을 담은 수정안)을 채택하였고, ’23년 5월 EU 의회는 법안 수정안을 마련하였다.
초안과 비교하여 변경된 내용은 파운데이션 모델에 대한 규제 신설, AI 개념을 OECD 기준에 부합하도록 수정, 수용 불가능한 위험/고위험 AI 범위 확대 등 포함하였다.
수정안은 찬성 499표, 반대 28표, 기권 93표로 채택되었고(2023.6.14.), EU 집행위, 유럽의회, 27개국 대표 등 3자 간 AI 규제법에 합의(2023.12.8.) 하였다.
EU AI 법안 주요 내용
EU AI 법안은 위험수준에 따라 차등적으로 규제하며, ‘허용될 수 없는 위험’을 가진 AI는 엄격히 금지하고, ‘고위험’ AI에 대해서는 엄격한 요구사항을 부과
❍ 금지되는 AI 활동과 고위험 AI 규정
① 사람의 의식 이면의 잠재의식 기술, 사람의 의사결정 능력 손상, ② 사람이나 특정 단체의 취약성 활용, ③ 특정 사람 또는 단체에 불공정한 처우 또는 사회적 점수 평가 또는 분류 목적, ④ 실시간 원격 생체인식 식별시스템 이용 등 AI 활동은 금지
생체인식 시스템 중 제한적으로 허용되는 제외: 중대 범죄 수색을 위해 필요한 경우 등(범죄 희생자 수색, 테러공격 예방은 수정안에서 삭제)
고위험 AI*에 대해 위험관리시스템, 데이터 품질 기준, 기술문서 작성과 유지, 자동 기록 기능 탑재와 이력 추적, 사용자 투 명성 확보와 정보 제공, 인적 감독 보장, 정확성과 견고성, 사이버 보안의 확보 등 매우 높은 수준의 요구사항을 부과
EU 조정법(Annex II)에 따라 안전구성요소 또는 제품 자체로 사용되고 제3자 적합성 평가를 받아야 하는 AI 시스템과 조정법(Annex III)의 목록으로 제시된 AI 시스템을 의미
투명성 의무와 생성형 AI에 대한 규제 규정
사람과 교류하는 AI 시스템은 제공자, 사용자, 해당 시스템으로 하여금 사람에게 공지, 감정인식 시스템이나 생체인식 분류시스템의 사용자는 노출된 사람에게 고지 및 사전 동의 획득, 딥페이크*를 생성/조작하는 시스템 사용자는 인공적으로 생성/조작되었음과 성명을 공개
딥페이크는 진정하거나 진실한 것이라고 잘못 보여지는 텍스트, 오디오 또는 시각적 콘텐츠와 그 사람의 동의 없이 그 사람이 실제로 하지 않은 말 또는 행동을 표시하는 것으로 정의
공개란 해당 콘텐츠 이용자에게 콘텐츠가 진정한 것이 아님을 분명하게 시각적 방법으로 콘텐츠에 표시하는 것-ChatGPT 같은 생성형 AI는 고지의 의무, 기초모델의 훈련 및 가능한 경우 그 설계 및 개발에있어서도, 생성되는 콘텐츠가 EU 법률 및 기본권 준수, EU 또는 회원국의 저작권 보호, 저작권법 보호대상인 훈련 데이터를 사용하는 경우, 주요 내용 공개 의무
❍ EU 의회안은 AI 시스템의 재정의와 파운데이션 모델에 대한 조항을 신설 등 변경
EU 의회안은 중소기업 또는 스타트업에게 일방적으로 적용되는 불공정한 계약조건을 규제하는 조항을 새롭게 추가(고위험 시스템에 이용되는 도구・서비스・구성요소의 공급에 관한 계약조건, 계약 위반 또는 종료에 대한 계약조건이 중소기업 등에게 일방적으로 부과되고 그 내용이 불공정하다면 해당 내용은 효력이 없음)
AI 시스템의 OECD 새로운 정의를 도입하고 ‘허용될 수 없는 위험’, ‘고위험’ AI 시스템 범위를 확대
※ OECD는 EU의 새로운 AI 규정집에 포함될 AI의 새로운 개념을 채택10)(’23.11.8., ‘19년 AI 정의와 AI 정책 원칙 제안)-AI 시스템을 다양한 수준의 자율성으로 작동하도록 설계되었으며, 명시적 또는 암묵적 목표를 위해, 물리적 또는 가상환경에 영향을 미치는 예측, 추천 또는 결정과 같은 결과를 생성하는 기계 기반(machine-based) 시스템으로 정의
※ 수정안에서 ‘인간이 정의한 일련의 목표를 위해’를 ‘명시적 또는 암시적 목표를 위해’로 변경-고위험 AI 시스템 목록에 대규모 온라인 플랫폼으로 지정된 소셜 미디어 추천시스템 등을 추가하고 해당 목록 중 인간의 건강, 안전 또는 기본권에 상당한 위험을 야기하는 경우에만 고위험으로 분류※ 해당 시스템을 활용하여 서비스를 제공하는 자(시스템 배포자)에게 기본권 영향평가 수행 등 강화된 의무 부여
금지된 AI 시스템은 공공장소에서의 실시간 원격 생체인식 시스템 사용을 전면 금지하고, 금지되는 AI 시스템 목록에 민감정보를 활용한 생체인식 분류시스템, 스크래핑을 통해 안면인식 DB를 구축하는 시스템 등을 추가
파운데이션 모델*의 법적 윤리적 문제가 제기됨에 따라 파운데이션 모델 규제 조항을 신설
파운데이션 모델은 대규모 데이터로 사전 훈련된 AI 모델로서 출력이 범용적이어서 다른 다양한 시스템 개발의 기초로 쓰일 수 있는 모델-파운데이션 모델을 고위험으로 분류하지는 않았으나, 파운데이션 모델의 공급자가 준수해야 할 의무조항을 별도로 추가
'☆ 테크(로봇, AI)' 카테고리의 다른 글
인공지능(AI) 규제 (0) | 2024.02.21 |
---|---|
나에게 맞는 키보드 (0) | 2024.02.21 |
인공지능과 규제 (feat. 오픈AI Sora) (0) | 2024.02.18 |
AI와 가장 밀접한 분야, AI 특허가 가장 많은 국가 (0) | 2024.02.17 |
IFR (2022) 보고서 - AI in Robotics - 미래에 나타날 로봇은? (0) | 2024.02.16 |