EU, 비윤리적 AI 기술기업에 매출의 6% 과징금 부과하는 법안 내놨다

2021-04-23     김효진 editor
유럽연합은 윤리에 어긋난 AI 기술을 사용하거나 개발하는 기업에 과징금을 부과하겠다는 내용의 규제안을 공개했다./ 픽사베이

유럽연합(EU)이 비윤리적인 인공지능(AI) 기술에 대해 매출의 최대 6% 까지 과징금을 매기는 규제법안을 마련했다. 

뉴욕타임스, AP통신 등 주요 외신은 유럽집행위원회(EC)가 108쪽 분량의 '유럽식 인공지능 접근법 규제(Proposal for a Regulation on a European approach for Artificial Intelligence)' 초안을 21일(현지시각) 공개하고, "인간 기본권에 위협이 되는 AI 시스템을 세계 최초로 규제하기 시작했다"고 보도했다. 

사실 EU는 다른 어떤 나라보다 먼저 AI의 윤리적 문제에 개입해왔다. 2019년 'AI 윤리 가이드라인' 발표를 시작으로 2020년 'AI 발전과 신뢰 확보에 대한 백서'를 내놓으며 기술 시장에 경각심을 일깨웠다. 그러나 AI 기술개발에 따른 시장 선점을 놓고 미국과 중국의 각축이 격화되자, EU는 AI 기술이 보다 확대되기 전에 윤리적 리스크를 막기 위한 '규제'라는 카드를 꺼내 든 것이다.

공개된 EU의 규제 초안은 AI 기술을 '허용할 수 없는 위험(Unacceptable risk)', '고위험(High-risk)', '최소 위험(Low or Minimal risk)'의 3단계로 구분 짓고, 기업이 이 지침을 위반할 경우 전 세계 매출의 최대 6% 또는 3000만유로(403억원)의 과징금을 부과하는 내용을 담고 있다.

규제안에 제시된 AI 기술의 제약 사항은 대략 다음과 같다.

•  인간의 행동을 조작하거나 개인 또는 단체에 대한 사생활 정보 부당 사용, 무분별한 감시에 관련된 AI 시스템 전면 금지 (단, 테러 예방, 범죄자 추적, 실종아동 수색 등 치안과 안보 목적의 생체정보 수집 및 분석은 가능)
•  인간의 안전, 생명 또는 기본권을 위협하는 AI 시스템뿐 아니라 민주주의에 해가 되는 시스템 금지. 더불어 자율주행 자동차와 원격수술 등의 기술도 인권에 위협이 되는 경우 관리 대상에 포함
• 얼굴 인식 등 공공장소에서 사용되는 원격 생체 인식 AI 시스템은 당국 승인 필요
• 챗봇(대화 기능 시스템)이나 딥페이크(인물의 얼굴이나 특정 부위를 합성한 영상 편집물) 등 AI 기반의 서비스를 제공하는 경우, 고객에 'AI로부터 서비스를 받고 있다'는 정보 공개 의무 

 

내용을 입력하세요.

EU는 신용 평가나 채용 면접, 법 집행 등 개인을 평가하기 위해 AI로 생체정보를 수집하는 것을 고위험으로 분류하고, 이에 대한 강력한 규제를 단행하겠다고 밝혔다. 더불어 AI 음성 기술로 아이들에게 위험한 행동이나 행위를 유발할 수 있는 장난감 또는 애플리케이션도 고위험으로 분류했다. 또, 의료 등 긴급 서비스를 받아야 하는 사람들에게 차별적 우선순위에 영향을 주는 AI 기술도 고위험에 포함됐다. 고위험에 들어가는 AI 기술은 시장 출시 전 정부에 의해 엄격한 평가를 받아야 한다.

비록 EU의 이번 규제안은 전문가를 비롯해 기업들과의 논의를 거쳐야 하기 때문에 법률화되기까지 상당한 시간이 걸릴 것으로 보인다. 또, 내용이나 단계별 규정 사항도 변화될 수 있다. 하지만 AI 기술의 윤리성에 있어 강력한 규제를 취한다는 태도는 변하지 않을 전망이다.

규제안이 유럽의회와 회원국으로부터 통과가 되면 아마존, 구글, 페이스북 등 AI 기술 상용화를 추진하는 글로벌 기업에 막대한 영향을 끼칠 것으로 보인다. 규제안은 유럽 내 기업 뿐 아니라 유럽 시장에 진출한 글로벌 기업도 대상이기 때문이다. 뿐만 아니라, 고객 유치를 위해 AI로 정보를 수집 및 분석하는 금융기관 및 보험사가 증가하는 가운데, 금융업에도 EU 규제가 영향을 미칠 것으로 전망된다. 

정치인들과 시민단체 등은 사생활 보호와 차별 방지 차원에서 EU 규제안에 환영의 뜻을 비췄지만, 반대로 우려 섞인 목소리도 제기되고 있다.

애플리케이션 관리 플랫폼 기업인 베터클라우드(BetterCloud)의 토마스 도넬리 (Thomas Donnelly) 정보책임자는 월스트리트저널과의 인터뷰에서 "규제안이 유럽의 미래 기술에 장기적으로 부정적인 영향을 미칠 것"이라고 지적했다. 또, 데이터혁신센터(CDI)의 벤자민 뮬러(Benjamin Mueller) 선임연구원도 "규제안이 시행되면 유럽에서 AI 기술 사용에 엄청난 비용이 수반될 수 밖에 없으며, 이에 따라 유럽의 AI 기술 개발이 다른 나라들에 뒤쳐질 수 있다"고 경고했다. 이러한 경고를 미리 인식한 EU는 "10억 유로(1조3500억원)를 디지털 기술개발에 투자하겠다"는 계획을 밝히기도 했다.

EU의 AI 규제안은 아래 주소에서 확인 가능하다.
https://digital-strategy.ec.europa.eu/en/library/proposal-regulation-european-approach-artificial-intelligence