닫기

글로벌이코노믹

유럽 AI 규제법 핵심은 'AI 기술' 아닌 '사용 방법'

글로벌이코노믹

유럽 AI 규제법 핵심은 'AI 기술' 아닌 '사용 방법'

인공지능 이미지. 사진=로이터이미지 확대보기
인공지능 이미지. 사진=로이터
유럽연합(EU) 이달 AI에 대한 규제법을 도입에 합의한 가운데, EU 내부에서 통일의 기준을 마련하고 AI의 개발과 활용을 촉진하며 사람들의 건강과 안전, 기본적 인권을 지키기 위한 틀을 만들고 있는 것으로 알려졌다.

유럽위원회에서 AI 규제법 팀장을 맡아 법안 초안 작성부터 도맡아 했던 가브리엘레 마츠니는 블룸버그와의 인터뷰를 통해 이러한 법률 개정의 기초가 진행되고 있음을 밝혔다.

해당 법안은 2021년 4월 유럽위원회가 공표하고 올해 6월 유럽의회에서 채택됐으며, 향후 세부사항을 종합해 2025년 후반에서 2026년에 시행될 전망이다. 특징은 AI 위험을 사용법에 따라 4단계 레벨로 나눠 금지와 규제 등 수준별 대책을 제시한다는 점이다.

또한 EU 법률이지만 회원국 이외의 사업자라도 제품이나 서비스 제공처가 EU 내일 경우 규제가 적용된다. 개인정보 보호 등을 규정한 일반 데이터보호규칙(GDPR)과 마찬가지인 것으로 보인다. GDPR은 세계 표준이 되어가고 있으며 AI 규제법도 같은 흐름이 될 수 있어 주목받고 있다.
위반 시 최대 3500만유로, 혹은 전 세계 매출액의 7% 중 높은 쪽의 금액이 제재금으로 부과될 전망이기 때문에 EU에서 AI 관련 사업을 할 수 없게 된다는 지적도 있다.

단, 규제에 대한 기준이 있다. 법안은 AI 기술 자체를 규제하는 것이 아닌 용도별로 리스크의 높낮이를 나눠 사용법에 초점을 맞추고 있다. 이로 인해 개발이나 발전을 방해하지 않고, 기술 진화에 법률이 따라잡지 못하는 사태를 방지하기 위한 목적도 있다.

분류 중 가장 높은 '허용할 수 없는 리스크'는 사람의 인지를 왜곡하는 서브리미널 기술과 공적기관이 다양한 데이터를 모아 개인을 평가하는 '소셜 스코어링' 등이 금지 대상으로 꼽힌다.

두 번째 ‘고위험’은 시험이나 면접의 평가나 과거 데이터로부터 사물을 예측하는 프로파일링이며, 범죄 예측을 실시하는 것 등이 포함된다. 이는 규제 대상이 되며 적절한 데이터 사용·추적이나 감사를 할 수 있도록 기록을 남기는 것 등 제품 측 요건과 AI를 사용하는 사업자 측 의무가 부과될 전망이다.

세 번째 '한정적 리스크'는 AI가 사용되고 있음을 명시할 의무가 정해지며, 가장 낮은 '최소 리스크'에서는 별다른 의무가 없다.

예를 들어 프로파일링 기술에서는 행정기관에 의한 소셜 스코어링은 '허용할 수 없는 리스크'로 금지 대상이 될 수 있다. 반면 같은 행정기관에 의한 AI 이용이라도 아동수당이나 생활보호 등 수급자격 심사와 같은 한정적인 용도로는 요건이나 의무를 지키면 사용할 수 있는 '고위험'으로 분류될 전망이다. 이는 AI 제품이나 서비스에 적합 마크를 붙이는 세계 최초의 시도이기도 하다.

이에 대해 가브리엘레 마츠니는 “국가나 지역에 따라서 개인의 권리를 해치는 기술의 이용도 공공의 안전이나 효율성을 위해서라면 어쩔 수 없다는 생각도 있는 것이 사실이나, 이는 EU의 가치관으로는 허용할 수 없다"라며 ”EU는 개인의 자유와 권리에 무게를 두고 있는 것이 사실“이라고 말했다.

법안의 공동보고관이자 이탈리아 선출 유럽의회 의원 브랜도 베니페이 또한 AI 규제법은 사람이 중심에 있어야 한다는 EU의 사상을 반영하는 것이라고 밝혔다.

그는 “기본적 권리를 지키는 규칙을 갖춘 공평한 경쟁의 장을 확보함과 동시에 소비자나 유저와 사업자 측과 신뢰 관계를 구축해 새로운 발전으로 이어지게 될 것”이라고 말했다.


이용수 글로벌이코노믹 기자 piscrait@g-enews.com