닫기

글로벌이코노믹

[초점] AI 전문가들 “생성형 AI 할루시네이션 오류, 대책 없다”

글로벌이코노믹

[초점] AI 전문가들 “생성형 AI 할루시네이션 오류, 대책 없다”

‘챗GPT 아버지’ 올트먼 “시간 흐르면 개선될 것” 주장
전문가들 "생성형 AI 기술의 태생적 한계" 반박
챗GPT를 개발한 오픈AI의 샘 올트먼 CEO. 사진=로이터이미지 확대보기
챗GPT를 개발한 오픈AI의 샘 올트먼 CEO. 사진=로이터
오픈AI가 개발한 생성형 인공지능(AI) '챗GPT'로 상징되는 AI 기술의 획기적 진화로 인터넷을 능가하는 기술 혁신이 도래했다는 공감대가 이미 널리 형성되고 있다.

그러나 사람의 일자리가 크게 잠식될 것이라는 우려가 확산되는 것과는 별개로 기술적으로 볼 때 현재 목도하고 있는 최첨단 AI가 만능일 것이라는 또는 완전무결할 것이라는 기대는 위험하다는 지적도 나오고 있다.

그 중심에는 이른바 ‘할루시네이션(hallucination)’이 자리 잡고 있다.

할루시네이션은 본래 ‘환각(幻覺)’을 뜻하는 정신의학 용어로 AI가 어떤 이유에서든 잘못된 정보를 생성하는 현상 또는 기술적 오류를 가리킨다. AI가 사실이 아닌 내용을 마치 사실인 것처럼 제시하는 경우, 결과적으로 거짓말을 만들어 내는 경우가 대표적이다. 애초에 오류가 있는 데이터를 학습하거나 학습된 데이터가 편향적이어서 이 현상이 주로 일어나는 것으로 알려졌다.
가공할 만한 연상 능력을 지닌 생성형 AI가 엄청난 규모의 학습 과정을 통해 내놓은 정보의 진위(眞僞)를 사람이 가려내는 일이 매우 어렵기 때문에 할루시네이션 문제는 첨단 AI 기술이 지닌 위험성을 역으로 드러내는 대목이기도 하다.

그렇다면 이처럼 위험한 오류를 안고 있으면서도 눈부신 속도로 사용자 저변이 확대되는 첨단 AI의 할루시네이션 문제를 바로잡는 일은 과연 가능할까.

3일(현지 시간) 미국 경영전문지 포춘에 따르면 관련 전문가들에게 할루시네이션를 바로잡을 방안이 있는지 물은 결과 ‘고칠 수 있는 문제가 아니다’는 방향으로 답이 모이고 있다.

◇올트먼 CEO “할루시네이션 문제, 시간 흐르면서 차츰 개선될 것”

생성형 AI가 만들어 낸 개의 모습. 할루시네이션 오류로 현실에서 있을 수 없는 개의 모습을 생성한 사례다. 사진=패스트컴퍼니이미지 확대보기
생성형 AI가 만들어 낸 개의 모습. 할루시네이션 오류로 현실에서 있을 수 없는 개의 모습을 생성한 사례다. 사진=패스트컴퍼니

‘챗GPT의 아버지’ 샘 올트먼 오픈AI 최고경영자(CEO)는 과연 이 문제를 어떻게 보고 있는지에 먼저 시선이 쏠린다.

올트먼 CEO는 생성형 AI 규제 문제를 비롯한 다양한 문제와 현안에 대해 설명하고 자신의 입장을 피력하기 위해 전 세계를 최근 순방했는데, 인도 델리에 들렀을 때 한 컴퓨팅 전문가로부터 할루시네이션 문제와 관련한 날카로운 질문을 받아야 했다.

인드라프라스타 인도공과대학(IIIT 델리)에서 컴퓨터학과 교수로 있는 전문가가 “챗GPT의 할루시네이션 문제는 아직은 견딜 만한 수준이라고 보지만, 챗GPT가 할루시네이션의 오류 때문에 엉뚱한 레시피를 만들어 낸다면 문제는 매우 심각해질 것”이라면서 어떻게 생각하느냐고 물었기 때문이다.

사람의 식습관과 건강에 직접적으로 영향을 미치는 음식 레시피를 챗GPT가 엉뚱한 내용으로 만들어 낼 가능성을 배제할 수 없는데, 오픈AI에서는 대책이 있느냐는 질문이었다. IIIT 델리는 컴퓨터 과학 분야에 초점을 둔 연구 중심 대학이다.

올트먼의 답변은 구체적이지 못했지만 낙관론에 가깝다. 다만 할루시네이션의 문제가 있다는 것은 공개적으로 인정했다.

그는 “할루시네이션 문제는 시간이 흐르면서 좋은 방향으로 개선될 것이라고 본다”면서 “예컨대 1~2년 정도 후에는 우리가 할루시네이션과 관련한 문제에 대해서는 더 이상 얘기할 일이 없을 것 같다”고 답했다.

올트먼은 “AI는 창의성과 완벽한 정확성 사이에서 균형을 이뤄야 하는 문제가 있다”면서 “앞으로 시간이 흐르면서 사람들이 어느 쪽에 기우는지를 AI가 학습하는 과정을 밟게 될 것”이라면서 이같이 주장했다.

아직은 할루시네이션의 오류가 문제가 되고 있지만 앞으로 AI의 학습량이 늘어나면서 차츰 문제가 개선될 것이라는 낙관적인 전망을 제시한 셈이다.

전문가들 “바로잡을 수 있는 문제 아냐”


그러나 이에 대한 반론도 만만치 않다.

전산언어학 분야의 전문가인 에밀리 벤더 미국 워싱턴대 교수는 포춘과의 인터뷰에서 “할루시네이션 오류는 바로잡을 수 있는 문제가 아니다”라고 반박했다.

그는 “AI 기술 자체와 AI 기술이 실제로 사용되는 분야 사이에 태생적으로 부조화가 존재하기 때문”이라며 이같이 주장했다.

챗GPT 같은 생성형 AI는 애초에 ‘가장 그럴듯한 문장’을 만들어 내는 목적으로 개발된 기술인데, 당초의 목적에서 벗어나 만능인 것처럼 사람들 사이에 받아들여지고 있다는 얘기다.

생성형 AI는 수학적 계산과 통계적 분석을 이용해 맥락에 기반한 적절한 단어와 문장을 검색하고 생성하는 것이 주된 기능이라는 것. 가장 사실일 가능성이 큰 문장을 끊임없이 뱉어내도록 설계돼 있고, 실제로 사람처럼 거의 실시간으로 질문에 대한 최적의 답변을 무작위로 제시하지만 잘 알지 못하는 질문, 즉 학습되지 않은 정보와 관련한 질문을 받으면 학습된 데이터에 기반한 추론을 통해 잘못된 정보도 사실인 것처럼 제공하는 오류를 범한다는 얘기다.

벤더 교수는 “옳든 그르든 상관없이 질문을 받으면 꾸며낸 것이라도 답변을 무조건 제시하는 것이 생성형 AI 기술이 안고 있는 할루시네이션 문제의 핵심”이라고 강조했다.


김현철 글로벌이코노믹 기자 rock@g-enews.com