닫기

글로벌이코노믹

스포트라이트 받는 AI 산업, ‘그림자’도 길어진다

글로벌이코노믹

글로벌비즈

공유
1

스포트라이트 받는 AI 산업, ‘그림자’도 길어진다

챗 GPT의 작동 화면과 이를 개발한 오픈 AI의 로고. 사진=로이터이미지 확대보기
챗 GPT의 작동 화면과 이를 개발한 오픈 AI의 로고. 사진=로이터
인공지능(AI)은 요즘 가장 잘나가는 산업 분야 중 하나다. 특히 ‘챗GPT’를 시작으로 사람처럼 자연스러운 결과를 스스로 만들어 내는 ‘생성형 AI’의 등장은 다른 산업 분야에서도 AI 기술 도입을 심각하게 검토할 정도로 산업계 전반에 큰 파문을 일으켰다.

AI 기술이 스포트라이트를 받으면서 관련 산업도 혜택을 누리고 있다. AI용 GPU(그래픽 처리 장치) 전문기업 엔비디아는 올해 상반기에만 주가가 두 배로 껑충 뛰면서 반도체 기업 최초로 시가총액 1조 달러를 가볍게 돌파했다.
마이크로소프트(MS), 아마존웹서비스(AWS), 구글 등 클라우드 기업들은 방대한 규모의 자체 데이터센터로 독자적인 AI를 직접 개발하는 동시에, 남는 GPU 컴퓨팅 여력을 다른 기업에 클라우드 서비스로 제공하며 짭짤한 이익을 거두는 중이다.

반도체 업계도 호황이다. 인텔, AMD, ARM 등 전통의 반도체 기업들은 물론, 다수의 스타트업들이 AI칩 시장에 뛰어들어 ‘포스트 엔비디아’의 자리를 노리고 있다. 이들의 주문을 받아 반도체를 위탁생산하는 TSMC 같은 파운드리들도 급증하는 수요에 대응하기 위해 세계 곳곳에 공장을 증설하고 있다.
AI 산업이 기술 분야는 물론 산업, 경제 전반에 영향을 끼치며 스포트라이트를 독차지하고 있지만, 한편으로 지금껏 AI 업계가 무시하거나 외면했던 각종 부정적 요인이 한꺼번에 터지면서 AI 산업의 발목을 잡는 모양새다.

가장 큰 문제는 생성형 AI가 대두하며 단숨에 수면 위로 떠오른 ‘데이터의 권리’ 문제다.

기존 AI는 각 분야에서 축적한 방대한 데이터를 통계적인 방식으로 접근해 가장 확률이 높은 결과를 찾는 방식으로 작동한다. 이때 데이터는 가치가 작고 무작위적인 데이터가 대부분이다.

반면, 생성형 AI는 이미 존재하는 책이나 원고, 논문, 그림이나 사진 작품, 영상이나 음악 등 스스로 가치가 있고 그에 따른 권리가 존재하는 데이터에서 이용자의 질문에 가장 부합하는 부분을 짜깁기해 제시한다. 그 과정에서 데이터 소유자와 저작권자의 허가는 받지 않는다. 즉, 무단 도용이나 다름없는 형태로 작동하는 셈이다.

실제로, 생성형 AI를 이용해 만든 장문의 원고나 논문, 책은 물론, 완성된 이미지와 영상 등의 결과물이 대량으로 돌기 시작하면서 이전에 사람이 창작한 작품들과의 유사성이 속속 발견되고 있다. 이에 수많은 창작자가 AI가 자신들의 허가 없이 결과물을 도용하는 것을 비판하고, 온라인에 공개된 자신들의 작품을 비공개로 돌리는 중이다.

인사이더 등 외신에 따르면 챗GPT의 개발사 오픈AI는 이미 미국에서만 다수의 작가와 아티스트, 저작권자들로부터 창작물과 저서, 콘텐츠 등의 무단 사용에 대한 각종 소송과 보상 요구에 직면했다. 오픈AI는 뒤늦게야 자사 AI가 데이터를 무단으로 수집하는 것을 막는 방법을 공개했지만, 판결 및 보상 요구에 대한 면피성 조치에 불과하다며 각계로부터 질타받고 있다.

구글도 지난 9일 데이터 수집에 대해 저작권자가 미리 거부 의사를 밝히지 않으면 정보 수집·활용에 동의한 것으로 간주하는 ‘옵트아웃(Opt-out, 사후 거부)’ 방식의 저작권법을 도입해야 한다고 호주 규제 당국에 제안하면서 구설에 올랐다. 이는 굴지의 IT 대기업이 인터넷에 올려진 데이터를 정당한 비용 없이 AI 개발에 맘껏 쓰겠다고 선언한 것이어서 더더욱 지탄을 받았다.

또 하나의 커다란 문제는 AI 업계의 오랜 숙제 중 하나인 ‘데이터의 오염 및 편향성’이다. 사람처럼 자의적으로 옳고 그름을 판단할 수 없는 AI는 사용한 데이터의 내용이나 사용자가 입력한 새로운 정보에 따라 틀린 정보를 옳은 것으로 인식할 수도 있고, 특정 사상이나 정치적 견해 등에 경도되어 치우칠 수 있다. 이는 AI의 정확성과 신뢰성을 떨어뜨리는 심각한 요소다.

특히 생성형 AI 시대에 접어들면서 사용자가 AI의 답변을 의심하지 않고 맹신하는 ‘AI 의존도’도 급증하는 추세다. 이는 다시 AI가 잘못된 정보를 수집해 ‘가짜 정보’를 재생산하는 악순환을 야기한다.

이미 업계에서는 AI의 허점을 이용, 특정 질문에 엉뚱한 답변을 내놓도록 유도하거나 선거 등에서 특정 정당, 특정 후보 등에게 유리한 답변만 제시하는 여론몰이용으로 AI를 악용하는 등의 사례가 꾸준히 보고되고 있다. 또 해외 유수 대학들이 공동으로 진행한 최근 연구에 따르면, 챗GPT만 하더라도 출시 시기 및 AI 엔진의 버전에 따라 정치적인 성향이 모두 다른 것으로 나타났다.

신뢰성과 정확성이 의심받을수록 생성형 AI 산업의 성장이 위축되고 둔화할 가능성도 커진다. 생성형 AI를 다루는 기업들에 더욱 엄격한 윤리성과 도덕성을 요구하는 것도 그 때문이다.

그 외에도 AI 반도체 시장의 엔비디아 독점 문제, 중국을 중심으로 확대 중인 AI 반도체 사재기와 그에 따른 공급 부족 우려 등 다양한 문제가 생성형 AI 산업의 ‘그림자’로 떠오르고 있다. 앞으로의 생성형 AI가 가져오는 경제적 효과와 발전 가능성 및 미래를 위해서라도 AI 산업의 부정적인 이면에 뒷짐 지고 방관만 해서는 안 된다.


최용석 글로벌이코노믹 기자 rpch@g-enews.com