30일(현지 시각) 로이터에 따르면 챗GPT의 개발사 오픈AI는 이날 성명을 내고 자사의 AI 모델을 이용해 인터넷상에서 ‘기만적인 활동(deceptive activity)’을 시도한 5곳의 이용자를 확인했으며, 이를 차단했다고 밝혔다.
오픈AI는 “위협 행위자들(threat actors)이 지난 3개월 동안 우리의 AI 모델을 사용해 짧은 댓글과 다양한 언어로 된 긴 기사를 만들고, 가짜 소셜미디어(SNS) 계정을 만들었다”고 설명했다.
또한, 오픈AI는 이들 조직이 어떤 방식으로 챗GPT를 활용했는지에 대해서도 구체적으로 소개했다.
중국은 중국어와 한국어, 일본어, 영어로 게시물을 작성하기 위해 챗GPT를 사용했다. 특히 지난해 하반기 일본의 후쿠시마 오염수 방출과 관련된 기사를 한국어를 비롯해 영어와 일본어, 중국어, 러시아어로 번역하고 게재함으로써 일본을 비난하는 여론을 형성하는 데 이용한 것으로 나타났다.
러시아는 미국이 우크라이나를 지원해서는 안 된다고 주장하는 게시물과 댓글 생성에 챗GPT를 이용했다.
이란은 사이트에 게시한 기사를 챗GPT로 작성했으며, 이스라엘 정치 캠페인 기업은 미국과 캐나다인들을 겨냥해 가자 전쟁에 대한 친이스라엘 게시물을 생성하는 데 오픈AI 기술을 사용한 것으로 드러났다.
이미 글로벌 주요 빅테크 기업들은 세계 각지의 지정학적 위기와 더불어, 오는 11월 미국 대선을 앞두고 AI를 이용한 각종 가짜뉴스 등의 등장을 예고하고 이에 대한 적극적인 대응에 나서고 있다.
앞서 페이스북은 이스라엘을 옹호하고 미 대학가의 반유대주의 시위 비판 글을 유포한 이스라엘 디지털 마케팅회사 스토익(STOIC)의 가짜 계정 수백 개를 차단한 바 있다.
최용석 글로벌이코노믹 기자 rpch@g-enews.com