18일 과학기술정보통신부와 국가정보원 등이 발간한 '2023 국가 정보보호 백서'에 따르면 대규모 언어 모델에 기반한 대화형 AI 서비스는 자연어 처리와 생성 분야에서 광범위하게 사용되지만, 동시에 사이버 범죄와 같은 불법적 목적으로 사용될 가능성이 있다.
대화형 AI 모델의 경우 사람처럼 글을 읽고 응답할 수 있어 스팸 메시지나 사기 문자 등을 생성하는 데 이용될 가능성도 있기 때문이다.
백서는 텍스트를 분석하고 생성할 수 있기 때문에 가짜 뉴스 등으로 사람들을 교란하는 데 활용될 수 있으며, 개인 정보를 추출·수집해 악의적인 목적으로 사용될 수 있다고 우려했다.
이어 "국가 차원에서 AI 기술 개발과 적용에 대한 법적 규제와 지침 등을 마련하여야 하며, 개인 정보 보호와 같은 사용자 보호에 대한 법적 책임과 권리를 강화할 뿐 아니라 교육적 대책도 필요하다"고 제언했다.
아울러 "대화형 AI 서비스의 사용자는 이러한 위협에 대하여 인식하고, 언어 모델을 적절하게 사용하는 방법을 배워야 한다"고 강조했다.
정준범 글로벌이코노믹 기자 jjbkey@g-enews.com
[알림] 본 기사는 투자판단의 참고용이며, 이를 근거로 한 투자손실에 대한 책임은 없습니다.