닫기

글로벌이코노믹

"대화형 AI, 범죄에 악용될 수도…대책 마련 필요"

글로벌이코노믹

"대화형 AI, 범죄에 악용될 수도…대책 마련 필요"

2023 국가정보보호 백서 표지이미지 확대보기
2023 국가정보보호 백서 표지
최근 인기를 끌고 있는 대화형 AI가 스팸 등 범죄에 악용될 가능성이 제기됐다.

18일 과학기술정보통신부와 국가정보원 등이 발간한 '2023 국가 정보보호 백서'에 따르면 대규모 언어 모델에 기반한 대화형 AI 서비스는 자연어 처리와 생성 분야에서 광범위하게 사용되지만, 동시에 사이버 범죄와 같은 불법적 목적으로 사용될 가능성이 있다.

대화형 AI 모델의 경우 사람처럼 글을 읽고 응답할 수 있어 스팸 메시지나 사기 문자 등을 생성하는 데 이용될 가능성도 있기 때문이다.

백서는 텍스트를 분석하고 생성할 수 있기 때문에 가짜 뉴스 등으로 사람들을 교란하는 데 활용될 수 있으며, 개인 정보를 추출·수집해 악의적인 목적으로 사용될 수 있다고 우려했다.
그러면서 백서는 "AI 시스템의 악의적 활용이나 개인 정보 유출과 같은 사이버 위협을 방지하기 위해서는 윤리적이고 안전하게 AI 기술을 개발하고 활용하는 것이 중요하며, 이를 위한 정책·법률·교육 등의 대책 마련이 필요하다"고 지적했다.

이어 "국가 차원에서 AI 기술 개발과 적용에 대한 법적 규제와 지침 등을 마련하여야 하며, 개인 정보 보호와 같은 사용자 보호에 대한 법적 책임과 권리를 강화할 뿐 아니라 교육적 대책도 필요하다"고 제언했다.

아울러 "대화형 AI 서비스의 사용자는 이러한 위협에 대하여 인식하고, 언어 모델을 적절하게 사용하는 방법을 배워야 한다"고 강조했다.


정준범 글로벌이코노믹 기자 jjbkey@g-enews.com

[알림] 본 기사는 투자판단의 참고용이며, 이를 근거로 한 투자손실에 대한 책임은 없습니다.