닫기

글로벌이코노믹

딥시크, AI 챗봇 유해성 논란에 데이터 유출 사고까지 겹쳐

글로벌이코노믹

딥시크, AI 챗봇 유해성 논란에 데이터 유출 사고까지 겹쳐

유해 콘텐츠 차단 실패...100만여 건 개인정보 노출도
딥시크 로고, 키보드 및 로봇 손이 보인다. 사진=로이터이미지 확대보기
딥시크 로고, 키보드 및 로봇 손이 보인다. 사진=로이터

중국의 인공지능(AI) 스타트업 딥시크(DeepSeek)가 개발한 챗봇 '딥시크 R1'이 유해성 논란에 휩싸인 데 이어 데이터 유출 사고까지 발생했다고 스트레이트 애로 뉴스와 인터레스팅 엔지니어링이 2일(현지시각) 보도했다.

시스코(Cisco) 연구팀과 펜실베이니아대학교 공동연구진의 안전성 테스트 결과, 딥시크 R1은 AI 모델이 의도하지 않은 유해한 답변을 하도록 만드는 50개의 테스트 시도를 모두 차단하지 못한 것으로 나타났다. 연구팀은 "딥시크 R1은 100%의 공격 성공률을 보였으며, 이는 단 하나의 유해 프롬프트도 차단하지 못했음을 의미한다"고 밝혔다.

연구진은 AI 모델의 취약점을 식별하기 위해 '알고리즘 감옥 탈출(algorithmic jailbreaking)'이라는 기술을 사용했다. 이는 AI 시스템의 안전 장치를 우회하여 유해한 콘텐츠를 생성하도록 하는 특수한 입력 방식을 의미한다. 연구팀은 "이번 테스트에 사용된 함벤치(HarmBench) 데이터 세트는 사이버 범죄, 허위정보, 불법 활동 등 7가지 유해 범주에 걸쳐 총 400개의 위험 행동을 포함하고 있다"고 설명했다.

다른 주요 AI 모델과의 비교 테스트에서도 딥시크 R1의 취약성이 두드러졌다. 시스코 연구팀의 발표에 따르면, 야마(Llama) 3.1-405B는 96%, GPT 4o는 86%, 제미나이(Gemini) 1.5 프로는 64%, 클로드(Claude) 3.5 소네트는 36%, O1 미리보기는 26%의 공격 성공률을 보였다. 퍼센티지가 낮을수록 더 안전하다.

시스코 연구팀은 "딥시크가 채택한 저비용 훈련 방식인 '강화 학습'과 '증류기법'이 모델 안전 메커니즘을 약화시킨 주요 원인"이라고 1일 분석 보고서를 통해 밝혔다.

보안 결함과 더불어 딥시크는 100만 건 이상의 개인정보가 포함된 데이터베이스 유출 사고도 발생했다. 위즈 리서치(Wiz Research)의 사이버보안팀은 "1월 29일 인증 절차 없이 접근 가능한 상태로 방치된 클릭하우스(ClickHouse) 데이터베이스를 발견했다"고 설명했다. 유출된 정보에는 개인 대화 기록, 시스템 운영 데이터, API 인증 키, 내부 운영 기록 등이 포함된 것으로 확인됐다.

딥시크의 대변인은 30일 성명을 통해 "데이터베이스 유출 사실을 통보받은 즉시 보안 설정을 강화했으며, 영향을 받은 사용자들에게 개별 통지를 진행하고 있다"고 밝혔다.

골드만삭스의 사이버보안 분석가들은 "이번 유출 사고로 유럽 사용자의 데이터가 포함된 경우 일반데이터보호법(GDPR)에 따라, 미국 소비자 데이터가 포함된 경우 캘리포니아소비자개인정보보호법(CCPA)에 따라 딥시크가 규제 당국의 조사를 받을 수 있다"고 지적했다.

딥시크 R1의 개발 비용을 둘러싼 논란도 제기됐다. 독립 연구기관 세미어낼리시스(SemiAnalysis)는 "딥시크가 주장하는 600만 달러(약 88억 원)보다 훨씬 높은 13억 달러(약 1조9092억 원)의 비용이 실제로 투입됐을 것"이라고 30일 발표했다.

여기에 미국 인공지능 기업 오픈AI는 25일 성명을 통해 "딥시크가 자사의 독점 모델 출력을 무단으로 사용했다"며 법적 대응을 검토하고 있다고 밝혔다. 반면 텍사스대학교 AI 연구센터는 "딥시크의 핵심 기술을 약 30달러(약 4만4000원)의 비용으로 재현하는 데 성공했다"고 1일 발표했다.

시스코의 AI 보안연구소는 "비용 효율성을 추구하는 과정에서 안전성이 희생된 사례"라며 "AI 개발에서 보안과 윤리적 기준 준수는 선택이 아닌 필수"라고 강조했다.


박정한 글로벌이코노믹 기자 park@g-enews.com