닫기

글로벌이코노믹

네이버 'AI 안전 체계' 구축…통제력 상실 위험 등 방지

공유
0

네이버 'AI 안전 체계' 구축…통제력 상실 위험 등 방지

네이버가 안전한 AI 사용을 위한 대응 체계를 구축했다. 사진=네이버이미지 확대보기
네이버가 안전한 AI 사용을 위한 대응 체계를 구축했다. 사진=네이버
네이버가 AI의 통제력 상실과 악용을 방지하고 위험을 완화하기 위한 대응 체계를 구축했다고 17일 밝혔다. 자체 기술 채널인 '채널 테크'를 통해 '네이버 ASF(AI Safety Framework)'를 공개했다. 네이버 ASF는 네이버가 AI 시스템을 개발하고 배포하는 과정의 모든 단계에서 AI의 잠재적 위험을 인식·평가·관리하기 위한 대응 체계다.

네이버 ASF는 AI 시스템이 초래할 수 있는 위험을 각각 '통제력 상실 위험'과 '악용 위험'으로 정의하고, 이에 대응하기 위한 방법을 설계한 것이 특징이다. 먼저 인간이 AI 시스템에 영향을 미치지 못하게 되는 '통제력 상실 위험'을 완화하기 위해, 'AI 위험 평가 스케일'을 통해 AI 시스템의 위험을 주기적으로 평가하고 관리한다.
AI 시스템의 또 다른 잠재적 위험인 '악용'의 가능성에는 'AI 위험 평가 매트릭스'를 적용해 대응한다. AI 위험 평가 매트릭스는 AI 시스템의 사용 목적과 안전 조치의 필요성 정도에 따라 각각 다른 방법으로 위험을 관리한다.

예를 들어, 생화학 물질 개발과 같이 특수한 목적으로 사용되는 AI 시스템은 특별한 자격이 있는 사용자에게만 제공해 위험을 완화한다. 사용 목적과 관계 없이 안전 조치의 필요성이 높은 AI 시스템이라면 추가적인 기술적·정책적 안전 조치를 통해 위험이 완화될 때까지는 배포하지 않는 방법 등이다.

네이버는 네이버 ASF를 통해 문화적 다양성을 반영한 AI 안전성 체계를 발전시켜나간다는 계획이다. 한국 외 다른 지역의 정부 및 기업과 소버린(Sovereign) AI를 공동 개발하며 특정 문화권에서 성립될 수 있는 AI 시스템의 위험을 식별하고, 위험의 정도를 측정하는 벤치마크(benchmark)도 문화권의 특성을 반영해 고도화 할 예정이다.

또한 네이버 ASF를 활용한 위험 평과 결과나 실천 경험을 리포트 등의 형태로 외부에 공개하는 방안을 고민 중인 것으로 알려졌다. 지난 4월, 하이퍼클로바X 테크니컬 리포트를 통해 하이퍼클로바X의 AI 안전성 결과 평가를 공개한 바 있다. 이와 같이 네이버는 네이버 ASF의 지속적인 개선과 안전한 AI 생태계 조성을 위해 외부와 공유하는 노력을 계속할 계획이라고 전했다.

최수연 네이버 대표이사는 "글로벌 시장에서도 소버린 AI를 개발하면서 네이버 ASF를 지속적으로 개선해나갈 계획이고, 이를 통해 다양한 지역의 문화와 가치를 반영하는 다수의 AI 모델이 안전하게 사용되며 공존하는 지속 가능한 AI 생태계에 네이버가 적극적으로 기여할 것"이라고 말했다.


편슬기 글로벌이코노믹 기자 pyeonhaeyo@g-enews.com