전문가들 "핵무기 사용에 인간 통제권 유지해야"..."로봇 보다 핵전쟁이 인류 위협 가능성 높아"
군사 분야 AI 도입 가속화 불구 국제적 규제 체계 미비..."정치적 의지 부족 현실적 문제"
군사 분야 AI 도입 가속화 불구 국제적 규제 체계 미비..."정치적 의지 부족 현실적 문제"

옥스퍼드 대학의 인공지능 윤리연구소 소장인 존 타시울라스 교수는 "AI 분야에서 경쟁이 있을 것이라는 데는 의심의 여지가 없지만, 중요한 협력도 있어야 한다"며 "특히 핵무기와 관련해 AI 사용이 인간의 통제하에 놓이도록 해야 한다"고 강조했다.
타시울라스 교수는 "핵전쟁으로 인류가 전멸하는 것은 로봇에 의한 인류의 전멸보다 훨씬 더 가능성이 높다"고 지적했다.
중국, 미국, 러시아, 영국, 프랑스 등 핵 보유국들을 포함한 많은 국가들이 군사적 용도로 AI를 점점 더 많이 도입하고 있다. 워싱턴의 브루킹스 연구소에 따르면, 미국 국방부의 AI 관련 계약 가치는 2022년 2억 6,100만 달러에서 2023년 6억 7,500만 달러로 급증했다.
AI가 핵 억지력에 도움이 될 수 있다는 견해도 있지만, 이 기술은 군비 통제를 더욱 복잡하게 만들고 불안정 요인이 될 수 있다는 우려가 제기되고 있다.
스톡홀름 국제평화연구소(SIPRI)의 블라디슬라프 체르나브스키흐 연구원은 "AI 기능은 조기 경보, 인텔리전스, 핵 지휘·통제·통신, 전달 체계 등 핵무기 시스템 전반에 걸쳐 사용될 수 있다"고 설명했다.
체르나브스키흐 연구원은 "이러한 시스템에서 AI를 사용하면 억제 관행에 영향을 미치고 전략적 예측 가능성과 안정성을 뒤엎을 수 있다"며 "이는 고의적, 부주의적 또는 우발적인 핵 확대를 통한 핵 충돌 위험이 높아질 수 있음을 의미한다"고 경고했다.
그러나 AI의 핵 사용 문제를 해결하기 위한 세계적 합의는 아직 이루어지지 않고 있다.
중국은 2021년 AI를 군사적으로 적용하는 데 있어 "신중하고 책임감 있는 접근"과 "자제력"을 촉구하는 성명을 발표했다. 백악관도 2023년 "위험과 혜택에 대한 신중한 고려"를 촉구했지만, 이 기술이 분쟁 지역의 민간인을 돕는 데 사용될 수 있다고 언급했다.
난징대학교 국제학대학원 주펑 학장은 "특히 중국, 미국, 유럽 국가들 간 소통 라인을 개방하고 대화를 강화하여 위험을 통제할 수 있는 군사 AI를 위한 글로벌 거버넌스 시스템을 구축하는 것이 중요하다"고 말했다.
중국의 핵 억제 원칙은 선제사용 금지 정책에 기초하고 있지만, 미국과 러시아는 그런 약속을 하지 않고 있다. 주 교수는 "핵 전략에서 AI의 역할은 긴장을 완화하고, 군사적 긴장 고조를 방지하며, 안정을 보장하는 데 초점을 맞춰야 한다"고 강조했다.
체르나브스키흐 연구원은 "군용 AI에서 비롯된 핵 위험을 해결하기 위해 노력하는 것은 핵 충돌의 결과가 얼마나 재앙적일 수 있기 때문에 협력에 대한 강력한 인센티브가 있는 분야"라고 말했다.
중국과 미국은 2023년 11월 캘리포니아에서 열린 시진핑 주석과 바이든 대통령의 정상회담에서 핵무기 사용에 대한 인간의 통제권을 유지하기로 합의한 바 있다.
킹스 칼리지 런던의 니콜라 레버링하우스 선임 강사는 "AI를 포함한 규제되지 않은 공간에서 책임감 있는 행동이 필요하며 커뮤니케이션 채널이 중요하다"면서도 "두꺼운 형태의 규제나 행동 규범이 등장하는 것을 막을 수 있는 정치적 의지나 이해관계에 대해 현실적이 되어야 한다"고 지적했다.
레버링하우스 강사는 시 주석과 바이든 대통령 간의 합의와는 별개로, 유엔 안전보장이사회의 다른 상임이사국인 영국, 프랑스, 러시아도 인간이 의사 결정과 지휘 및 통제를 담당하도록 하는 원칙을 지지하고 있다고 설명했다.
신민철 글로벌이코노믹 기자 shincm@g-enews.com