이날 로이터통신 등 외신들에 따르면 이들은 AI가 안전성에 관한 공통규범을 확립할 필요가 있다면서 이같이 촉구했다.
공개서한은 미국 보스턴소재 비영리단체 ‘퓨처 오브 라이프 인스티튜트(FLI)’가 발표했다. FLI는 고 스티븐 호킹, 영국의 천문학자인 마틴 리스 등이 참여하는 과학자 및 기술자 그룹이다.
이들 독립된 지식인들이 첨단 AI개발의 안전성에 관한 공통규범을 제정하고 실행하며 검증할 때까지 AI개발을 중단하도록 촉구했다. 이들은 서한에서 “강력한 AI시스템은 바람직한 효과가 있고 그 리스크가 관리가능하다고 확신할 수 있을 경우에만 개발되어야한다”고 지적했다.
서한은 인간과 경쟁하는 AI시스템이 경제적‧정치적인 혼란이라는 형태로 사회와 인류문명에 초래할 수 있는 리스크를 상세히 기술하고 개발자에 대해 거버넌스(통치)담당 당국자와 규제당국과 협력하도록 요청했다.
FLI 홍보담당은 오픈AI의 삼 올트먼 CEO는 서한에 서명하지 않았다.
박경희 글로벌이코노믹 기자 hjcho1017@g-enews.com