닛케이(日本經濟新聞) 등 외신들에 따르면 오픈AI는 앞으로 4년간 자사가 가진 20%의 컴퓨터 리소스를 보충할 방침이다. 오픈AI의 이 같은 조치는 생성형 AI가 초래할 미지의 위험을 방지하기 위한 목적이다.
예를 들면 AI의 안전성을 평가하기 위해 별도의 감시용 AI를 설치하는 것을 예상할 수 있다. 문제가 있는 동작과 조정 불량을 자동으로 검출할 수 있도록 한다.
AI의 능력을 2045년까지 인간의 지능을 넘어선 ‘싱귤래리티(기술적 특이점)’을 맞이할 것이라는 예측이 있다. 오픈AI는 이 같은 인간보다 뛰어난 AI를 ‘슈퍼인텔리전스’라 부르며 제대로 통제해가는 것이 현대의 가장 중요한 미해결인 기술적 문제 중 하나라고 지적하고 있다.
오픈AI는 앞으로 구체적인 계획과 연구 성과를 널리 공개해 자사 이외의 생성형 AI에 대한 안전성 확보에서 역할을 할 수 있게 될 것이라고 설명했다.
오픈AI가 2022년 11월에 챗GPT를 공개하자 전 세계에서 반향을 불러일으킨 한편으로 개인정보 취급 문제와 가짜 정보 확산, 사이버공격에 대한 전용 등 부정적 측면에 대한 우려가 확산됐다. 이탈리아가 일부 챗GPT의 이용을 금지한데다 유럽은 AI의 포괄적인 규제를 추진하고 있다.
샘 올트먼 오픈AI 최고경영자(CEO)는 미국 의회에 출석해 AI의 규제 도입을 촉구했을 뿐만 아니라 세계 각지를 방문해 이해관계자와 논의를 거듭해왔다.
AI의 안전성 확보를 위한 대책도 잇달아 발표해 우려를 불식하기 위한 대응을 서두르고 있다.
박경희 글로벌이코노믹 기자 hjcho1017@g-enews.com