성명에는 통제할 수 없는 개발 경쟁이 가속화되고 있어 이대로 가다가는 인류의 문명이 붕괴될 수 있다는 위기감이 가득하다. 머스크는 그동안 "AI가 핵무기보다 더 위험하다"고 주장해 왔다. 실제로 오픈AI가 개발한 챗GPT의 무시무시한 확산 속도를 감안하면 지식인들이 경고하는 AI에 의한 인간 세상 종말이 올지도 모른다.
AI디지털정책센터는 GPT-4가 FTC가 정한 'AI 활용 가이드라인'을 충족하지 못한다고 지적했다. 데이터 수집 과정에서 투명성이 부족하고, 정보 제공 과정에서 편견이 포함되지 않도록 하는 공정성이 너무나 부족하다는 주장이다.
챗GPT가 촉발한 생성 AI 붐에 어떤 위협이 도사리고 있는지는 미국의 철학자 존 설이 1980년 고안한 '중국어 방'이라는 가상의 실험에서 힌트를 얻을 수 있다. 우선 방 안에 영어만 할 줄 아는 사람이 들어간다. 그 방에 필담을 할 수 있는 도구와 미리 만들어 놓은 중국어 질문과 질문에 대한 대답 목록을 준비해 둔다. 중국인 심사관이 중국어로 질문을 써서 방 안으로 보내면 방 안의 사람은 준비된 대응표에 따라 중국어로 답변을 써서 밖의 심사관에게 준다.
방 안에 누가 있는지 모르는 중국인이 보면 방 안에 있는 사람은 중국어를 할 줄 아는 것처럼 보인다. 그러나 안에 있는 사람은 실제로는 중국어를 전혀 모르는 사람이고, 중국어 질문을 이해하지 못하고 주어진 표에 따라 대답할 뿐이다. 이로부터 중국어로 질문과 답변을 완벽히 한다고 해도 안에 있는 사람이 중국어를 진짜로 이해하는지 여부를 판단할 수 없다는 결론을 얻는다. 지금 세상을 떠들썩하게 하고 있는 오픈AI의 챗GPT가 수행하는 질문과 답변이 이 '중국어 방'과 다름없다.
챗GPT는 자연어 생성 기술을 이용해 인간과 대화하며 인간의 언어 패턴을 모방한다. 그러나 질문의 의미를 이해하지 못할 뿐만 아니라 답변도 단순히 인간의 대화 패턴을 따라 생성할 뿐이다.
언어학자이자 철학자인 노엄 촘스키는 언어학 교수 이언 로버츠, 인공지능 연구원 제프리 와투멀과 함께 뉴욕타임스에 기고한 에세이에서 인공지능과 챗GPT 같은 지능형 챗봇은 코드를 작성하고 여행을 계획하는 데는 유용할 수 있지만, 인간의 두뇌처럼 뛰어난 독창적이고 사려 깊으며 잠재적으로 논쟁의 여지가 있는 토론은 절대로 할 수 없을 것이라고 주장했다.
촘스키는 AI가 도덕성과 합리적 사고가 부족하기 때문에 '악의 평범성', 즉 현실과 진실에 무관심하고 프로그래밍에 명시된 동작을 수행하는 데만 급급할 수 있다고 지적했다. 도덕성과 합리적 사고를 바탕으로 하는 판단력이 부족한 AI에게 인류의 미래를 맡긴다는 건 너무나 위험하다.
노정용 국장 대우