닫기

글로벌이코노믹

[기자수첩] 국내도 확산 중인 생성형 AI, 제대로 알고 써야

글로벌이코노믹

오피니언

공유
0

[기자수첩] 국내도 확산 중인 생성형 AI, 제대로 알고 써야

최용석 글로벌이코노믹 기자이미지 확대보기
최용석 글로벌이코노믹 기자
오픈AI의 챗GPT가 큰 성공을 거둔 이후 생성형 인공지능(AI)과 관련된 기술이 산업 전반을 휩쓸고 있다.

단순한 명령만 이해하고 정해진 기능만 수행하는 기존 AI 서비스와 달리, 생성형 AI는 실제 사람처럼 복잡한 명령도 인식해 대응할 수 있고 제법 자연스러운 대화도 가능하다.
특히 몇 가지 키워드만 가지고 딱 들어맞는 문장이나 자료를 금방금방 제시하고, 주제에 어울리는 사진이나 이미지를 몇 초 만에 뚝딱 만들어내기도 한다. 단순 검색엔진처럼 검색한 주제의 정보를 제목만 표시하고 마는 게 아니라 핵심 내용까지 보기 쉽고 깔끔하게 정리해주는 재주도 부린다.

국내에도 네이버의 ‘하이퍼클로바 X(HyperCLOVA X)’를 시작으로 실정에 맞는 토종 생성형 AI 모델이 하나둘씩 등장하기 시작했다. 기업용 맞춤형 AI 모델이 본격적으로 도입되기 시작하면 그 적용 범위는 각종 서비스 전반으로 빠르게 확산될 전망이다.
그런데 생성형 AI 서비스를 마치 램프의 거인처럼 무슨 소원이든 척척 들어주는 만능의 도구로 생각하는 이들이 적지 않다. 사람처럼 자연스러운 답변이 나오니 무심코 실제 사람처럼 스스로 판단하고, 항상 정확한 답만 주는 것으로 오해하고 있는 것. 챗GPT의 답변을 그대로 복사해 학교 과제 및 논문으로 제출하거나, 법원의 판결 자료 등으로 사용하는 것도 그런 잘못된 오해의 결과다.

사람은 질문을 받으면 자신이 아는 정보 내에서 최대한 정답이라 생각되는 것을 선택해 답변한다. 나아가 질문하는 사람의 의도를 추측해 자신만의 의견을 더하기도 한다.

생성형 AI는 과거 데이터에서 이용자의 질문에 해당하는 키워드와 정보를 찾아 자연스럽게 보이도록 문장으로 짜깁기해 표시할 뿐이다. 여기에 스스로 ‘생각’하고 ‘판단’하는 과정은 전혀 없다. 자신이 제시한 답이 정답인지 스스로 판단하지도 못한다. 때로는 일관성 없는 여러 개의 답변을 뒤죽박죽 제시하기도 한다.

또한, 기존 AI 기술과 마찬가지로 사회 통념적이나 윤리적인 문제에 대해서도 스스로 판단할 수 없다. 만약 AI 모델의 학습에 처음부터 잘못된 데이터나 특정 사상, 편견, 차별 등이 담긴 데이터가 사용됐을 경우, 답변으로 나오는 결과물도 비슷하게 치우칠 수 있다.

즉, 생성형 AI의 결과물을 있는 그대로 신뢰하거나, 100% 정답으로 믿어서는 안 된다는 얘기다. 별생각 없이 생성형 AI의 결과물을 그대로 사용하면 의도치 않게 자신의 본래 의견과 상반되거나 소속 집단 및 기업의 방침과 상충되는 답변이 나올 수 있다. 반드시 사용자의 최종 확인과 검토가 필요하다.

생성형 AI를 창작 목적으로 활용할 때도 주의가 필요하다. 생성형 AI가 만들어낸 문장이나 원고, 논문 등은 이미 인터넷상에 돌고 있는 다른 사람의 그것을 그대로 표절한 것일 수 있다. 사진이나 이미지 역시 전문 작가의 작품을 베끼거나 도용해 생성한 것일지도 모른다.

만약 기업에서 상업적인 용도로 생성형 AI의 결과물을 잘못 사용하다가는 자칫 표절 시비나 저작권법 위반 등에 걸릴 수 있다. 실제로 챗GPT의 개발사 오픈AI는 이미 미국에서 다수의 작가와 저자, 저작권 소유자 등으로부터 수많은 소송에 직면한 상태다.

생성형 AI 서비스를 가장 잘 활용하는 방법은 번거롭고 귀찮은 자료 조사 등의 작업은 AI에 맡기되, AI가 제시한 결과를 그대로 사용하지 말고 참고만 하는 것이다. 그리고 그 정보를 바탕으로 사용자 스스로 판단하고 정리해 최종 결과물을 충실하고 풍성하게 만드는 것이 이상적이다. 생성형 AI가 개인 및 기업의 생산성을 높일 수 있는 비결도 여기서 나온다.

다시 말하지만 생성형 AI는 말 잘 듣고 시키는 일을 잘하는 똑똑한 비서일 뿐이지, 뭐든 다 들어주는 램프의 거인이 아니다. 향후 생성형 AI를 이용해 생산성을 극대화하려는 개인이나 기업이라면 이 점을 간과해서는 안 될 것이다.


최용석 글로벌이코노믹 기자 rpch@g-enews.com