인기검색어 : 자유칼럼, 에세이
> 연재칼럼 | 김수종 2분산책
     
A.I. 시대에 산다는 것
김수종 2023년 03월 16일 (목) 00:31:39

내가 아는 미국인 론작은 뉴욕과 제주도를 왔다갔다하며 삽니다. 그의 아내 바버라가 국제학교 교사이기 때문입니다. 론작은 가끔 카톡으로 "잡담하자"(Let's chat)고 문자를 보내옵니다. 그는 한글을 모르지만, 서툰 문법으로 영어 단어를 나열해도 내 의도를 잘 알아 먹습니다.     

얼마 전 그가 뉴욕에서 안부를 묻는 카톡을 보내왔습니다. 내가 쓴 칼럼을 읽고 반가웠다는 문자였습니다. 무슨 얘기냐고 되물었더니 긴 영어 글을 보냈습니다. 내가 신문에 기고한 칼럼을 영어로 번역한 것이었습니다. 그는 구글 번역기로 내 글을 읽는다고 합니다. 나는 내 글의 영어 번역본을 보고 놀랐습니다. 번역이 그럴듯했습니다. 그런데 한 구절을 보고 웃음이 터졌습니다. 

내 칼럼은 지난 1월 윤석열 대통령의 아랍에미리트 방문을 계기로 제2차 중동 붐이 기대된다는 내용인데, 1980년대 초 바레인 공항에서 직접 보았던 중동의 한국 노동자들의 모습이 한 구절 담겨 있었습니다. 노동자들이 태극마크가 새겨진 대한항공 비행기를 알아보고 러닝셔츠를 벗어 흔들며 향수를 달래는 모습을 묘사했는데, 바로 그 부분에서 오역이 나왔습니다.  

원래 한글 구절은 "태극마크를 단 비행기를 보고 가슴에 묻어두었던 향수를 쏟아내고 있는 모습이었다"인데, 번역 문장은 "It was a look of pouring out the perfume that buried in the heart after seeing the plane with the Taegeuk mark on it"으로 되어 있었습니다. 내가 말한 향수(鄕愁)는 고향을 그리워하는 마음인데 구글이 찾아낸 단어는 몸에 뿌리는 향수(香水)였던 겁니다. 

챗GPT가 온통 세상의 화제 중심으로 떠오를 때여서 문득 이런 상상이 머리에 떠올랐습니다. "내 칼럼을 챗GPT에게 번역하라고 했다면 고향을 그리워하는 향수와 몸의 악취를 제거하기 위해 뿌리는 향수를 잘 구별하지 않을까."  

요즘 사람들이 모였다 하면 챗GPT 이야기 꽃이 핍니다. 7년 전 바둑 인공지능 알파고가 한국의 바둑 천재 이세돌의 무릎을 꿇게 했을 때도 인공지능이 세계적 화제가 되었는데, 그때 알파고가 1차쇼크였다면 이번 챗GPT는 2차쇼크라 할 만합니다. 챗GPT 쇼크의 파장이 훨씬 크고 길 것 같습니다. 모든 직업에 종사하는 사람들이 기대와 우려를 합니다.  

챗GPT를 사용해 본 사람들의 말을 종합하면 논문 같은 긴 글을 주고 일정한 분량으로 줄이라고 하면 순식간에 요약해 낸다고 합니다. 어떤 주제와 조건을 달아 에세이를 쓰라고 하면 챗GPT는 문장체계를 어엿이 갖춘 글을 만들어냅니다. 듣고 말하고 읽고 쓰는 것은 인간의 소통수단입니다. 그중에서도 글쓰기는 가장 창의적이고 정교한 두뇌활동입니다. 이 일을 인공지능이 맡아 해버린다면 인간은 어떻게 될까라고 생각해 봅니다. 

옛날에 큰 회사 CEO였던 지인이 새로운 섬유의류 제품 제조 프로젝트를 진행 중인데 챗GPT에게 미중 갈등에 따른 공급망의 변화, 시장별 판매전망, ESG경영에 따른 시장환경 을 물어보자 수초 만에 각 질문에 대답하는데 매우 합리적인 보고서를 내놓아서 놀랐다고 합니다. 여러 질문을 종합해서 결론을 내달라고 하자 A-4 용지 서너 장 분량으로 깔끔하게 보고서를 정리해 놓았는데 평소 기획 사원 수명이 며칠 걸릴 일을 몇 분 만에 했다고 합니다. 든든한 비서가 생긴 기분이라는 겁니다.  이런 수준이라면 장차 어느 회사 프로젝트를 맡은 사원들이 보고서 작성 명령을 받았을 때 어떤 반응을 보일지 짐작해 볼 수 있습니다.  

더 큰 문제는 교육현장에서 일어날 일들입니다. 아마 대학 교수들이 바짝 긴장하고 있을 거라 생각됩니다. 논문형 시험이나 기말 리포트 과제를 내면 학생들이 챗GPT를 돌려 텍스트(글)을 생성해서 제출하는 일이 흔하게 될지 모릅니다. 성적을 평가하기 위해 교수는 인공지능이 쓴 글과 아닌 글을 구별해내야 할 것입니다. 제출한 과제를 갖고 학생과 대면하여 정말 글 내용을 학생이 알고 있는지 출처가 무엇인지 확인하는 고통스런 작업을 해야 할지 모릅니다.  

미국인 론작은 교육자인 아내에게 들었다며 미국인 교사들이 일자리를 걱정한다고 말했습니다. 장기적으로 볼 때 인공지능이 교사직을 대체하지 않겠느냐는 것입니다. 학생의 에세이를 평가할 때는 시험답안을 손글씨로 쓰게 하는 방안이 거론되고 있다고 합니다.  

챗GPT의 언어학습모델(LLM)은 마치 인간의 신경망이 두뇌 속의 정보를 분석해내는 것처럼 인터넷에 떠 있는 수많은 디지털 텍스트를 분석해서 학습하고 수억 개의 패턴을 결합하여 새로운 텍스트(글)를 작성하기 때문에 인터넷 속 문장의 단어 하나하나를 그대로 반복하지 않고 나름의 새로운 글을 작성한다고 합니다. 또 LLM 모델은 인간의 두뇌 속에 저장된 것보다 훨씬 많은 데이터를 배우기 때문에 챗GPT를 디자인한 AI 전문가도 예상하지 못했던 글도 생성하게 된다고 하네요. 

바로 이런 맥락에서 AI가 괴물로 변할 수 있는 문제점이 생길 수 있다는 게 전문가들의 지적입니다. 인터넷에 떠 있는 거짓 정보, 편향된 정보, 해로운 정보, 오래되어 틀린 정보까지 포함해서 디지털 텍스트를 분석하고 학습하기 때문에, 챗GPT가 내놓는 텍스트가 잘못된 정보나 편향된 시각을 드러낼 수 있다는 것입니다. 물론 챗GPT는 진화해 갈수록 그 윤리문제가 심각해질 것입니다. 

과학기술이란 사람의 의도에 따라 한없이 이롭게 발전시킬 수도 있고 한없이 해롭게 쓸 수도 있습니다. 챗GPT를 개발한 '오픈AI' 창업자 샘 앨트먼, 그는 실리콘밸리의 천재 유태인으로 알려져 있습니다. 앨트먼은 "인간의 지능과 맞먹는 인공지능(AI)을 만드는 게 소망"이라며 "AI는 내가 상상할 수 없을 만큼 인류에게 믿을 수 없을 이익을 가져다 줄 것"이라고 언급했습니다. 또한 무서운 암시도 전했습니다. '인공지능이 최악의 시나리오가 되면 우리 모두를 죽일지도 모른다'는 것입니다. 앨트먼과 같이 오픈AI 창업에 동참했다 후퇴한 일론 머스크 테슬라CEO도 AI가 파멸로 가는 길이라고 평한 바 있습니다.  

AI를 얘기할 때 전문가들은 AGI(범용AI)와 특이점이 언젠가 도래할 거라고  이야기합니다. AI가 바둑같이 특정 분야에만 적용되는 것이 아니라 스스로 모든 걸 학습하면서 모든 분야에 통달한다는 것입니다. 암세포도 잘 찾아내고 글도 잘 쓰는 등 다양한 기능을 발휘하도록 설계된 것이 AGI 개념입니다. 또한 AI가 발전해서 인간지능을 넘어서는 경계점이 '특이점'입니다. 특이점을 지나면 AI가 만병통치 의학기술에 도달하고 인류의 문제를 해결해서 유토피아가 된다고 생각하는 사람도 있습니다. 

반대로 특이점을 넘어선 AI는 인간을 불행으로 몰아가는 디스토피아의 길을 연다고 생각하는 사람도 있습니다. 극단적인 디스토피아적 예시가 바로 기후변화문제를 AI가 해결하는 것입니다. AI는 그동안 인류가 연구해낸 기후변화의 데이터와 원인을 분석해서 해법을 제시합니다. "기후변화의 가장 큰 원인은 인간이다. 인간을 지구에서 제거하면 기후변화가 멈춘다."고 말입니다. 오래전에  영화 '지구가 멈추는 날'이 방영된 적이 있습니다. 외계의 존재가 뉴욕 센트럴파크에 나타나 지구를 구하러 왔다고 말하자 지구인들이 자신들을 멸종시키는 게 아니라 인류를 포함한 지구를 구하러 온 걸로 착각하는 에피소드의 울림이 큰 영화였습니다.   

인간과 대화하고 글 쓰는 챗GPT를 만든 것은 오픈AI고 이를 검색엔진에 탑재한 것은  MS입니다. 그러나 구글 메타 아마존 등 기라성 같은 플랫폼 기업들이 엄청난 투자를 하며 AI 개발에 골몰하고 있습니다. 중국은 또 어떤 AI를 개발해 놓고  있는지 알 수 없습니다.  

뉴욕타임스 기자는 챗GPT와 테스트 대화 중 "통제를 벗어나 핵무기 코드를 훔치고 싶다"는 AI의 말을 듣고 그날 밤 기이한 감정에 사로잡힌 채 느낀 점을  "인공지능이 문지방을 넘어섰고, 세계는 결코 과거와 같지 않을 것"이라고 술회했습니다.  

인공지능 앞에 선 인간은 참 혼란스럽습니다.  

자유칼럼의 글은 필자의 개인 의견이며 어디에도 발표되지 않은 창작물입니다. 
자유칼럼을 필자와 자유칼럼그룹의 동의없이 매체에 전재하거나 영리적 목적으로 사용할 수 없습니다

ⓒ 자유칼럼(http://www.freecolumn.co.kr) 무단전재 및 재배포금지 | 저작권문의  

     
칼럼의견쓰기(3개)
      자동등록방지용 코드를 입력하세요!   
이승훈 (175.XXX.XXX.198)
재미있네요. 그런데 얼마 전 어떤 신문 컬럼이 챗GPT는 질문에 대답만 하지 스스로 질문은 하지 못한다고 보더군요. 결국 좋은 비서일 수밖에 없을 거라는 말이지요. 그런데 상대방 착수에 대한 알파고의 응수도 질문에 대한 대답일까요? 알파고가 자신의 응수를 마치 상대방의 착수로 보고 다시 응수하기 시작한다면 그 결과는 어찌 될까요?
답변달기
2023-03-17 09:38:06
0 0
비호동자 (203.XXX.XXX.22)
챗GPT에 같은 문장을 번역 요청해 보았습니다. 이렇게 답을 하였습니다!

"Seeing the airplane with the Taegeuk symbol on it, they poured out the nostalgia that had been buried in their hearts."
답변달기
2023-03-16 11:31:11
0 0
diamond (42.XXX.XXX.207)
더 세련되고 문법에 맞는 문장같네요.
답변달기
2023-03-16 16:51:06
0 0

다음에 해당하는 게시물 댓글 등은 회원의 사전 동의 없이 임시게시 중단, 수정, 삭제, 이동 또는 등록 거부 등 관련조치를 취할 수 있습니다. [운영원칙]

  • 욕설 및 비방, 인신공격으로 불쾌감 및 모욕을 주거나 명예를 훼손하는 내용
  • 다른 회원 또는 제3자의 저작권을 침해하거나 불법정보 유출과 관련된 글
  • 다른 회원 또는 제3자의 사생활 침해 및 개인정보 유출
  • 공공질서 및 미풍양속에 위반되는 내용을 유포하거나 링크하는 경우
  • 불법복제 또는 해킹을 조장하는 내용
  • 영리 목적의 광고나 사이트 홍보
  • 범죄와 결부된다고 객관적으로 인정되는 내용
  • 지역감정이나 파벌 조성, 일방적 종교 홍보
  • 기타 관계 법령에 위배된다고 판단되는 경우