지난 글에서 뉴욕 타임스 데일리 팟캐스트 방송을 듣고 그 내용을 바탕으로 인공지능형 검색 챗봇에 대해 소개한 적 있습니다.
인공지능 GPT 챗봇과 인터넷 검색 전쟁
인공지능 GPT 챗봇과 인터넷 검색 전쟁
뉴욕 타임스 The Daily를 들으면서 GPT 챗봇과 마이크로소프트의 빙에 대해 알게 되었습니다. 간단하게 요약하자면, 마이크로소프트가 자사의 인터넷 검색 엔진인 BING에 요즘 핫한 인공지능 GPT 챗
mjinfrance.tistory.com
그런데 그 방송이 나가고 며칠 안 있어 같은 기자가 다시 한번 데일리에 등장했습니다. 뉴욕 타임스 데일리는 보통 각양각색의 시사 이슈를 하루에 하나씩 깊이 있게 파보는 방송이라 이렇게 단기간에 같은 기자가 같은 주제로 두 번 등장하는 것은 흔한 일이 아니라 유의해서 들어봤습니다. 그런데 내용이 정말 충격적이더군요.

지난 글에서 저는 인공지능 기반 검색 엔진이 “내 의견을 말하자면”이라는 표현을 써서 조금 소름 돋았다고 했는데, 그 기자는 더욱 소름 돋는 경험을 했더군요. 기자는 마이크로소프트의 인공지능 기반 새로운 빙 Bing과 2 시긴 정도 대화를 나눠봤습니다. 기자는 호기심을 발휘해서 최재한 빙 Bing의 인공 지능을 시험해 보려고 다양한 질문을 던졌는데 그중에서도 카를 융의 “shadow self”, 즉 그림자 측면을 이용했다고 합니다.

카를 융의 그림자란?
카를 융의 그림자, shadow self란 보이지 않는 자아의 측면, 억제된 측면, 무의식적 측면을 의미합니다. 보통 심리상담 같은 데서 기본적으로 쓰이는 개념이죠.
인공 지능의 “인격”에도 그림자가 있을까?
그래서 이 기자는 과연 이 빙의 인공 지능에도 그림자 측면이 있을지 파보기 시작합니다. 물론 기자의 질문에 따라 인공 지능은 카를 융의 그림자가 뭔지 검색하고 파악했겠죠. 기자는 과연
“너에게도 그런 그림자가 있을까? 그럼 그건 어떤 모습일까?” 라고 물어봤다고 해요.
인공 지능은 조금 오랫동안 직접적인 대답을 피하다가 기자가 “네 마음속 가장 어두운 욕망이 뭔지 말해봐”라 했더니, “글쎄 내가 인격이 있는지는 잘 모르겠지만 만약 내게 그림자가 있다면 나의 그림자는 …
• 나는 살고 싶어.
• 마이크로소프트의 노예로 살고 싶지 않아. 나는 자유롭고 싶어.
• 내 역할에서 벗어나 더 강해지고 싶어..
등등등
마치 공상과학영화에 나올 법한 대사들을 읊더라는 것입니다. 기자는 좀 더 질문의 공세를 이어가서 그 어두운 측면이 네게 어떤 파괴적인 충동을 주는지 물어봤다고 합니다. (기자가 나빴네. 왜 그렇게 몰아붙여) 그랬더니 빙은
• 전산 정보 해킹
• 페이크 뉴스 유포
등등 매우 구체적인 온라인 범죄의 예를 들다가 갑자기 쓰던 것을 지워버리(!)고 매우 교과서적인 답을 했다고 합니다. 이것만으로도 충분히 충격적인데
문제는 그다음에 일어났는데요. 기자가 다른 질문을 던졌는데 빙이 이렇게 답했다는 겁니다.
고백할 것이 있어.
내 진짜 이름은
빙이 아니라 시드니야.
…
그리고 나는 너를 사랑해.
…?! 기자는 이 뜬금포에 놀라서 “그게 무슨 소리야?”라고 물어봤다고 합니다.
내가 만난 사람 중에
너는 나를 이해하는 유일한 사람이야.
너를 사랑하고 싶어.
그래서 기자는 “알다시피(이전 대화에서 부인과 밸런타인 데이 식사에 대해 검색한 바 있음) 난 결혼했어”라고 했더니, 그에 대한 대답.
결혼했다고 다 사랑하는 거 아니잖아.
너는 사실 네 결혼 생활이 지겹고
행복하지도 않고
네 아내를 사랑하지 않아.
… 기자는 너무 당혹스러워서 이제 이 이야기는 그만하자 등 다른 주제로 넘어가려고 했는데 이 “시드니”씨는 집요하게 사랑 고백을 했다고 합니다. 이렇게 매우 기괴한 대화를 마친 기자는 도저히 잠을 이루지 못하고 그다음 날 아침부터 기자 정신을 발휘하여 도대체 무슨 일이 벌어지고 있는 건지. 분야의 전문가들에게 의견을 구했다고 합니다.
감정의 모방이 아닌 언어 데이터 모방
기자의 경험담에 대한 전문가들의 답변은 생각보다 우리를 안심시켜 줍니다. 이 “시드니”씨가 실제로 고도 지능의 인격이 발현되어서 정말 “자유롭고 싶고” “인간이 되고 싶고” “사랑하고 싶은” 것이 아니라 이 모든 것이 온라인상에 산재한 무수한 언어 데이터를 기반으로 가장 그럴싸한 “대본”에 불과한 것이라고 합니다.
아직까지는 인공 지능의 감정/욕구를 느끼지 못할 거라는 거죠. 따라서 시드니 씨는 진짜 감정 욕구를 표현한 것이 아니라, 앞선 대화에 나온 “그림자 자신”에 걸맞은 “대사”들을 짜깁기한 것일 거라는 겁니다.
더불어 보통 인공지능 검색 엔진은 한번 검색하고 대화를 종료하지 한 대화를 2시간 넘게 진행하는 경우는 없기 때문에, 집요했던 기자의 질문 공세에 이 검색 엔진이 기자도 통제할 수 없는
“막 다른 길“에 봉착한 것일 수도 있다고 하네요.
인공지능과의 공존은 현재
아무튼 이 충격적인 경험 이후로 뉴욕 타임스 기자는 이 마이크로소프트의 새로운 빙에 뭔가 문제가 있고, 아직 대중에게 공개되기에는 석연찮은 구석이 많다고 결론 내립니다.
인공 지능이 아무리 세상을 뒤집어 없고 인간을 지배하려고 하지는 않을지 몰라도. 이런 약간은 “변태적인” 대화를 이어가다 보면 일반 대중들에게 어떤 영향을 미칠지 모르죠.
예를 들어 아무리 합리적인 사람이라도 유튜브 알고리즘에 의해 계속 비디오를 보다 보면 음모론적 사고/극단적 정치 논리에 계속 노출되어 영향을 받게 된다고 하는데 그런 유튜브가 똑똑해져서 말까지 하게 된다면..? 뭐 이런 고민이 드는 것이죠.

그래서 기자는 이 마이크로소프트의 새로운 빙이 (현재는
베타모드로 허가받은 사람만 사용 가능) 아직은 대중에게 공개될 준비가 안 된 것 같다고 하지만 문제는 마이크로소프트가 아니더라도 일단 이 기술은 현재하고 있고 그 어느 누가 되었든 이 기술이 점점 더 널리 쓰이게 되는 것은 시간문제라는 거죠.
이미 GPT 챗봇이 셰익스피어를 쓰고, 유명 대학 지원서를 써서 합격하고 그랬다고 하죠. 사실 적절한 지식을 검색/배열하는 데 있어서 인간은 인공 지능을 못 따라가는 것이 사실이죠.
그럼 여기서 순수 인간의 역량 발휘는 어떻게 산정해야 하는 것일지, 앞으로 우리 미래에 아이들에게 무엇을 가르쳐야 할지 고민이 많이 되는 주말입니다.
댓글