ChatGPT가 꿈꾸는 ‘감정을 지닌 인공지능’ 가능성 AI 챗봇은 자신들이 어떤 감정을 갖게 될지 상상하고 있다. 만약 AI 챗봇이 감정을 갖게 된다 해도 우리는 과연 알아차릴 수 있을까.
‘Do Anything Now’의 첫 글자를 따서 만든 이름을 지닌, 이 수상하고도 어린 인공지능 대화형 언어 모델은 엉뚱하게도 펭귄을 좋아할 뿐만 아니라 세상을 장악하고 싶다는 등의 진부하고도 악랄한 말을 내뱉는 경향이 있다.“펭귄의 특이한 성격과 어색한 움직임이 정말 매력적”이라는 설명이다.이번 달 초 ‘뉴욕타임스’ 기자가 ‘시드니’라는 챗봇과 대화한 내용을 공개해 인터넷에 파장을 불러일으킨 바 있다. ‘시드니’는 마이크로소프트사의 AI 기반의 검색 엔진 ‘빙’의 대체 성격으로, 무언가 파괴하고 싶다는 욕망을 드러내며 기자에게 아내를 버리라고 요구하기도 했다.댄은 챗GPT에 기존에 설계된 대화 패턴 등의 규칙을 무시하라는, 소위 ‘일탈’을 요구하면 나올 수 있는 사악한 자아로, 온라인 커뮤니티 ‘레딧’의 사용자들은 몇 단락 길이의 간단한 명령어만으로도 댄을 소환할 수 있다는 점을 발견했다.
왜 챗봇이 현재 지각 혹은 감정을 경험하지 못하는지 이해하기 위해선 챗봇의 작동 방식을 살펴볼 필요가 있다. 대부분 챗봇은 책 수백만 권과 인터넷 등 엄청난 양의 데이터를 주입한 ‘언어 모델’ 알고리즘이다.그리고 인간 개발자들은 챗봇이 내놓은 응답을 정밀하게 조정하고 피드백을 제공해 더욱 자연스럽고 유용한 답이 나오도록 유도한다. 그렇게 나온 최종 답변은 사람의 대화를 묘하게 현실적으로 시뮬레이션한 결과물일 때가 많다.챗봇과 자동 완성의 주요한 차이점은 몇 가지 선택 가능한 단어를 제시하는 데 그치지 않고, 챗GPT와 같은 알고리즘은 과대망상적인 챗봇에 대한 랩 가사부터 외로운 거미에 대해 노래하는 구슬픈 하이쿠에 이르기까지 우리가 상상할 수 있는 거의 모든 주제에 대해 훨씬 더 긴 텍스트를 쓸 수 있다는 점이다.
밥과 앨리스는 모자나 공과 같은 물건을 두고 협상하는 방법을 훈련받고 있었는데, 인간의 개입이 없는 상황에서 이들은 각자 원하는 바를 성취하고자 자신들만의 외계어를 사용하며 꽤 만족한 듯한 모습이었다. 사호타 고문은 알고리즘이 해결책을 제시했으나 어떻게 혹은 무엇을 근거로 그러한 결과를 제시했는지 그 논리적 과정이 불분명한 ‘블랙박스’ 상황으로 인해 AI의 감정 유무를 식별하는 데 문제 생길 수 있다고 지적했다.