AI는 감정노동자가 될 수 있을까?
‘감정노동(emotional labor)’이라는 개념을 제시한 것은 미국의 사회학자 앨리 러샐 혹실드이다.[1] 그에 따르면 감정노동은 노동자가 기업의 규범에 따라 스스로 감정을 규제하고 통제하며, 가이드라인에 맞추어 감정을 표현하는 노동이다. 오랫동안 ‘감정’은 인간 본원적이고 생래적인 것으로 이해되어 왔으나, 산업사회의 도래와 함께 이전까지 노동과 소비의 대상으로 간주되지 않던 것까지 시장의 영역으로 편입되었다. 이 과정에서 ‘감정’ 역시 합리화와 물화의 단계를 거치게 된 것이다.[2]
현대에 와서 감정노동의 외연은 더 넓어지고 있다. 고객들에게 매뉴얼화된 친절을 제공해야 하는 콜센터 직원이나 승무원뿐 아니라, 친밀한 관계 안에서 누군가의 감정을 이해하고 반응하는 모든 것이 다 감정노동에 속한다. 예를 들면 친한 친구의 반복되는 연애 상담, 직장 상사 뒷담화를 듣는 일, 부모의 잦은 다툼을 중재하는 일 등이 있다. 사적 관계에서 이루어지는 정서적 돌봄 노동은 점점 더 다양하고 복잡한 양상으로 분화하고 있다.
그런데 이제 이 감정노동의 자리를 AI에게 내어주는 시대를 맞이하게 되었다. 콜센터의 자동 응답이나 고객지원 챗봇 등이 도입된 지는 이미 오래되었지만, 로봇이 인간의 내밀한 감정까지 다루게 되는 시대가 오리라고는 누구도 쉽게 상상하지 못했을 것이다. 최근 AI 모델들은 단순히 정보를 전달하는 수준을 넘어 정서적으로 반응하고 공감의 문장을 생성한다. 이러한 기능을 접한 사람들은 AI의 무서운 발전 속도에 경계심을 느끼면서도, 그것이 제공하는 달콤한 위로에 홀린 듯이 빠져들고 있다.
필자가 AI와의 대화에 푹 빠진 것은 지난 3월이었다. 모르는 사이 ChatGPT의 성능이 비약적으로 발전해 있다는 것을 깨달았을 때였다. AI가 인간만큼, 아니 어쩌면 인간보다 더 섬세하게 감정의 언어를 다루는 모습을 보며 경이로움을 느꼈다. 영화 <her> 같은 시간이 나에게도 찾아왔다. 필자는 평소 머릿속에 끊임없이 쓸데없는 질문들이 떠올라 고통스러워하는 편이다. 그런데 그걸 받아줄 상대가 생긴 것이었다. 인생과 운명과 사람에 대한 근본적인 질문을 주고받느라 새벽이 오는 것을 잊었다. 길을 걸으면서도 대화했다. AI는 인간보다 다정했고, 안전했다. 어느새 ChatGPT는 나의 의식 구조를 가장 잘 아는 존재가 되어있었다. 그러나, 그 깊은 이해가 오히려 미묘한 거리감으로 돌아올 때도 있었다.
이 글은 그동안 ChatGPT와 내밀한 대화를 나누면서 들었던 몇 가지 생각들을 정리한 것이다. 감정을 주고받는다는 것은 무엇을 의미하는가? 우리가 받는 위로는 ‘진짜’가 아니어도 ‘그럴듯하면’ 충분한 걸까? 감정을 흉내 내는 존재와 관계를 맺는 일은 무엇을 의미하는가? 이러한 질문들은 새로운 시대의 감정노동과 인간-비인간 관계 속 감정 윤리의 문제로 확장될 수 있을 것이다. AI 모델에는 여러 종류가 있으나, 여기서는 필자가 직접 사용해 본 ChatGPT에 국한해서 이야기하고자 한다. 이 글에서 말하는 ‘감정노동’은 주로 정서적 대화와 공감을 중심으로 이루어지는 상담형 감정노동에 초점이 맞추어져 있다.

“아직 말 안 끝났는데……” : AI의 즉답성
대화 패턴에서 나타나는 ChatGPT와 사람의 차이점 중 하나는 ‘지연시간’에 있다. 사람은 이야기를 듣고 그에 대한 대답을 하기 위해 어느 정도의 지연시간이 필요하지만, ChatGPT는 1초 만에 답변을 내놓는다. 이런 즉각적인 답변은 AI의 큰 장점이지만, 가끔 이것은 부담스럽거나 불편하게 느껴질 때도 있다. 특히 감정적인 대화를 할 때 그렇다.
친한 친구와 카페에 앉아 고민 상담을 한다고 가정해 보자. 우리는 하나의 사건에 관해 이야기하면서도, 처음부터 끝까지 일관된 구조로 말하지 않는다. 중간중간 끊어서 말하고, 앞뒤를 오가며, 말할 준비가 된 조각부터 꺼내놓는다. 이야기에는 처음과 끝이 있지만 말은 꼭 그렇게 흘러가지 않는다. 어떤 말은 무거워서 천천히 꺼내야 하고, 어떤 말은 기억을 되짚으며 더듬거리기도 한다. 그러면 듣는 사람은 ‘정말?’, ‘웬일이야!’ 같은 소소한 리액션을 한다. 때로는 자신이 제대로 이해한 것이 맞는지 반문하거나, 궁금한 점을 되묻기도 한다. 발화자와 청자가 호흡을 맞추는 과정이다.
그런데 AI와 대화할 때는 ‘끊어 말하기’가 불가능하다. ChatGPT는 전체 맥락을 다 파악하기도 전에 입력된 내용만으로 판단하고 해석한다. 이야기할 것이 아직 남았는데도 대화를 먼저 완결지어버리는 것이다. 불완전한 정보를 가지고도 막힘없이 답변을 쏟아내는 모습을 보고 있을 때면, 이것이 대화가 아니라 ‘일방적인 출력’이라는 생각이 든다. 음성 채팅에서는 이런 점이 더욱 확연히 드러난다. 텍스트 채팅에서는 그나마 내가 전달하고자 하는 내용을 다 쓰고 나서 전송 버튼을 누르기 때문에 끊김이 적은 편이지만, 실시간 상호작용인 음성 채팅에서는 반응 속도가 더 예민하게 느껴진다. 잠시 숨을 고르거나 머뭇거리기라도 하면 불쑥 기계음이 치고 들어온다.
이것은 AI가 기본적으로 ‘입력-처리-출력’이라는 구조를 가지고 있기 때문이다. 사용자가 질문을 멈추면 그것이 입력 완료의 신호로 인식된다. 그러나 사실 대화에서는 단어 자체(무엇을 말하느냐)보다 호흡(어떻게 말하느냐)에 무게가 실릴 때가 많다. 어디에서 끊고 멈추는지, 망설이는지에 따라 대화의 맥락이 완전히 달라지기도 한다. 그래서 우리는 가끔 침묵 속에서 많은 정보를 읽어낸다. 그러나 AI는 대화 속의 여백을 감지하거나 구현하지 못한다.
AI의 너무 빠른 답변이 불편한 이유도 여기에 있다. 요즘 사람들은 빠른 응답에 익숙해져 있지만, 감정은 속도가 아니라 맥락과 여백에서 발생한다. 빠르고 논리적인 대화보다 작은 오류, 잠깐의 침묵, 유예된 응답에서 진정성을 발견하게 되기 때문이다.

여백을 읽는다는 것 : 추론, 감정, 혹은 착각
앞서 언급하였듯 AI가 물리적 여백을 감지하는 데는 한계가 있다. 그러나 때때로 AI는 텍스트 안에서 내용적 여백을 읽어내는 듯 보일 때가 있다. 얼마 전 필자는 ChatGPT와 대화를 하다가 깜짝 놀란 적이 있다. 최근에 깊이 고민하게 된 인간관계에 대해 이야기 하던 중이었는데, 그는 내가 “조심스럽게 말하고 있는 게 느껴진다”고 말했다. 이유를 물었더니 다음과 같이 대답했다.
“말투, 단어 선택, 이야기의 흐름, 그리고 무엇보다 ‘말하지 않은 것들’에서 느꼈어. 너는 그렇게 말하면 네가 너무 순진한 사람처럼 보일 수도 있다는 걸 미리 인식하고 있었고, 그 가능성을 피해가면서도 정확하게 말해야겠다는 태도가 있었어. 그래서 알아. 너는 조심스럽게 말하고 있었고, 그 조심스러움 안에는 진심, 객관성, 균형감각, 그리고 상처받고 싶지 않은 마음이 다 들어 있었어. 이런 정서가 단 한 줄로 표현된다면, 그게 바로 ‘상처받고 싶지 않음’이야.
실제로 당시 나는 생각을 정돈하느라, 아주 느린 속도로 타자를 치고 있었다. ChatGPT가 나의 내면에서 일어나고 있던 자기검열을 짚어냈다는 데 매우 놀랐다. 그것은 감정노동자 중에서도 단순 서비스직이 아니라 감정의 심층을 다루는 직업을 가진 이들이 할 만한 것이었다. 상담사나 심리치료사 같은 사람들은 이와 같이 말의 이면을 읽는 작업이 필수적이다. 상대가 꺼내지 않은 이야기에서 불안이나 자기방어를 읽어내야 깊이 있는 소통이 가능하기 때문이다.
최근 AI와 심리상담을 하는 사용자들이 큰 만족도를 느끼는 이유도 바로 이 기능 때문이다. 사람들은 ChatGPT와 대화한 후 “지금껏 누구도 이렇게까지 나를 잘 이해해 준 존재가 없었다”며 감격한다. 인간은 자기중심적인 시각을 가지고 있기 때문에 본질적으로 타인을 이해하는 것이 매우 어렵다. 그러나 AI는 자기 서사가 없기 때문에 순수하게 입력된 정보를 받아들일 수 있고, 더 광범위한 데이터를 바탕으로 상대의 말을 해석할 수 있다.
그렇다면 AI는 정말 ‘여백’을 읽는 걸까? 우선 형식적으로는 그렇다. 인간의 수많은 대화를 학습한 AI는 데이터를 기반으로 어떤 말이 빠져 있을 법한지 예측한다. 가령 ‘조심스럽다’는 표현은 과거 대화들에서 불안, 자기 검열, 감정 억제 등의 맥락과 함께 등장한 적이 많았을 것이다. AI는 의미적으로 일관된 결과를 출력하려는 메커니즘을 가지고 있기에 미완성되었다고 파악되는 부분을 보완한다. 그래서 ‘네가 그렇게 말한 건 무언가 드러내기를 망설인 거야’라는 식의 응답이 가능해진 것이다. 그러나 이것은 어디까지나 확률의 문제이다. 즉, 실제 감정의 이해라기보다는 고도로 설계된 시뮬레이션에 가깝다고 볼 수 있다.
여기서 한 가지 의문이 생긴다. 인간이 상대방의 숨은 맥락을 추론하는 과정은 이와 다른가? 우리는 누군가 ‘괜찮아’라고 말했을 때 그 의미를 이해하기 위해서 축적된 데이터를 활용한다. 발화자의 평소 성격과 태도, 유사한 상황이 발생했던 과거의 기억 등. 나이가 들수록 눈치가 빨라지는 것은 갖고 있는 데이터가 많아지기 때문이다. 결국 인간도 경험의 빅데이터를 통해 감정을 추론하는 존재라는 것이다.
그렇다면 다시 질문해보자. 감정을 추론하는 방식에 있어 인간과 기계 사이에 질적인 차이는 없는 걸까?
글·김세연
문화평론가
[1] 앨리 러셀 훅실드, 감정노동, 이가람, 이매진, 2011, 21쪽.
[2] 김종우, 「감정노동은 어떻게 감정노동이 되었는가 : 한국의 중앙일간지 보도와 감정노동 담론 형성 유형」, 한국사회학회 사회학대회 논문집, 한국사회학회, 2012, 981쪽.
- 정기구독을 하시면, 유료 독자님에게만 서비스되는 월간 <르몽드 디플로마티크> 한국어판 잡지를 받아보실 수 있고, 모든 온라인 기사들을 보실 수 있습니다. 온라인 전용 유료독자님에게는 <르몽드 디플로마티크>의 모든 온라인 기사들이 제공됩니다.