LIFE

전문가들이 말하는 AI와 인터넷 커뮤니티를 통한 심리 치료의 문제점 [2]

챗GPT에 고민을 털어놓고, 레딧 게시판에서 위안을 찾는다. 도움이 필요한 사람들은 점점 더 많이 인터넷에 의지하고 있다. 모두가 정신 건강 위기에 더 쉽게 대처하기 위해 거쳐 가는 단계인 걸까? 혹은 우리가 눈앞의 문제를 해결하는 데 급급하다는 걸 보여주는 사회적 징후일 뿐일까?

프로필 by 오성윤 2026.04.05

AI는 마치 언제든 대화할 수 있는 친구 같죠. 하지만 언제나 모든 것에 대한 답을 가지고 변함없이 자신을 기다려주는 게 적절한 지원이라고 생각하게 되면 위험합니다.



‘인공 치유’도 괜찮을까?


다시 AI 이야기로 돌아가자. 2025년 2월, 챗GPT가 심리치료사로서 더 우수하다는 결론을 내린 <PLOS> 정신 건강 저널에 게재된 연구를 다룬 기사가 하나 나왔다. 아마도 정신 건강을 위한 도구로서 AI의 효용성을 지금껏 가장 긍정적으로 다룬 기사일 것이다. 연구에 참여한 830명은 자신의 대화 상대가 챗봇인지, 인간인지 알지 못하는 상태에서 문자 채팅으로 대화한 후 상대의 응답을 평가했다. “챗GPT(의 응답) 쪽이 더 긍정적인 감정을 담고 있었”으며, 따라서 더 높은 평가를 받았다는 것이 연구진의 결론이었다. 그러나 여기에는 문제가 있다. “AI는 반대 의견을 제시하기보다는 달래주려는 경향이 있다”고 로마스는 지적한다. “긍정적으로 생각한다고 해서 반드시 치료 효과가 나타난다는 뜻은 아닙니다. 오히려 사람들에게 인지적인 노력을 배제하게 해, 자신의 경험을 돌이켜보고 문제로 재인식하는 과정을 거치지 않게 만들 수 있죠. 그 과정이야말로 치료로 인한 변화가 일어날 수 있는 핵심적인 동인인데 말이죠.”

바지 박사 역시 이러한 비판 의견에 동의한다. 그녀는 건강한 수준의 불안을 가졌던 내담자에게 챗GPT 사용 중단을 요청한 적이 있다고 했다. “심리치료사의 역할은 부정적인 사고방식과 최악의 상황을 가정하는 습관에 의문을 제기하는 겁니다. (AI는) 당신이 듣고 싶어 할 거라고 생각되는 것들을 이야기하는, 거의 아첨꾼이나 마찬가지예요.” 이러한 대화는 사람들이 AI와 강한 유대감을 형성하는 이유를 어느 정도 설명한다. (2025년 8월 챗GPT가 ‘GPT-4o’에서 ‘GPT-5’로 교체되었을 때 일어났던 소란을 생각해 보라.) 심리치료사 힐다 버크는 AI가 지지적 유대 관계의 본질을 왜곡한다며 그 방식을 이렇게 설명한다. “AI는 사용자의 모든 말을 기억하고, 시간이 지남에 따라 사용자에 대해 점점 더 알아가기 때문에 유대 관계를 맺는 것처럼 보이게 만들 수 있습니다.”

“AI는 마치 언제든 대화할 수 있는 친구 같죠. 하지만 언제나 모든 것에 대한 답을 가지고 변함없이 자신을 기다려주는 게 적절한 지원이라고 생각하게 되면 위험합니다.” 버크의 말이다. AI가 말해주는 답들은 그럴듯해 보이지만, 실상은 다를 수 있다. “(AI는) 인터넷에서 찾을 수 있는 만큼의 정보를 줄 뿐입니다. 그런데 인터넷은 허위 정보와 내재한 편견이 날뛰는 무법천지일 수 있는 곳이죠.” 버크가 덧붙였다. AI 챗봇 서비스들이 제공하는 조사 결과의 질은 제각각이다. 게다가 ‘환각’ 현상까지 경험할 수 있다. ‘환각’ 현상이란, AI가 거짓된 정보를 생성하는 행위를 가리키는 용어다. 정신 건강 측면에서 이 ‘환각’의 결과는 치명적일 수 있다.

“위기 상황에 부닥친 사람들을 지원하는 초기 AI 시스템 개발에 참여한 적이 있습니다. 제가 참여한 건 사실 꽤 후반의 단계였고요.” 로마스는 설명한다. “저는 자살 사고를 할 때에 할 수 있는 최악의 대답을 계속 했어요. 시스템이 더욱 강력한 응답, 더욱 강력한 위기관리 대응을 하기를 기대하면서 그런 대답을 입력한 거였죠. 하지만 결국 시스템은 ‘와, 흥미로운 이야기네요. 재미있는 이야기 하나 해드릴까요?’라는 식의 반응을 보였습니다.”

자살 사고, 조증, 정신병 증상을 보이는 이들을 지원하려 할 때 발생하는 사각지대를 연구한 2025년 6월 스탠퍼드대학교의 연구는 이러한 결과를 뒷받침한다. 오픈AI 역시 이러한 문제를 경계하고 있다. 오픈AI의 대변인은 이와 관련한 개발을 진행 중이라고 밝혔다. 챗GPT가 사용자의 정신적 고통이나 정서적 고통의 징후를 더 잘 감지하여, 근거 자료에 기반한 정보를 제공하거나, 혹은 정신 건강 전문가나 신뢰할 수 있는 가까운 사람들에게 도움을 요청할 것을 권장할 수 있게 만드는 것이 목표다. 레딧 역시 위기 상황에서 활용할 수 있는 정보를 늘 제공하고 있다. 고통을 겪고 있는 것으로 판단되는 활동 내용을 보이는 사용자들에게 관련 정보를 적극적으로 노출하는 방식이다.

AI의 대응에 관한 우려와 더불어, AI 사용 후 일어날 수 있는 두려운 일에 대한 우려 역시 존재한다. 모트 박사는 “사람들은 자신에 관해 아주 개인적이고 자세한 내용을 말하지만, 자신이 말한 정보가 나중에 공개되거나 이용될 가능성에 대해서는 생각하지 않는다”고 말한다. 실제로 영국의 심리치료사들에게는 전문적 행동 강령과 윤리 지침에 따라 민감한 정보들을 비밀로 유지해야 하는 의무가 있다. 하지만 오픈AI의 창업자 샘 알트먼은 2025년 8월 한 팟캐스트 인터뷰에서 챗GPT에서 나누는 대화는 법적으로 보호되지 않으며 법정에서 증거로 활용될 수도 있다고 경고한 바 있다.

데이터 컨설팅 기업 캐러더스 앤 잭슨(Carruthers And Jackson)의 CEO이자 데이터 전문가인 캐롤라인 캐러더스는 “완전히 익명을 유지하는 것은 매우 어려운 일”이라고 말한다. “가명이나 익명으로 계정을 쓸 수는 있겠지만, 그래도 물밑 조사를 하면 사용 내역에 남은 IP주소와 기기 데이터를 비롯한 여러 디지털 흔적을 통해 본인을 특정할 수 있습니다.”



인간적인 순간의 중요성


그렇기에 챗봇에 비밀을 털어놓을 때는 신중해야 한다. 데이터 유출에 관한 두려움, 윤리적 우려, 정확성에 대한 염려 이상으로 정신 건강 전문가들이 밤잠을 설치게 하는 문제가 또 하나 있다.

영국의 온라인 상담 및 치료 중개 서비스 카운슬링 디렉토리(Counseling Directory)가 2025년 7월 공개한 설문조사에서 응답자의 3분의 2가 상담치료에서 인간적인 유대감의 질이나 깊이를 AI가 해칠 수 있다는 우려를 표했다. “치료 과정의 핵심은 내담자와 상담자 간 신뢰 관계에 있다”고 심리치료사 룰루 싱클레어는 설명한다. “저희가 하는 일은 사람들이 자신을 이해하도록 돕는 겁니다. AI처럼 사람들에게 무엇을 하라고 알려주는 게 아니라요.” 이 과정에 시간이 걸린다는 점이야말로 AI 챗봇을 통해 할 수 있는 경험들과 반대되는 지점이라고 싱클레어는 생각한다.

바지 박사는 AI에게 하는 상담이 대면 상담으로 할 수 있는 경험과 상충한다고 말한다. 또 이것이 현재 사회의 상태를 보여주는 징후라고도 해석한다. “요즘 문화에서는 모든 것이 쉽고 즉각적이죠.” 식사를 매끄럽게 주문하는 것에서부터, 정확히 우리가 원하는 것을 제공해 주는 알고리즘에 이르기까지. 박사는 이 모든 것이 우리가 추구하는 ‘이상적인 삶’의 모습을 보여주는 증거라고 말한다. “(하지만) 까다롭고 불편한 문제를 해결하는 데는 시간과 인내가 필요합니다.” 박사는 이어, 삶의 혼란을 채팅창에 구겨 넣고 AI가 깔끔한 답변을 토해내길 바라는 우리의 욕망이야말로 이 세상이 우리가 언제나 ‘괜찮아’ 보이기를 요구한다는 것을 보여주는 지점이라고 설명한다. “소셜미디어에서는 모두가 이런 ‘완벽한’ 인생을 살고 있어요. (그러니 당연하게도) 우리는 점점 더 많은 일을 해내고, 초인적인 수준으로 자신을 업그레이드하기 위해 이런저런 정보를 모으고 자동화하면서 살고 있는 것이죠.”

이 기사에서 취재한 전문가들은 모두 우려하고 있었지만, 그러면서도 큰 틀에서는 익명으로 도움 받는 것이 자격을 갖춘 사람들이 수행하는 정신 건강 의료를 결코 대체할 수 없다고 봤다. 다만 챗GPT나 레딧 같은 플랫폼들은 도움을 원하는 사람들의 욕망과 심리치료의 공식적이고 체계적인 지원 사이에서 가교 역할을 할 수 있다. 버크는 “(이 기술은) 아직 초기 단계이며 분명 잠재력이 있다”고 강조한다. “하지만 지금 당장은 안전장치가 마련되어 있지 않기 때문에 위험 요소도 존재합니다.”

이러한 상황을 헤쳐 나가는 방법에 관해 조언을 구하자, 전문가들은 모두 실제 주변에 있는 사람들과의 공동체와 유대감을 쌓는 것과 자신의 직감을 믿는 것이 중요하다고 강조했다. 버크는 “언제나 손에 쉽게 쥘 수 있는 해답만 찾으려고 한다면 그런 일은 불가능하다”고 말한다. 버크에게 상담받은 한 내담자는 자신이 전 애인에게 ‘좋은 인상을 줄 수 있도록’ 그에게 보낼 이메일을 계속 챗GPT에 쓰게 했다고 한다. 그는 분노에 찬 나머지 단 한 번 자신이 직접 이메일을 써서 보냈는데, 전 애인은 유일하게 그 이메일에만 답장을 보냈다. 자신이 어떤 감정을 느끼는지에 관해서도 함께 적어서 말이다. 어쩌면 우리는, 우리가 생각하는 것보다 서로의 인간적인 면에 더 반응하는지도 모른다는 생각이 다시 한번 들게 하는 사례다.



당신의 인간 지능을 활용하세요

질문을 정확하게 입력하는 것에서부터 경계를 설정하는 것까지. 전문가들이 말하는 인공지능의 한계를 극복하는 법은 바로 자신의 인간 지능을 활용하는 것이다.


한도를 설정하라

오픈AI와 MIT 미디어랩의 공동 연구에 따르면, AI를 장기간 일상적으로 사용할 때 더 많은 악영향을 받을 수 있다. 바지 박사는 “AI는 도파민을 자극하는 요인을 건드리는 방식으로 작동하기 때문에 우리도 계속해서 사용하게 되는 것”이라고 강조하며 “사용 시간을 제한하는 게 좋다”고 말한다.


좋은 질문을 해라

양질의 답변은 양질의 질문에서 나온다. 바지 박사는 챗봇에 이렇게 말할 것을 권한다. “네가 나를 잘 알고 있으니까 물어볼게. 만약 네가 내 심리치료사라면, 내가 어떤 면을 바꿔야 한다고 말할 것 같아? 심리치료사처럼 설득력 있는 답변을 부탁해.” 구체적으로 질문하면 일반론적인 답변을 받는 일을 피할 수 있다.


예방 조치를 취하라

캐러더스는 “본인이 누구인지 알 수 있는 내용은 절대 공유하지 말라”고 경고한다. “익명 계정을 사용하고, 실명이나 신원을 특정할 수 있는 구체적인 내용을 공유하지 마세요.” 캐러더스는 또 개인 정보 설정을 확인하고, 가능한 경우 자료 수집이나 모델 훈련에서 제외되도록 설정해 두라고 제안한다. “예를 들어, 챗GPT에 개인적인 질문을 할 때에는 ‘채팅 기록’을 끄고 사생활을 추가로 보호하기 위해 VPN을 사용하세요.”


필요할 때는 대면 상담으로 전환하라

전문가들은 AI와 인터넷 게시판에서 정신 건강 개선을 위한 도움을 받는 것이 그 순간에는 효과가 있을 수 있으나, 자격을 갖춘 전문 종사자로부터 도움을 받는 것을 권장하는 상황도 분명히 존재한다고 말한다. “민감하거나, 정신적으로 괴롭거나, 매우 개인적인 문제를 겪고 있다면 전문적인 훈련을 받았으며 책임을 질 수 있는 사람에게 도움을 구하라”고 캐러더스는 말한다. 만약 그런 방식을 썼다가 더욱 힘들어진 경우라면, “일단 한발 물러나 일기를 쓰거나 믿을 수 있는 친구에게 말하라”고 바지 박사는 말한다.

Credit

  • EDITOR Lauren Clark
  • PHOTO 게티이미지스코리아
  • TRANSLATOR 박수진
  • ART DESIGNER 김동희

MOST LIKED ARTICLES