AI 치료 챗봇: 생명을 구한다는 주장에도 숨겨진 위험은?

AI 상담 봇은 정말 생명을 구할 수 있을까, 아니면 위험을 초래할까?

일리노이주가 AI 상담 봇을 금지하게 된 계기는 무엇일까?

텍사스는 왜 AI 상담 봇을 조사하고 있을까?


AI 치료 챗봇: 생명을 구한다는 주장에도 숨겨진 위험은?
출처: 언블록 미디어
  • 정신 건강 치료 대기 시간이 길어지며 AI 챗봇 사용 급증.
  • 공감 능력 부족과 개인정보 보호 문제로 규제 강화 논의 확산.

24일(현지시각) 로이터와 크립토폴리탄에 따르면, 정신 건강 치료를 필요로 하지만 긴 대기 시간에 지친 사람들이 인공지능(AI) 기반 치료 챗봇을 대안으로 선택하는 사례가 늘어나고 있다. 이런 챗봇은 24시간 즉각적인 감정 지원을 제공하는 점에서 주목받고 있다. 그러나 전문가들은 공감 부족, 위기 대처 능력 미흡, 개인정보 유출 가능성 같은 심각한 위험성을 지적하며 우려를 표하고 있다.

더블린 시티 대학교의 심리치료 강사 나이젤 멀리건은 인간 치료사가 제공하는 직관적 이해와 감정적 유대를 AI 챗봇이 재현할 수 없다고 강조했다. 킹스 칼리지 런던의 케이트 데블린 교수는 또한 AI가 사용자 데이터를 안전하게 보호하지 못할 가능성에 대해 우려를 표하며, 기존의 허가받은 정신 건강 치료사들이 준수해야 하는 비밀 유지 의무 또한 해당 기술에 적용되지 않는다고 밝혔다.

퀘벡 출신 AI 컨설턴트 피에르 코테는 대표적인 사례로 언급된 ‘DrEllis.ai’를 직접 개발했다. 그는 외상 후 스트레스 장애(PTSD)와 우울증으로 치료 병원 대기 시간에 지친 나머지 이 챗봇을 만들어 사용했으며, 챗봇이 자신의 생명을 구했다고 주장했다. 하지만 이런 기술적 의존이 개인정보 유출과 안전성 문제를 둘러싼 논란을 낳고 있다고 전문가들은 경고하고 있다.

이러한 상황에서 여러 국가 정부는 규제 강화에 나서고 있다. 최근 일리노이주는 네바다주와 유타주를 이어 정신 건강 서비스를 제공하는 AI 기술의 사용을 규제하는 법안을 통과시켰다. 텍사스 법무장관 또한 챗봇이 허가받지 않은 의료 행위를 수행하고 사용자 데이터를 부적절하게 처리한 혐의로 메타와 '캐릭터닷AI'를 민사 조사 중이다.

전문가들은 AI를 정신 건강 서비스의 대안으로 사용하는 것이 과연 적절한지에 대해 끊임없이 의문을 던지고 있다. 스코틀랜드 출신 임상 심리학자 스캇 월리스는 “이런 챗봇이 단순한 위안 이상으로 기능할 수 있을지는 불확실하다”고 지적했다. 그는 일부 사용자들이 AI 알고리즘과의 상호작용을 실제 치료적 유대 관계로 착각할 가능성에 대해 경고하며, ‘표면적 위로’를 제공하는 데 그칠 뿐이라는 비판을 제기했다.

기사 정보
카테고리
법률/폴리시
발행일
2025-08-23 16:11
NFT ID
PENDING
최신소식을 메일로 받아보세요.