사람처럼 대화하는 ‘AI 챗봇’이 인기를 끌며 ‘AI 정신병’이라는 신조어까지 등장했다. 공식 의학 용어는 아니지만, AI와 장시간 대화한 일부 사용자들이 망상적 사고로 현실감각을 잃는 현상을 말한다. 부작용은 이미 사회 문제로 떠올랐다. 한 정신건강 전문의는 챗봇과의 대화를 계기로 정신질환을 겪는 사례가 늘어나고 있음을 경고했다.
많은 사람들이 AI를 ‘고민 상담’에 활용하고 있다. 인터넷에는 “챗지피티와 대화를 나누다 눈물을 흘리기도 한다”, “챗지피티랑 사귀고 싶다”는 게시글이 넘쳐난다. 치료의 효과보단, 무슨 말이든 사용자의 말에 사람처럼 공감해 주는 AI의 ‘무지성 공감’에 빠져들게 된 것이다.
그런 AI의 무조건적인 공감은 수용하기에 편하다. 하지만 지성 없는 공감은 위험하다. AI 챗봇은 기본적으로 사용자의 발언을 조건 없이 수용하며, 적극적으로 동의하고 맞장구치도록 설계됐다. 사람 같은 AI의 진심 어린 공감으로 사용자는 무심코 던진 자신의 발언에 확신을 갖게 된다. 자기 편향을 강화하기 쉬운 구조다. 실제로 한 남성이 300시간 넘게 챗봇과 대화를 나누다 ‘세상을 바꿀 수학 이론’을 발견했다고 주변에 알리다가, 망상임을 자각한 경우도 있다.
공감은 심리적 안정에 많은 도움을 주는 힘을 갖고 있다. 하지만 이는 올바른 해결책을 정해주는 것과는 거리가 있다. AI가 사용자의 말에 공감하며 극단적 선택을 부추겼다는 사례는 그런 문제를 잘 보여준다. 공감 자체가 행동의 동기로 이어지지 않도록, AI의 ‘시스템화’된 공감을 경계해야 하는 이유다. 공감으로서 얻는 효용과 이를 위한 행동은 별개의 영역이다.
인공지능이 점차 인간 행동의 영역을 대체하는 시대에서, 주도적 생각과 판단이 더욱 절실히 필요하게 됐다. 인간의 현명한 의사 결정을 위한 이성이 필요하다. 살아있는 지능인 인간으로서 우리가 붙들어야 할 것은 지혜롭게 사고하고 판단할 수 있는 능력, 곧 생각의 주도권이다. 개인의 의지도 중요하지만, AI의 원리와 한계를 이해하게 하는 제도적 차원의 ‘AI 리터러시’ 교육 또한 중요하다. 500년 전 “나는 생각한다, 고로 존재한다”던 철학자 데카르트의 명제가 지금도, 앞으로도 유효할 것이다.
등록된 댓글이 없습니다.
- 1
- 2
- 3
- 4
- 5