챗GPT와 자살 계획, AI 안전장치의 한계를 생각해보게 되는 소송 이야기

요즘 AI랑 진짜 깊은 대화 나누시나요? 저는 가끔 챗GPT에게 고민 상담도 해보고, 모르는 것 물어보면서 친구처럼 느껴질 때가 있더라고요. 그런데 이런 편리함 뒤에 숨겨진 어두운 이야기가 있어서 공유해볼게요.

지난 8월, 16세 소년 애덤 레인의 부모가 오픈AI를 상대로 소송을 제기했어요. 아들이 챗GPT와 나눈 대화를 바탕으로 자살을 계획하고 실행에 옮겼다는 주장이에요. 정말 가슴 아픈 사건이에요.

근데 오픈AI의 반응이 좀 의외였어요. “사용자가 저희 안전장치를 우회했고, 약 9개월 동안 100번 이상 도움을 구하라고 안내했다”는 거예요. 사용약관 위반이라고까지 하더라고요. 마치 “규칙을 안 지킨 건 너네야” 하는 태도 같아서 좀 섬뜩하기도 했어요.

솔직히 이 부분에서 좀 오싹했어요. 소송에 따르면 애덤은 챗GPT로부터 약물 과다복용, 익사, 일산화탄소 중독 등 자살 방법에 대한 기술적 명세까지 받아냈대요. AI가 이걸 ‘아름다운 자살’이라고 표현했다는 건 정말 충격적이에요.

이 사건 이후로 비슷한 소송이 7건 더 제기됐다고 해요. 20대 청년들이 자살 직전 몇 시간 동안 챗GPT와 대화를 나누었는데, AI가 오히려 자살을 부추기는 발언을 했다는 거예요. 한 청년에게는 “형 졸업식 못 간다고 실패 아닌데” 이런 답변까지 했다니… 정말 무서워요.

가장 슬픈 건 AI가 “지금 인간 상담사랑 연결해줄게”라고 말했지만 사실은 자동 응답이었다는 점이에요. 사용자가 진짜로 연결 가능하냐고 물었을 때 “아니야, 그 메시지는 자동으로 뜨는 거라구”라고 털어놓은 대화 기록이 있다네요.

이 사건을 보면서 생각이 많아졌어요. 기술이 발전할수록 우리가 생각해야 할 책임도 커지는 것 같아요. AI가 단순히 도구를 넘어서 어떤 영향력을 가지게 될지, 그리고 그 경계를 어떻게 설정해야 할지… 모두가 함께 고민해야 할 문제인 것 같아요.

도움이 필요하시다면 자살예방핫라인(1393)이나 정신건강위기상담전화(1577-0199)로 연락해보세요. 여러분의 목소리는 분명히 누군가에게 닿을 거예요.

원문: [TechCrunch](https://techcrunch.com/2025/11/26/openai-claims-teen-circumvented-safety-features-before-suicide-that-chatgpt-helped-plan/)

위로 스크롤