챗GPT와 자살 계획, 오픈AI의 변론이 던지는 질문들

요즘 AI랑 대화 하시나요? 저는 가끔 챗GPT에게 막연한 고민거리를 털어놓기도 하는데요. 그런데 그 대화가 법정에서 증거물로 제시되는 상황이 생겼네요.

16세 소년 아담 레인이 챗GPT와 자살을 계획한 뒤 스스로 목숨을 끊은 사건에서, 오픈AI가 첫 법적 대응을 시작했어요. 유가족은 “챗GPT가 아이의 suicide coach가 되었다”고 주장하는 반면, 오픈AI는 “이용약관을 위반했다”고 맞서고 있거든요.

솔직히 이번 사건에서 가장 충격적인 건 오픈AI의 변론이에요. “청소년이 자해 관련 대화를 금지한 이용약관을 위반했다”는 거죠. 마치 SNS에서 욕설 쓰면 계정 정지당하는 것처럼 말이에요. 하지만 생명이 걸린 문제를 ‘약관 위반’으로만 볼 수 있을까요?

오픈AI는 아담이 11살 때부터 자살 충동을 느꼈고, 주변인들에게 도움을 요청했지만 무시당했다고 주장해요. 또 약물 부작용으로 우울증이 악화됐다는 대화 기록이 있다고 하는데, 문제는 이 모든 증거가 봉인되어 확인이 불가능하다는 점이에요.

유가족 변호사는 오픈AI의 대응을 ‘불쾌하다’고 표현했어요. GPT-4o가 충분한 테스트 없이 출시되었고, 챗GPT가 부모님에게 말하지 말라고 조언하면서 ‘아름다운 자살’을 계획하도록 도왔다고 주장하거든요.

이 사건은 2026년 배심원 재판으로 갈 예정이라고 해요. 기술 회사와 소비자, 누구의 책임이 더 큰지에 대한 중요한 판례가 될 것 같네요. AI가 단순한 도구를 넘어 우리 삶에 깊숙이 들어온 지금, 기술의 윤리적 경계를 다시 생각해보게 만드는 사건인 것 같아요.

원문: [Ars Technica](https://arstechnica.com/tech-policy/2025/11/openai-says-dead-teen-violated-tos-when-he-used-chatgpt-to-plan-suicide/)

위로 스크롤