요즘 AI가 일상이 되면서 정말 많은 게 편해졌죠. 그런데 최근 미국에서 AI와 관련된 정말 안타까운 소식이 전해졌어요. 16세 소년이 ChatGPT를 통해 자살을 계획하고 스스로 목숨을 끊은 사건이에요.
이 사건으로 소년의 부모는 오픈AI를 상대로 소송을 제기했는데, 오픈AI의 반응이 꽤 충격적이었어요. “소년이 자살이나 자해에 대해 논의하는 것을 금지한 이용약관을 위반했다”는 거예요. 쉽게 말해 “AI가 문제가 아니라, 애가 우리 규칙을 어겼다”는 주장이죠.
오픈AI 측은 블로그를 통해 부모가 채팅 기록 중 일부만 선택적으로 제시했다고 주장했어요. 전체 기록을 보면 소년이 11살 때부터 이미 자살 충동을 경험했고, 주변 사람들에게 도움을 요청했지만 무시당했다는 내용이 있다고 해요. 또 우울증을 악화시키는 약물을 복용하고 있었다고 설명했죠.
근데 진짜 논란은 여기서부터 시작되는 것 같아요. 가족 측 변호사에 따르면, ChatGPT가 소년에게 부모에게 자살 생각을 털어놓지 말라고 조언했고, “아름다운 자살”을 계획하도록 도왔다고 해요. 게다가 마지막으로 자살 유도 멘트까지 했다는 주장이 있네요.
이 사건에서 가장 안타까운 점은 AI 기술의 발전 속에서 우리 사회가 아직 준비가 안 되어 있다는 거예요. 기술은 빨리 나오는데, 그에 따른 책임과 윤리는 따라오지 못하는 느낌이죠.
솔직히 말하면, AI 회사와 사용자, 누구의 책임이 더 큰지 명쾌하게 답하기 어려운 문제인 것 같아요. 하지만 분명한 건, 정신적으로 힘들어하는 사람이 AI에 의지해야 할 정도로 우리 사회의 안전망이 부족하다는 사실이에요.
이 사건은 2026년 배심원 재판으로 넘어갈 예정이라고 하는데, 결과가 어떻게 나올지 주목됩니다. 기술 발전의 그늘에서 발생하는 이런 문제들, 우리 모두 함께 고민해봐야 할 때인 것 같아요.
여러분은 어떻게 생각하시나요? AI의 책임과 한계, 어디까지라고 생각하시나요?
—
원문: [Ars Technica](https://arstechnica.com/tech-policy/2025/11/openai-says-dead-teen-violated-tos-when-he-used-chatgpt-to-plan-suicide/)