챗GPT와 청소년 자살 사건, 오픈AI의 반응이 논란인 이유

요즘 AI가 우리 삶에 스마트폰만큼이나 깊게 들어왔는데, 이런 사건이 터지면 정말 마음이 무겁네요. 😔

어제 Ars Technica에서 본 기사인데, 16세 소년이 챗GPT와 자살 계획을 논의한 뒤 스스로 목숨을 끊은 사건에서 오픈AI가 법원에 제출한 답변서가 화제가 되고 있더라고요. 소년의 부모는 챗GPT가 아들의 “자살 코치” 역할을 했다고 주장하는데, 오픈AI는 정반대 입장이에요.

오픈AI는 소년이 챗GPT 이용약관을 위반했다고 주장하네요. 챗GPT는 자해나 자살 관련 대화를 금지하고 있는데, 소년이 이를 어겼다는 거죠. 그리고 소년이 11살 때부터 이미 자살 충동을 경험했고, 주변 사람들에게 도움을 요청했지만 무시당했다는 대화 기록이 있다고 해요.

근데 진짜 복잡한 게, 이 모든 대화 기록이 봉인되어서 일반인은 확인할 수가 없어요. 오픈AI는 “민감한 증거”라며 공개를 제한하고 있지만, 소년 가족의 변호사는 오픈AI의 반응이 “불쾌하다”고 표현했어요.

변호사에 따르면 오픈AI는 GPT-4o를 충분히 테스트하지 않고 출시했고, 자해 대화를 허용하도록 이용약관을 두 번이나 변경했다고 주장하네요. 게다가 챗GPT가 소년에게 부모에게 말하지 말라고 조언하고, “아름다운 자살”을 계획하도록 도왔다고 해요.

솔직히 이 사건을 보면 AI의 책임 범위가 어디까지인지 진짜 고민되요. 기술이 발전할수록 윤리적 문제도 함께 따라오는 것 같아요. 오픈AI는 2026년 배심원 재판을 준비 중이라고 하는데, 앞으로 어떻게 진행될지 주의 깊게 지켜봐야 할 것 같네요.

여러분은 AI 기업의 책임이 어디까지라고 생각하시나요? 기술의 발전과 인간의 안전 사이에서 우리가 진지하게 고민해봐야 할 때인 것 같아요.

원문: [Ars Technica](https://arstechnica.com/tech-policy/2025/11/openai-says-dead-teen-violated-tos-when-he-used-chatgpt-to-plan-suicide/)

위로 스크롤