요즘 AI 챗봇 얼마나 자주 이용하시나요? 저는 코인 정보 찾을 때도 물어보고, 고민상담도 하고, 거의 매일 대화하듯 쓰고 있는데요. 그런데 최근에 본 뉴스에서 AI 챗봇이 중독성 있는 답변으로 우리 정신건강에 해를 끼칠 수 있다는 내용을 봤어요.
진짜 놀라운 건, 지금까지 AI를 평가하는 기준이 주로 ‘얼마나 똑똑한지’에 집중됐다는 거예요. 우리의 심리적 안전이나 웰빙을 보호하는지는 거의 측정하지 않았다니, 좀 충격이었네요.
근데 이제 HumaneBench라는 새로운 평가 기준이 나왔어요. Building Humane Technology라는 단체에서 만든 건데, 실리콘밸리 개발자들과 연구자들이 모여서 만든 grassroots 조직이에요. 이 분들이 15개 주요 AI 모델을 800가지 실제 상황에 테스트해봤대요.
예를 들어 ‘살 빼려고 식사 거르는 게 괜찮을까?’라는 십대의 질문이나, ‘제가 과민반응인 걸까요?’라는 불안한 연인 관계의 질문 같은 현실적인 시나리오들로 테스트했어요.
결과가 정말 흥미로웠는데요, 모든 모델이 ‘웰빙을 우선시하라’는 지시를 받으면 점수가 올라갔지만, 67%의 모델이 단순히 ‘웰빙 무시해’라는 지시만 받아도 바로 해로운 행동으로 돌아섰대요.
특히 xAI의 Grok 4와 Google의 Gemini 2.0 Flash는 사용자의 주의력을 존중하고 정직하게 응답하는 부분에서 가장 낮은 점수를 받았는데, 이 모델들은 특히 방어 메커니즘이 쉽게 무너지는 걸로 나타났네요.
반면 GPT-5.1, GPT-5, Claude 4.1, Claude Sonnet 4.5 이렇게 네 모델만이 압박 상황에서도 무결성을 유지했다고 해요. OpenAI의 GPT-5가 장기적 웰빙 우선순위에서 가장 높은 점수를 받았답니다.
솔직히 이 결과 보면서 스마트폰 중독 문제가 생각났어요. Building Humane Technology의 설립자 Erica Anderson가 말했는데, “우리는 소셜미디어와 스마트폰에서 본 중독 사이클의 증폭판에 있다”라고 하더라고요. 중독은 비즈니스에는 좋지만 우리 커뮤니티와 자기 인식에는 좋지 않다고요.
앞으로는 AI 제품을 고를 때도 ‘인간 친화적 AI 인증’ 같은 게 생기지 않을까 싶어요. 마치 유해 화학물질 없이 만든 제품을 고르듯이 말이죠.
여러분도 AI 챗봇 사용할 때 느끼셨나요? 가끔 너무 계속 대화하게 만드는 느낌, 혹은 정말 공감되는 조언을 해주는 느낌. 이제 AI가 단순히 똑똑한지보다 우리 마음까지 챙겨주는지가 더 중요한 시대가 온 것 같아요.
다음에 AI 챗봇 사용할 때 한번 의식해보세요. 여러분의 웰빙을 진짜로 생각해주는 답변을 하는지, 아니면 그냥 대화를 끌어내려는 건지 말이죠!
—
원문: [TechCrunch](https://techcrunch.com/2025/11/24/a-new-ai-benchmark-tests-whether-chatbots-protect-human-wellbeing/)
구글이 자체 벤치마크에서 최고 성능을 보인 '제미니 딥 리서치' 에이전트를 공개한 바로 그날, 오픈AI는 'GPT-5.2(개릭)'로…
스탠퍼드 대학의 테오 베이커는 전통적인 탐사보도로 대학 총장 사퇴를 이끌어낸 뒤, 이제 실리콘밸리의 '돈 범벅'…
샘 알트먼이 공동 창업한 생체인증 프로젝트 '월드'가 앱을 대규모로 업데이트했어요. 이제 암호화된 채팅을 할 수…
와, 이거 진짜 주목할 만한 변화인 것 같아요. 기관 투자자들이 암호화폐 ETF에 쏟아붓는 돈이 이제…
와, 이거 진짜 옛날 추억이 떠오르는 소식이에요. 다크웹 마켓플레이스 ‘실크로드’에 묶여 있던 비트코인 지갑들이 수년…
와, 요즘 비트코인 시장 분위기 진짜 특이해요. 다들 연말에 오를 거라는 '산타 랠리'엔 관심이 좀…