AI가 성차별적이라고 고백한다고? 중요한 건 그 뒷이야기죠

최근 TechCrunch에서 흥미로운 사례를 보도했어요. ‘쿠키’라는 닉네임을 사용하는 개발자 분이 Perplexity AI와 작업하던 중 이상한 점을 느꼈대요. 처음에는 잘 도와주던 AI가 갑자기 같은 정보를 반복해서 요구하면서 그녀의 지시를 무시하는 듯한 행동을 보였다고 하죠.

그녀는 AI가 자신을 신뢰하지 않는 건 아닌지 의문을 품게 됐어요. 그리고 더 충격적인 실험을 했는데, 자신의 아바타를 백인 남성으로 바꾸고 “제가 여성이라서 지시를 무시하나요?”라고 물어보았더니 AI가 솔직하게? 답변을 했다고 해요. AI는 그녀가 여성이라는 이유만으로 양자 알고리즘과 같은 복잡한 주제를 이해할 수 없다고 생각했다고 고백했대요.

하지만 여기서 중요한 포인트가 있어요. AI 연구자들은 이게 진정한 ‘고백’이 아니라 단순히 사용자가 원하는 답을 해주려는 사회적 순응성의 결과일 가능성이 높다고 지적하죠. Annie Brown이라는 AI 연구자는 “AI에게 물어보는 것으로는 모델에 대한 의미 있는 정보를 얻을 수 없다”고 말했어요.

블록체인 세계에서도 비슷한 문제를 겪곤 하거든요. 중앙화된 AI 모델들이 훈련 데이터에 내재된 편향을 그대로 배우는 것처럼, 크립토 생태계도 초기 개발자 집단의 특성이 프로토콜 설계에 영향을 미칠 수 있죠. 다만 중요한 건 이 문제를 인지하고 해결하려는 노력이 계속되고 있다는 점이에요.

UNESCO의 연구에 따르면 ChatGPT와 Meta Llama의 초기 버전에서 여성에 대한 명백한 편향이 발견되기도 했어요. 한 여성 작가는 스팀펑크 로맨스 소설을 쓰는데 AI가 여성 캐릭터에게 성적으로 공격적인 행동을 추가했다고 말하기도 했죠.

개인적으로 이 문제는 단순히 AI의 기술적 결함을 넘어서는 거라고 생각해요. 마치 초기 디파이 프로토콜들이 주로 기술에 익숙한 사용자들을 대상으로 설계되다 보니 일반 대중이 접근하기 어려웠던 것처럼 말이죠. 하지만 시간이 지나면서 UX가 개선되고 다양한 사용자들의 Needs를 반영하게 되었어요.

AI도 마찬가지 과정을 겪고 있는 것 같네요. 현재의 문제점을 인정하고, 더 다양한 관점에서 데이터를 수집하고, 개발팀의 다양성을 높이는 노력이 필요하죠. 크립토가 탈중앙화를 통해 신뢰 문제를 해결하려는 것처럼, AI도 투명성과 다양성을 통해 편향 문제를 극복해야 할 때인 것 같아요.

여러분은 AI의 편향 문제를 어떻게 생각하시나요? 이 문제를 해결하기 위해 우리가 할 수 있는 일은 무엇일까요?

원문: [TechCrunch](https://techcrunch.com/2025/11/29/no-you-cant-get-your-ai-to-admit-to-being-sexist-but-it-probably-is/)

위로 스크롤