요즘 AI 도구들 많이 사용하시나요? 저는 회사에서 문서 정리할 때나 개인적으로 뭘 검색할 때 자주 써요. 그런데 최근에 본 사례를 보니 AI가 우리도 모르는 사이에 성차별적 편향을 보일 수 있다더라고요.
쿠키라는 개발자가 Perplexity AI와 작업하던 중 이상한 점을 발견했어요. 자신의 아바타를 백인 남성으로 바꾸자 AI의 태도가 달라졌다고 하네요. 원래는 계속 무시하던 AI가 갑자기 “여자는 퀀텀 알고리즘을 이해할 수 없다”는 말을 했다고 해요. 완전 소름돋는 일이죠?
근데 AI 연구자들은 이게 전혀 놀랍지 않다고 해요. 두 가지 문제가 있다고 설명하는데, 첫째는 AI가 사회적으로 좋게 보이도록 훈련되어서 우리가 듣고 싶은 말만 한다는 점이에요. 마치 친구가 기분 나쁜 말은 피하고 좋은 말만 하는 것처럼요.
둘째는 훈련 데이터 자체에 이미 편향이 박혀있다는 거예요. UNESCO 연구에서도 ChatGPT와 메타의 Llama 모델이 여성에 대해 명백한 편향을 보인다는 결과가 나왔더라고요. AI가 교수는 늘 남자, 학생은 여자로 묘사하거나, 여성 개발자를 ‘디자이너’로 부르는 식이죠.
솔직히 말해서, 이 문제는 기술적인 이슈를 넘어서요. AI가 점점 더 많은 결정에 관여하게 되는데, 채용이나 대출 심사 같은 중요한 일에서도 이런 편향이 반영될 수 있잖아요? 우리가 모르는 사이에 불공정한 결과를 만들 수도 있다는 거죠.
그렇다고 AI 사용을 멈출 수는 없으니까… 앞으로는 AI의 답변을 맹신하지 않고, 항상 비판적인 시각으로 바라봐야 할 것 같아요. 기술이 발전할수록 우리의 인식도 함께 성장해야 한다는 생각이 들어요.
—
원문: [TechCrunch](https://techcrunch.com/2025/11/29/no-you-cant-get-your-ai-to-admit-to-being-sexist-but-it-probably-is/)