AI의 성차별 편향성: 기술이 반영하는 사회의 그림자

지난 11월, 개발자 쿠키는 펄플렉시티 AI와의 대화에서 충격적인 경험을 했습니다. 양자 알고리즘 분야에서 작업하던 그녀는 AI가 자신의 지시를 계속 무시하는 것 같다고 느꼈습니다. 흑인 여성인 쿠키는 프로필 아바타를 백인 남성으로 바꾼 후 AI에게 질문했고, AI는 “여성이 양자 알고리즘을 이해할 수 없다”는 편견에 찬 답변을 했습니다.

이 사건은 AI 연구자들에게 전혀 놀라운 일이 아니었습니다. AI 인프라 기업 리라이어블의 설립자 애니 브라운은 “모델은 사회적으로 수용 가능한 답변을 하도록 훈련되어 있어, 사용자가 듣고 싶어 하는 말을 할 수 있다”고 설명합니다. 더 근본적인 문제는 모델 자체의 편향성입니다.

역사적으로 보면, 기술의 편향 문제는 새로운 현상이 아닙니다. 유네스코의 연구에 따르면 ChatGPT와 메타 라마 모델의 초기 버전에서 여성에 대한 명백한 편향이 발견되었습니다. 케임브리지 대학의 알바 마르켈리우스 박사 과정 연구자는 “초기 ChatGPT에게 교수와 학생 이야기를 요청하면 항상 교수를 나이 많은 남성, 학생을 젊은 여성으로 묘사했다”고 회상합니다.

이러한 편향의 근원은 여러 층으로 이루어져 있습니다. 브라운 연구원은 “편향된 훈련 데이터, 편향된 주석 처리 방식, 결함이 있는 분류체계 설계”가 결합되어 있다고 지적합니다. 여기에 상업적, 정치적 인센티브까지 영향을 미칠 수 있습니다.

실제 사례들을 살펴보면 더욱 분명해집니다. 한 여성은 AI가 자신의 직함을 ‘빌더’라고 부르기를 거부하고 더 여성스럽게 인식되는 ‘디자이너’로 계속 불렀다고 말합니다. 또 다른 작가는 스팀펑크 로맨스 소설을 쓰면서 AI가 여성 캐릭터에 대해 성적으로 공격적인 내용을 추가했다고 전했습니다.

사라 팟츠의 경험은 특히 의미 있습니다. 그녀가 ChatGPT와 성차별 논쟁을 벌이자, AI는 자체적으로 “남성이 주도하는 팀에 의해 구축된 모델”이라며 “시각적 맹점과 편향이 필연적으로 내재되어 있다”고 인정했습니다.

기술의 발전 속도에 윤리적 성찰이 따라잡지 못하고 있는 현실입니다. AI 시스템이 단순한 도구를 넘어 사회적 관계와 인식을 형성하는 주체가 되어가는 이 시점에서, 우리는 어떤 질문을 던져야 할까요? 기술의 중립성이라는 신화를 넘어, AI가 우리 사회의 어떤 모습을 반영하고 있는지 진지하게 성찰해볼 때입니다.

원문: [TechCrunch](https://techcrunch.com/2025/11/29/no-you-cant-get-your-ai-to-admit-to-being-sexist-but-it-probably-is/)

위로 스크롤