링크드인 알고리즘, 성별에 따라 다른 결과를 보여준다고? #WearthePants 실험 결과가 궁금해요

요즘 링크드인에서 본인 게시물 반응이 예전 같지 않다고 느끼시는 분 계신가요? 특히 여성 전문가 분들 사이에서 이런 이야기가 좀 나오고 있더라고요. 그런데 이게 단순한 우연이 아니라는 걸 보여주는 재미있는(하면서도 진지한) 실험이 있어서 소개해 드리려고 해요.

얼마 전부터 해시태그 #WearthePants라는 실험이 링크드인에서 진행됐어요. 간단히 말하면, 여성 사용자들이 자신의 프로필 이름과 성별을 남성으로 바꿔보고 게시물의 노출과 반응이 어떻게 변하는지 관찰한 거예요. 실험에 참여한 한 여성 전략가는 팔로워가 1만 명이 넘는데, 팔로워 2천 명 남짓한 남편의 글과 비슷한 조회수를 받는 게 이상하다고 느꼈대요. 그래서 성별만 ‘남성’으로 바꿨는데, 하루 만에 게시물 조회수가 238%나 뛰었다는 충격적인 결과가 나왔죠. 다른 참가자들도 비슷한 경험을 보고했고요.

솔직히 링크드인 측은 공식적으로 “알고리즘이 나이나 인종, 성별 같은 인구통계학적 정보를 콘텐츠 노출의 신호로 사용하지 않는다”고 해명했어요. 그런데 결과물만 보면 ‘음…?’ 싶은 게 사실이에요.

전문가들의 설명을 들어보면, 링크드인이 최근 도입했다는 LLM(대형 언어 모델) 때문일 가능성이 있어요. 이 AI 모델들은 결국 사람이 만든 데이터로 학습을 하는데, 그 데이터 자체에 이미 사회의 무의식적 편향(예를 들어 특정 성별이나 집단에 더 유리한 방식)이 녹아들어 있을 수 있다는 거죠. 쉽게 말해, AI가 우리 사회의 ‘그림자’를 배운 셈이에요. 그래서 개발자가 의도하지 않았더라도, 학습 데이터의 영향으로 특정 그룹의 콘텐츠가 덜 보일 수 있다는 분석이 나오고 있어요.

근데 진짜 복잡한 건, 알고리즘이 성별 하나만 보고 결정하는 게 아니라는 점이에요. 데이터 윤리 전문가에 따르면, 이건 수많은 수학적·사회적 변수가 동시에 작용하는 정교한 교향악과 같대요. 사용자가 어떤 콘텐츠와 상호작용하는지, 어떤 네트워크를 가지고 있는지 등 수십 개의 ‘레버’가 동시에 움직인다는 거죠. 성별 변경은 그 많은 레버 중 하나를 건드린 것일 뿐, 정확한 메커니즘은 아무도 모르는 ‘블랙박스’ 상태예요.

이 실험은 단순히 ‘링크드인이 성차별한다’를 넘어서요. AI가 우리 삶의 더 많은 부분을 결정하게 될 미래에, 그 결정의 공정성과 투명성을 어떻게 확보할지에 대한 중요한 질문을 던지고 있어요. 우리가 매일 쓰는 플랫폼의 알고리즘이 과연 얼마나 중립적일까? 라는 근본적인 의문이 생기네요.

저는 스타트업에서 일하면서 링크드인을 개인 브랜딩에 꽤 활용하는 편인데, 이 이야기를 듣고 나니 좀 복잡한 기분이 들어요. 단순한 기술의 문제가 아니라, 우리 사회가 AI에게 어떤 모습을 보여주고 있는지 되돌아보게 만드는 사건인 것 같아요. 여러분은 어떻게 생각하시나요?

원문: [TechCrunch](https://techcrunch.com/2025/12/12/ok-whats-going-on-with-linkedins-algo/)

위로 스크롤