오픈AI, 아동 성착취 신고 80배 급증…AI 시대의 어두운 그림자

요즘 AI로 그림 그리거나 문서 정리해보시는 분 많으시죠? 저도 가끔 챗GPT한테 아이디어 구할 때 물어보곤 하는데요. 그런데 이렇게 편리한 AI의 그림자에는 정말 무거운 문제가 숨어 있더라고요.

최근 오픈AI가 발표한 자료를 보니, 올해 상반기 동안 ‘미국 실종·학대 아동 센터(NCMEC)’에 아동 성착취 물질(CSAM) 관련 사건을 무려 75,027건이나 신고했다고 해요. 작년 같은 기간인 947건과 비교하면 거의 80배 가까이 뛴 수치거든요. 완전 어마어마한 증가율이죠.

근데 진짜 신기한 게, 이 숫자 자체가 무조건 나쁜 일이 80배로 늘었다는 뜻은 아니에요. 통계는 항상 함정이 있잖아요. 오픈AI 측 설명을 들어보면, 두 가지 큰 이유가 있었어요.

첫째는 당연히 사용자가 엄청나게 늘었기 때문이에요. 챗GPT 주간 활성 사용자 수가 작년보다 4배나 증가했다고 하네요. 스타벅스 매장 수가 4배로 뛰면 분명 문제가 발생할 건수도 늘어나는 것처럼, 플랫폼 규모가 커지면 자연스레 관리해야 할 리스크도 커지는 거죠.

둘째는 시스템을 직접 강화했기 때문이에요. 오픈AI는 2024년 말에 자동 검열 및 대응 능력을 높이기 위해 투자를 늘렸다고 밝혔어요. 마치 은행이 사기 거래 탐지 시스템을 업그레이드하면, 처음에는 이상 거래 신고가 잠깐 폭증하는 것과 비슷한 원리라고 볼 수 있겠네요. 더 잘 찾아내니까, 더 많이 신고하게 된 거죠.

솔직히 이 소식에서 가장 가슴이 무거웠던 부분은, 이게 오픈AI만의 문제가 아니라는 점이에요. NCMEC 자료를 보면, 생성형 AI와 관련된 전체 신고 건수가 2023년에서 2024년 사이에 무려 1,325%나 증가했다고 해요. AI 기술이 발전할수록 악용의 가능성도 함께 커지는 딜레마를 그대로 보여주는 수치인 것 같아요.

미국에서는 이미 44개 주 검찰총장이 오픈AI, 메타, 구글 등 주요 AI 기업들에게 공동 서한을 보내 경고를 했고, AI 챗봇이 청소년에게 미치는 해악을 조사하는 상원 청문회도 열렸다고 하네요. 기술의 발전 속도와 사회적 안전망을 만드는 속도의 격차가 점점 더 도드라지고 있는 느낌이에요.

이런 뉴스를 보면 항상 복잡한 생각이 들어요. 기술은 분명 우리 삶을 편리하게 만들고 있어요. 하지만 그 편리함의 이면을 어떻게 관리할지에 대한 고민은 기술 자체보다 훨씬 더 어려운 과제인 것 같네요. 투자할 때도 ‘성장성’만 보지 않고 ‘리스크 관리’를 어떻게 하는지 꼭 확인하잖아요. AI 기업들의 성장 이야기를 들을 때도, 이렇게 사회적 책임을 어떻게 감당해나가는지 꼼꼼히 살펴봐야 할 시점인 것 같아요.

다음번에 AI 도구를 편리하게 사용할 때면, 이 기술을 만드는 사람들과 우리 사회가 함께 짊어지고 있는 무게에 대해서도 잠시 생각해보게 되네요. 진짜 안전하고 신뢰할 수 있는 기술이란 무엇일까요?

원문: [Ars Technica](https://arstechnica.com/tech-policy/2025/12/openais-child-exploitation-reports-increased-sharply-this-year/)

위로 스크롤