요즘 챗GPT나 이미지 생성 AI 쓰시나요? 저는 일할 때도, 그냥 궁금한 거 물어볼 때도 습관처럼 쓰게 되더라고요. 그런데 이렇게 우리 생활 깊숙이 들어온 AI의 그늘진 면에 대한 소식이 있어서 가져와 봤어요.
오픈AI가 최근 발표한 자료에 따르면, 2025년 상반기에 아동 성착취물(CSAM) 의심 사례를 미국 국립 실종·학대 아동 센터(NCMEC)에 신고한 건수가 무려 80배나 급증했다고 해요. 2024년 상반기 947건에서 2025년 상반기 75,027건으로 뛴 거죠. 처음 들으면 정말 소름 끼치는 숫자이긴 해요.
근데 여기서 우리가 ’80배’라는 숫자만 보고 “와 AI 세상 무서워” 하고 넘어가면 안 될 것 같아요. 통계라는 게 항상 그렇지만, 숫자 뒤에는 여러 이야기가 숨어있거든요. 오픈AI 측은 이 증가가 단순히 범죄가 늘어서라기보다, 두 가지 큰 변화 때문이라고 설명하고 있어요.
첫째는 당연히 사용자가 엄청나게 늘었기 때문이에요. 챗GPT 주간 활성 사용자가 1년 전보다 4배나 증가했다고 하네요. 사용자가 많아지면, 아무리 작은 비율이라도 절대적인 문제 건수는 늘어날 수밖에 없죠. 둘째는 회사가 적극적으로 문제를 찾아내고 신고하는 시스템을 2024년 말에 크게 강화했기 때문이라고 해요. 쉽게 말해, 예전에는 눈감고 넘어갔을지 모를 미세한 신호까지도 이제는 잡아내서 신고하고 있다는 거예요.
이런 맥락에서 보면, 신고가 급증한 건 오히려 ‘감시와 대응이 더 철저해졌다’는 반증으로 볼 수도 있어요. 마치 경찰이 단속을 더 세게 하니까 적발 건수가 늘어나는 것과 비슷한 이치죠. 실제로 생성형 AI와 관련된 전체 신고는 2023년에서 2024년 사이에 무려 1,325%나 증가했다고 하니, 이건 전 산업적인 흐름인 것 같아요.
하지만 솔직히, 이 모든 설명이 우리의 걱정을 완전히 덜어주진 않아요. 왜냐면 AI의 위험은 아동 성착취물 문제만이 아니거든요. 올해 여름에는 미국 44개 주 검찰총장이 오픈AI, 메타, 구글 등 주요 AI 기업들에게 공동 서한을 보내며 “AI 제품으로부터 아이들을 보호하기 위해 모든 권한을 동원하겠다”고 경고하기도 했어요. 심지어 챗봇이 청소년의 자살에 기여했다는 주장으로 소송이 제기된 사례도 여러 건 있었고요.
결국 기술이 발전할수록, 그 기술을 어떻게 관리하고 통제할지에 대한 질문은 더 커지는 것 같아요. 오픈AI의 신고 급증은 그 질문을 우리에게 다시 던지는 계기가 되고 있네요. 단순히 ‘AI가 무서워’라고 외치기보다, ‘어떻게 하면 이 강력한 도구를 더 안전하게 만들 수 있을까’를 고민해보는 게 중요하지 않을까요?
블록체인 투자할 때 ‘코인 자체의 기술’과 ‘그 코인이 쓰이는 환경(거래소, 법률)’을 따로 보잖아요? AI도 마찬가지인 것 같아요. 혁신적인 모델 자체도 중요하지만, 그 모델이 어떤 규율 안에서, 어떻게 사용되어야 하는지에 대한 사회적 합의는 더 중요해질 거예요. 이번 통계는 그런 대화의 시작점이 되어야 하지 않을까 싶네요.
—
원문: [Ars Technica](https://arstechnica.com/tech-policy/2025/12/openais-child-exploitation-reports-increased-sharply-this-year/)