요즘 AI로 만든 이미지나 영상 보면서 ‘와 이거 진짜 같다!’ 감탄한 적 있으시죠? 저는 최근에 AI가 생성한 여행 사진들을 보면서 순간 속았는데, 이 기술이 이제는 감탄을 넘어 걱정이 될 정도로 발전했더라고요.
테일러 스위프트나 스칼릿 요한슨 같은 세계적인 스타들이 AI 딥페이크 피해로 고생하고 있다는 소식, 들으셨나요? 본인도 모르는 사이에 성적 이미지로 합성되거나 가짜 발언 영상이 퍼지는 경우가 늘고 있거든요. 진짜 저희가 생각하는 것보다 훨씬 심각한 수준이에요.
근데 문제는 이게 스타들만의 문제가 아니라는 점이에요. 이제 AI가 화학, 생물학, 방사능 같은 민감한 분야까지 학습하면서 국가안보를 위협할 가능성까지 논의되고 있답니다. 마치 영화에서나 나올 법한 상황이 실제로 테스트되고 있다니, 좀 소름이 끼치지 않나요?
솔직히 말해서, AI 기술 발전 속도는 정말 놀랍지만 안전 장치는 따라가지 못하는 느낌이에요. 미국에서는 오픈AI의 새로운 영상 생성 모델 ‘소라2’가 너무 서둘러 출시된다고 비판하는 목소리도 나오고 있네요.
다행히 우리 정부도 이 문제를 심각하게 받아들이고 있는 것 같아요. 내년부터는 AI 기업들이 개발 단계부터 위험을 평가하고, 딥페이크 영상에는 반드시 ‘AI 생성물’ 표시를 하도록 의무화한다고 해요. 마치 영화나 드라마 시작할 때 ‘본 콘텐츠는 픽션입니다’ 하는 경고문 같은 거겠죠?
제가 스타트업에서 일하면서 느끼는 건데, 기술이 아무리 좋아도 사람들이 믿고 쓸 수 없으면 의미가 없더라고요. AI도 마찬가지인 것 같아요. 전문가 분들이 말씀하시듯 신뢰성과 안전성을 갖춰야 진정한 AI 생태계가 자랄 수 있다네요.
여러분은 AI가 만들어내는 콘텐츠, 얼마나 믿고 계신가요? 앞으로 더 발전할 AI 기술과 어떻게 안전하게 공존할지, 한번쯤 진지하게 생각해볼 때인 것 같아요.
—
원문: [전자신문](https://www.etnews.com/20251125000234)