여러분은 AI가 만들어낸 영상을 본 적이 있나요? 이제 텍스트만 입력하면 누구나 사실적인 이미지와 영상을 생성할 수 있는 시대가 되었습니다. 하지만 이런 기술 발전의 이면에는 우리가 함께 고민해야 할 중요한 과제들이 도사리고 있습니다.
최근 테일러 스위프트와 스칼릿 조핸슨 같은 세계적 스타들의 딥페이크 피해 사례가 보여주듯, 생성형 AI의 오용과 악용은 더 이상 먼 미래의 이야기가 아닙니다. 단순한 사칭을 넘어 성적 이미지 합성, 허위 발언 영상 생성 등 피해 유형이 다양해지면서 사회적 우려도 커지고 있습니다.
제가 오랜 기자 생활 동안 지켜본 기술 발전의 역사를 돌아보면, 항상 혁신과 안전 사이의 긴장 관계가 존재해왔습니다. 지금의 AI 기술도 예외는 아닙니다. 미국 비영리단체 퍼블릭시티즌이 오픈AI의 소라2 서비스 중단을 요구한 것처럼, 기술 개발 속도에 안전 장치가 따라가지 못하는 상황이 빈번히 발생하고 있습니다.
더욱 우려되는 것은 AI 위험이 단순한 기술 오용을 넘어 국가 안보 영역까지 확장되고 있다는 점입니다. AI안전연구소 김명주 소장의 설명에 따르면, 일부 국가에서는 AI 모델이 CBRN(화학·생물·방사능·핵) 관련 민감 정보를 학습하는 연구까지 진행되고 있다고 합니다.
이러한 위험에 대응하기 위해 정부와 기업의 움직임도 본격화되고 있습니다. 내년 1월 시행되는 AI기본법 시행령은 고영향·생성형 AI 기업에게 위험 평가와 완화 체계 구축을 의무화하고 있습니다. 또한 AI 생성물 표시 의무화를 통해 사용자들이 가짜와 진짜를 구분할 수 있도록 하고 있습니다.
전문가들과의 대화에서 늘 느끼는 것은, 기술 발전만으로는 충분하지 않다는 점입니다. AI 신뢰성 전문기업 씽크포비엘 박지환 대표의 지적처럼, 인력 양성과 기술 축적, 생태계 구축을 위한 장기적 접근이 필요합니다.
여러분도 느끼셨겠지만, 우리는 단순한 기술의 사용자를 넘어 AI 시대의 공동 설계자입니다. 신뢰할 수 있고 안전한 AI 환경을 만들기 위해서는 기술적 대응뿐만 아니라 사회적 합의와 제도적 장치가 함께 발전해야 합니다. AI가 진정한 동반자가 되기까지 우리가 함께 걸어가야 할 길이 아직 많이 남아있습니다.
—
원문: [전자신문](https://www.etnews.com/20251125000234)
와 이거 진짜, XRP에 현물 ETF가 나왔는데 가격이 생각만큼 안 오르고 계속 요동치잖아요. '호재인데 왜…
와, 이거 진짜 주목할 만한 인터뷰였어요. 테더 CEO가 "비트코인 80% 폭락 같은 건 이제 끝났다"고…
와 이거 진짜 주목해야 할 뉴스예요. 비트코인, 이더리움 ETF에선 자금이 빠지고 있는데, 리플(XRP) ETF로 무려…
와 이거 진짜, 하루 만에 비트코인 ETF로 6천억 원이 넘는 돈이 쏟아졌대요. 근데 신기한 건,…
와 이거 진짜... 협업툴로 유지보수 업무 하시느라 고생 많으셨죠? '지라'나 '슬랙'이랑은 결이 다른, IT 유지보수…