요즘 AI 이야기 안 하는 데가 없죠? 챗GPT로 일정 정리하고, AI 그림 도구로 예쁜 이미지도 만들고. 근데 진짜 신기한 게, 기술이 이렇게 빨리 발전할수록 ‘뒷처리’가 더 중요해지는 느낌이에요. 막상 문제가 터졌을 때 누가 책임지고, 어떻게 우리 정보를 지킬지 같은 거요.
마침 그런 고민들을 한데 모아 논의한 학술대회가 열렸더라고요. 한국데이터법정책학회에서 ‘디지털 위험사회와 AI’를 주제로 열렸는데, 발표 주제들만 봐도 와… 현실에서 바로 벌어질 수 있는 문제들 투성이였어요.
예를 들어 데이터센터 화재 사례를 디지털 포렌식 관점에서 분석했다고 하네요. 우리가 매일 쓰는 모든 서비스—카카오톡, 뱅킹, 클라우드 저장소—의 데이터가 모여 있는 곳이 데이터센터인데, 거기에 불이나면 정말 난리가 나죠. 복구가 얼마나 어려울지 생각만 해도 아찔하네요.
또 우리나라가 마련 중인 ‘인공지능기본법’의 안전 규정이 적절한지 검토하는 발표도 있었고요. AI가 잘못된 판단을 해서 피해가 발생하면, 그 책임을 개발사가 질까요, 사용자가 질까요? 법이 기술을 따라잡지 못하면 큰 혼란이 생길 수밖에 없거든요.
가장 으스스했던 건 ‘해커의 움직임과 AI의 활용’이라는 세션이에요. 해커들도 AI를 활용해서 더 정교한 공격을 할 수 있다는 거죠. 보안 시스템을 뚫는 새 방법을 AI가 찾아낼 수도 있고, 피싱 메일을 완전 자연스러운 한국어로 작성할 수도 있을 테니까요. 기술은 양날의 검이라는 말이 딱 맞네요.
학회 이름도 ‘한국데이터인공지능법정책학회’로 바꾼다고 해요. AI 시대에 맞춰 법과 정책 논의를 더 본격화하겠다는 의지 같아요.
제 생각엔 우리가 기술의 ‘편리함’에만 주목할 때가 아닌 것 같아요. 투자할 때도 리스크 관리가 중요하듯이, 디지털 생활을 할 때도 ‘어떤 위험이 있을까?’를 한번쯤 생각해보는 게 필요해 보여요. 다음번에 AI 도구를 쓸 때, 혹은 개인정보를 입력할 때, 이 기술을 뒷받침하는 법과 보안 인프라는 충분할까? 하는 질문을 던져보는 거죠.
앞으로 어떤 법이 만들어지고, 우리 데이터를 어떻게 보호해줄지 계속 관심 가져야 할 것 같아요. 편리함과 안전, 두 마리 토끼를 다 잡을 수 있는 그날까지요!
—
원문: [전자신문](https://www.etnews.com/20251219000337)