AI 보안이 핫한데, 정부가 ‘제로 트러스트’로 무장한다고요?

요즘 AI 쓰시나요? 저는 업무 효율 올리려고 이것저것 써보고 있는데, 정말 편하긴 해요. 그런데 한편으로는 은근히 불안하기도 하거든요. 내 대화 내용이나 데이터가 안전할까? 하는 생각 말이에요.

이런 고민, 정부도 똑같이 하는 모양이에요. 그래서 AI 개발하고 이용할 때 보안을 철저히 하기 위한 ‘제로 트러스트’ 보안 모델을 만들겠다고 나섰네요. 한국인터넷진흥원(KISA)에서 연구에 착수했다고 해요.

‘제로 트러스트’가 뭐냐면, 말 그대로 ‘아무것도 믿지 말자’는 보안 철학이에요. 예전 방식은 회사 건물 출입증만 있으면 내부는 다 믿고 들어갈 수 있었던 거랑 비슷해요. 그런데 출입증 훔친 해커가 들어오면 막을 방법이 없었죠.

제로 트러스트는 그 반대예요. 출입증 있어도, 내부에 들어와도, 하는 일마다 계속 “너 누구야? 여기 들어와도 돼?” 하고 확인을 반복하는 거죠. 완전 불신의 연속인데, 보안에는 이게 더 효과적이라고 해요.

근데 진짜 중요한 건, 이 원칙을 AI 환경에 딱 맞게 커스텀한다는 점이에요. 미국이나 유럽도 AI 보안 가이드라인을 마련하는 등 각국이 안전 장치 만드는데 혈안인데, 우리나라도 내년 AI기본법 시행을 앞두고 본격적으로 움직이는 느낌이에요.

국내 기업들이 에이전트 AI나 온디바이스 AI를 어떻게 쓰는지 분석해서, 거기서 발생할 수 있는 위협을 미리 파악하고 대응 모델을 만든다고 하니 좀 더 실용적일 것 같아요. 마치 우리 집 구조에 맞는 맞춤형 도어락을 설치하는 거랑 비슷하지 않을까요?

과학기술정보통신부랑 국가정보원도 최근 각각 AI 보안 가이드라인을 냈고, 정보보호 업계에서는 “보안 없는 AI는 사상누각”이라고 강조하더라고요. AI 서비스를 설계할 때부터 보안을 심어놔야 한다는 ‘보안 중심 설계’가 핵심이래요.

결국 AI가 우리 생활에 더 깊숙이 들어올수록, 그만큼 신뢰가 중요해지는 거겠죠. 재미있고 편한 기능만 쏙쏙 챙기기 전에, 그 뒷면의 안전장치가 어떻게 만들어지고 있는지 관심을 가져보는 것도 좋을 것 같아요. 다음에 챗GPT나 클로드 쓸 때, ‘이 대화는 안전할까?’ 한 번쯤 생각해보게 되네요.

원문: [전자신문](https://www.etnews.com/20251212000251)

위로 스크롤