요즘 AI 없이는 하루도 못 살 것 같지 않나요? 회사에서도 챗GPT 쓰고, 개인적으로는 각종 AI 도구들 활용하느라 정말 바쁜데요. 그런데 이렇게 AI가 일상이 되다 보니 보안 문제도 점점 중요해지고 있더라고요.
드디어 정부도 본격적으로 나섰네요! 국가정보원 산하 국가인공지능안보센터에서 공공기관을 위한 AI 보안 가이드라인 초안을 만들었다고 해요. 작년에 생성형 AI 가이드라인을 낸 데 이어 이번에는 더 다양한 AI 시스템을 아우르는 comprehensive한 버전이랍니다.
가이드라인 내용을 보면 진짜 세세하게 준비했더라고요. AI 시스템을 자체 구축할 때와 외부 서비스를 이용할 때를 구분해서 설명하고, 도입 과정에서 발생할 수 있는 위험 요소 20가지를 꼼꼼히 분석했다고 하네요. 마치 AI 사용 설명서에 보안 매뉴얼까지 곁들인 느낌이에요.
제일 관심 갔던 부분은 LLM(거대언어모델) 사용할 때 기밀 정보 보호하는 방법이에요. 회사에서 챗GPT 쓸 때 ‘이거 입력해도 될까?’ 망설여졌던 경험 다들 있으시죠? 공공기관에서는 더 심각한 문제일 테니 가드레일 기술이 정말 중요할 것 같아요.
국가망보안체계(N2SF)와도 연계된다는 점도 눈에 띄네요. 이제는 무조건 망분리만 고집하지 않고, 업무 중요도에 따라 차별화된 보안을 적용하는 방식으로 전환한다고 해요. 현실적인 접근이라서 좋은 것 같아요.
이 가이드라인은 올해 말이나 내년 1월쯤 공개될 예정이라고 하는데, 기대가 되네요. 공공기관뿐만 아니라 일반 기업들도 참고하면 정말 유용할 것 같아요.
AI가 우리 삶에 깊숙이 들어온 만큼, 이제는 ‘어떻게 쓰느냐’보다 ‘어떻게 안전하게 쓰느냐’가 더 중요한 시대가 된 것 같아요. 여러분은 AI 보안, 얼마나 신경 쓰고 계신가요?
—
원문: [전자신문](https://www.etnews.com/20251128000167)