정부도 AI 보안에 본격 나선다, 공공기관용 가이드라인 곧 공개돼요

요즘 AI 없이는 하루도 살기 힘들어지지 않았나요? 회사에서도 챗GPT 쓰고, 개인적으로도 AI 도구들 많이 활용하시죠. 그런데 공공기관에서 AI를 도입할 때는 보안 문제가 정말 중요하거든요.

이번에 국가인공지능안보센터에서 공공기관용 AI 보안 가이드라인 초안을 만들었다고 해요. 생성형 AI부터 피지컬 AI, AI 에이전트까지 모든 종류의 AI를 다루는 종합 가이드라인이라고 하네요.

가이드라인에는 AI 도입 시 발생할 수 있는 위험 상황 20가지와 그에 대한 대응 방법이 담겨 있을 예정이에요. 데이터를 학습시키고 실제로 시스템에 적용하는 모든 과정에서 어떤 보안 조치를 취해야 하는지 상세히 안내한다고 하니까, 마음 놓고 AI를 활용할 수 있는 기준이 생기겠죠?

제가 가장 관심 가졌던 부분은 LLM(거대언어모델) 사용할 때 내부 기밀 유출을 막는 가드레일 기술이에요. 마치 위험한 곳에 안전护栏를 설치하는 것처럼, AI가 민감한 정보를 함부로 유출하지 못하도록 막아주는 기술이랍니다.

이 가이드라인은 올해 말이나 내년 1월쯤 공개될 예정이고, 내년 상반기에는 국가망보안체계와 연계한 작업도 이뤄질 거라고 해요. 과거처럼 무조건 망을 분리하는 방식이 아니라, 업무 중요도에 따라 차등적으로 보안을 적용하는 현실적인 접근법이 참 인상적이에요.

솔직히 말씀드리면, 저는 이런 가이드라인이 나온 게 매우 반갑네요. AI 기술이 발전할수록 보안 문제는 더 중요해지는데, 체계적인 지침이 있다면 기관들도 더 안전하게 AI를 도입할 수 있을 테니까요.

다음에 공공기관 웹사이트나 앱을 이용할 때, 뒤에서는 이런 철저한 보안 가이드라인이 적용되고 있겠구나 싶으면서도 한편으로는 우리 개인정보도 이렇게 잘 보호되고 있을까 하는 생각이 드네요. 기술 발전과 보안, 이 두 마리 토끼를 모두 잡을 수 있을지 지켜봐야 할 것 같아요.

원문: [전자신문](https://www.etnews.com/20251128000167)

위로 스크롤