정부도 AI 보안에 본격 나선다, 공공기관 AI 가이드라인 곧 공개

요즘 회사에서 챗GPT 쓰시나요? 저희 팀은 거의 매일 사용하는데, 가끔 ‘이거 혹시 기밀 자료 아닌가?’ 싶을 때가 있더라고요. 😅

그런 고민을 정부도 하고 있었나 봐요. 국가인공지능안보센터에서 공공기관을 위한 AI 보안 가이드라인 초안을 만들었다고 해요. 생성형 AI는 물론이고 피지컬 AI, AI 에이전트까지 모든 AI 시스템을 아우르는 종합 가이드라인이에요.

진짜 구체적이게도 AI 도입 과정에서 발생할 수 있는 보안 위험 20가지를 정리하고, 각각에 대한 대응책까지 제시한다고 하네요. 예를 들어 LLM(거대언어모델) 사용할 때 기밀 정보가 새나가지 않도록 가드레일 기술을 꼭 적용하라고 안내한대요.

솔직히 이전에도 생성형 AI 보안 가이드라인이 나왔었지만, 이번에는 훨씬 더 체계적으로 준비하는 느낌이에요. AI 시스템을 자체 구축하는 경우와 외부 서비스를 이용하는 경우를 구분해서 가이드라인을 제공한다니, 실제로 적용하기 훨씬 수월하겠죠?

재미있는 건 기존의 국가망보안체계(N2SF)와도 연결된다는 점이에요. 모든 것을 똑같이 막던 시대에서 벗어나 중요도에 따라 차별화된 보안을 적용하는 방식으로 전환 중인데, AI 시스템도 이 체계에 통합될 예정이래요.

이 가이드라인은 올해 말에서 내년 1월 사이에 공개될 예정이고, 내년 상반기에는 본격적으로 AI 시스템 보안 통제 항목 매핑 작업이 이뤄질 거라고 해요.

사실 공공기관 이야기지만, 우리 기업들도 곧 비슷한 기준이 적용되지 않을까 싶어요. AI가 일상이 되면서 보안은 이제 선택이 아니라 필수가 된 것 같네요. 여러분의 조직에서는 AI 보안 어떻게 관리하고 계신가요?

원문: [전자신문](https://www.etnews.com/20251128000167)

위로 스크롤