요즘 AI 이야기가 여기저기에서 들리는데, 이제 정부도 본격적으로 움직이기 시작했네요. 국가정보원에서 국가와 공공기관을 위한 AI 보안 가이드라인을 준비 중이라고 해요.
그런데 이번 가이드라인은 작년에 나온 생성형 AI 가이드라인보다 훨씬 더 포괄적이에요. 생성형 AI부터 피지컬 AI, AI 에이전트까지 다양한 AI 기술을 모두 아우른다고 하니까요. 특히 AI 시스템을 도입할 때 발생할 수 있는 20가지 위험 상황과 그에 대한 대응책을 구체적으로 제시할 예정이랍니다.
제가 가장 관심 가는 부분은 AI 시스템을 자체 구축하는 경우와 외부 서비스를 이용하는 경우를 구분해서 가이드라인을 제공한다는 점이에요. 예를 들어 챗GPT 같은 외부 AI 서비스를 쓸 때는 기밀 정보가 유출되지 않도록 하는 ‘가드레일’ 기술을 꼭 적용해야 한다고 안내한다네요.
그런데 이번 가이드라인은 정부가 추진 중인 국가망보안체계(N2SF)와도 연결될 거라고 해요. N2SF는 모든 것을 똑같이 막는 게 아니라 업무의 중요도에 따라 차별화된 보안을 적용하는 새로운 방식인데, AI 시스템에도 이 원칙이 적용된다는 뜻이죠.
실제로 국정원은 지난 9월 N2SF 보안 가이드라인을 공개하면서 생성형 AI 활용이나 공공 데이터와 외부 AI의 융합 같은 경우도 포함시켰어요. 이제는 AI도 국가 보안 체계 안에서 체계적으로 관리되려는 움직임이 보이네요.
이 가이드라인은 대통령실 국가안보실과 AI수석실에 보고를 마친 후 올해 말이나 내년 1월에는 공개될 예정이라고 해요. 그리고 내년 상반기에는 N2SF 기반으로 AI 시스템의 보안통제 항목을 매핑하는 작업도 진행될 거라니, 정말 체계적으로 준비하고 있군요.
여러분도 느끼셨겠지만, AI가 이제는 단순한 기술을 넘어 우리 사회의 중요한 인프라가 되어가고 있어요. 하지만 새로운 기술일수록 안전하게 사용하는 방법을 함께 배워야 하는 법이죠. 정부의 이번 움직임이 우리나라의 AI 발전에 든든한 버팀목이 되길 바라봅니다.
—
원문: [전자신문](https://www.etnews.com/20251128000167)