요즘 챗GPT나 각종 AI 도구들, 정말 많이 쓰시죠? 저는 회사 일부터 개인적인 질문까지 막 궁금한 걸 물어보고 있는데, 가끔은 ‘이 정보 진짜 맞아?’ 싶을 때가 있더라고요. AI가 만들어낸 허위 정보나 편향된 결과에 대한 우려도 커지는 것 같고요. 그런데 마침 내년 1월부터 ‘AI 기본법’이 시행된다고 해요. 이걸 앞두고 정말 중요한 움직임이 시작됐네요.
바로 AI가 믿을 만한 기술인지를 검증하고 인증하는 민간 주도의 생태계를 만드는 작업이 본격화됐거든요. 한국정보통신기술협회(TTA)가 중심이 된 ‘AI 신뢰성 얼라이언스’라는 곳에서 워크숍을 열고, 구체적인 실행 계획을 발표했어요. 이 얼라이언스는 대학, 연구소, 대기업부터 스타트업, 공공기관까지 다 같이 참여하는 오픈형 협의체라고 하네요.
솔직히 규제라고 하면 좀 딱딱하고 불편할 것 같지만, 이번 접근법은 다르게 느껴져요. 과학기술정보통신부 관계자분 말씀도, “민간의 자율과 창의를 지원하면서 국민 우려를 완화하는 방향”이라고 했거든요. 쉽게 말해, 필요 이상으로 AI 발전을 막지 않으면서도, 우리가 안심하고 쓸 수 있는 기준을 함께 만든다는 느낌이에요. 기술 발전과 안전 사이의 줄다리기에서 균형점을 찾는 거죠.
이 얼라이언스는 크게 세 가지 일을 할 계획이에요. 첫째는 ‘정책과 거버넌스’ 분야로, AI 기본법에 맞는 공통 인증 기준과 방법을 만드는 거예요. 둘째는 ‘기술과 표준’ 분야로, 실제로 신뢰성을 평가할 수 있는 기술과 도구를 연구하고 표준화하는 일이에요. 셋째는 ‘인증과 교육’ 분야로, 기업들이 인증을 쉽게 받을 수 있도록 도와주고 전문 인력을 키우는 거죠.
제 생각엔 이게 특히 중요한 게, AI는 특정 앱 하나에만 쓰이는 게 아니라 우리 생활 전반에 스며들 기술이잖아요? 건강 관리 앱에서의 AI, 금융 서비스에서의 AI, 자동차에서의 AI… 모두 다른 분야인데, 신뢰성 검증 체계가 너무 제각각이면 혼란스러울 거예요. 그래서 기본적인 공통 기준을 먼저 세우고, 그 위에 각 분야의 특수성을 더하는 구조를 목표로 한다고 하니, 현실감 있는 접근법이라는 생각이 들어요.
앞으로 얼라이언스는 인증 정보를 한눈에 볼 수 있는 홈페이지도 만들고, 기업을 위한 교육과 컨설팅도 제공할 예정이라고 해요. 중장기적으로는 AI 신뢰성을 평가하는 전문 심사원을 양성하는 체계도 만든다니, 하나의 새로운 생태계가 만들어지는 걸 보는 기분이에요.
이런 노력들이 잘 정착되면, 앞으로 우리가 AI 서비스를 고를 때 ‘이건 믿을 만한 인증을 받은 AI야’ 같은 정보를 참고할 수 있는 날이 올지도 모르겠네요. 투자할 때도 신뢰성 평가는 중요한 지표가 되겠죠? 기술이 아무리 빨리 발전해도, 그 기술을 받아들이는 우리의 ‘믿음’이 없으면 소용없는 법이니까요. AI가 단순히 ‘똑똑한’ 도구를 넘어서 진짜 ‘믿을 수 있는’ 파트너가 되기까지의 과정, 계속 관심 있게 지켜봐야 할 것 같아요.
—
원문: [전자신문](https://www.etnews.com/20251212000336)