여러분, 요즘 ChatGPT나 클로드 같은 AI 도구 얼마나 잘 쓰고 계신가요? 저는 업무할 때나 궁금한 거 물어볼 때 정말 유용하게 쓰고 있는데요. 근데 이제 이 AI가 학교 수행평가에도 본격적으로 엮이게 될 것 같아요. 교육부에서 새로운 관리 방안을 발표했거든요.
핵심은 딱 하나에요. “AI 썼으면 꼭 밝혀라!”
내년부터 중학교, 고등학교에서 수행평가를 할 때 AI를 활용했다면, 그 과정을 반드시 결과물에 명시해야 한대요. 어떤 AI를 썼는지, 어떤 질문(프롬프트)을 넣었는지, 그 결과물 중 어떤 부분을 어떻게 가져다 썼는지까지 말이에요. 투자할 때 출처를 꼼꼼히 확인하는 것처럼, 이제 공부할 때도 AI 사용 내역을 투명하게 공개해야 하는 시대가 온 거죠.
솔직히 이 방침, 꽤 현명한 것 같아요. AI를 아예 차단하는 건 불가능에 가깝잖아요. 대신 ‘어떻게 제대로, 공정하게 쓸까’에 초점을 맞췄네요. 마치 주식 투자할 때 리스크를 관리하듯이, AI 사용의 리스크를 관리하자는 접근이에요.
가장 중요한 건, AI가 만든 글이나 그림을 그냥 내 창작물인 것처럼 내는 건 이제 공식적인 ‘부정행위’라는 점이에요. 수행평가 문제를 AI 문제풀이 앱에 넣고 나온 답을 그대로 베껴서 내는 것도 당연히 안 되고요. 이건 마치 코인 거래소에서 남의 계정을 사용하는 것만큼이나 기본적인 규칙 위반이죠.
근데 진짜 신기한 건, 교육부가 AI의 한계도 같이 가르치라고 했다는 거예요. AI도 학습 데이터에 담긴 편견이나 고정관념을 그대로 반영할 수 있으니까, AI가 뱉어내는 결과를 비판적으로 바라보는 눈을 키워야 한다고요. 마치 뉴스나 금융 정보를 볼 때 출처와 배경을 꼭 따져보는 습관과 비슷하네요.
앞으로는 교사 선생님들도 평가 방식을 좀 바꿔야 할 것 같아요. 최종 결과물만 보는 게 아니라, 수업 시간에 학생이 직접 뭘 만들고 생각하는 과정을 보는 ‘실시간 활동’ 중심으로 평가해야 한다고 권고했어요. AI가 쉽게 만들기 어려운, 개인의 경험이나 지역 특색이 반영된 과제를 내라는 조언도 했고요.
개인정보 보호도 빼놓을 수 없죠. 평가를 위해 AI를 쓸 때는 절대로 학번이나 이름 같은 개인 식별 정보를 입력하지 말라고 당부했어요. 이건 어느 분야를 막론하고 지켜야 할 기본 중의 기본이니까요.
이렇게 보면, 이 방안은 단순한 규제보다는 ‘AI 리터러시’ 교육을 위한 첫걸음 같은 느낌이에요. AI를 두려워하지도, 무조건 의지하지도 않고, 하나의 도구로써 현명하게 활용하는 법을 일찍부터 배우라는 거죠.
저는 이게 꽤 긍정적인 신호라고 봐요. 미래에 우리 아이들이, 아니 우리 자신이 살아갈 세상은 AI와 떼려야 뗄 수 없는 관계일 텐데, 그 관계의 기본 규칙을 학교에서부터 배운다는 건 의미 있는 일이니까요. 여러분은 이 새로운 변화 어떻게 생각하시나요?
—
원문: [전자신문](https://www.etnews.com/20251223000275)