학교 관리자들, 교사 평가 자동화에 AI 도입
- •학교 관리자들이 LLM을 활용해 수업 참관 기록을 루브릭 기반의 교사 성과 평가서로 변환하고 있다.
- •전문가들은 AI가 인간적 맥락을 파악하지 못해 평범하거나 부정확한 평가 결과를 초래할 수 있다고 경고한다.
- •자동화된 행정 워크플로 내 투명성과 데이터 개인정보 보호 준수에 대한 윤리적 우려가 커지고 있다.
초중고(K-12) 및 고등교육 기관의 관리자들이 교사 평가라는 과중한 업무를 처리하기 위해 생성형 AI로 눈을 돌리고 있다. 학교 리더들은 수업 중 발생한 사건들을 객관적으로 기록한 '저추론' 노트를 ChatGPT와 같은 도구에 입력하여, 대니얼슨 루브릭(Danielson rubric)과 같은 복잡한 프레임워크에 맞춘 피드백을 생성한다. 실제로 이러한 방식은 서류 작성 시간을 절반으로 줄여준다고 알려졌으나, 많은 교육구가 AI 보조 평가에 대한 공식 지침이 부족해 사실상 정책 공백 상태에서 운영되는 실정이다.
비판론자들은 이 기술이 인사 결정과 같은 중대한 사안에 도입되기에는 아직 시기상조라고 주장한다. 무엇보다 AI가 성공적인 수업의 핵심인 사회적 미묘함과 대인 관계 역동성을 파악하지 못한다는 점이 가장 큰 문제로 꼽힌다. 인간적 맥락에 대한 깊은 이해가 결여된 자동화 시스템은 교사의 경력에 불이익을 줄 수 있는 평이하거나 부정확한 피드백을 산출할 위험이 크다. 이는 행정적 효율성과 교육 리더십에 요구되는 세심한 질적 판단 사이의 갈등이 심화되고 있음을 여실히 보여준다.
특히 투명성 문제는 해결해야 할 주요 과제 중 하나다. 일부 관리자들은 평가 대상 직원에게 알리지 않고 독단적으로 AI 도구를 사용하고 있기 때문이다. 이러한 위험을 해결하기 위해 교육 기술 전문가들은 AI가 문서 작업을 처리하되 인간이 최종 평가 권한을 유지하는 Human-in-the-loop 방식을 권장한다. 또한 학교 내 AI 통합을 위해서는 FERPA 및 COPPA와 같은 연방 개인정보 보호법을 준수하고, 폐쇄형 시스템 내에서 학생과 교사의 민감한 정보를 보호하기 위한 엄격한 데이터 거버넌스가 반드시 수반되어야 한다.