
서울 연세대학교 한 강의의 중간고사에서 집단적인 부정행위 정황이 발견돼 파장이 일고 있다. 특히 부정행위를 했다고 지목된 학생들 상당수는 챗GPT 등 생성형 인공지능(AI)을 이용해 답안을 작성한 것으로 전해졌다.
지난 9일 연세대 등에 따르면 신촌캠퍼스의 3학년 대상 수업 ‘자연어 처리(NLP)와 챗GPT’ 담당 교수는 최근 “중간고사에서 학생들의 부정행위가 다수 발견됐다”고 공지했다.
자연어 처리와 거대언어모델(LLM) 등 생성형 AI의 작동·개발 원리 등을 가르치는 이 수업은 약 600명이 비대면으로 수강한다. 지난달 15일 치러진 중간고사 또한 온라인 사이트에 접속해 객관식 문제를 푸는 비대면 방식으로 진행됐다.
당시 학교 측은 부정행위를 방지하기 위해 사전에 응시자에게 시험시간 동안 컴퓨터 화면과 손·얼굴이 나오는 영상을 찍어 제출하라고 요구했다.
하지만 일부 학생들은 컴퓨터 화면이 제대로 보이지 않게끔 의도적으로 각도를 조정해 촬영하거나, 화면이 아닌 다른 곳을 계속 쳐다보는 사례가 다수 적발됐다고 한다. 시험 도중에 인터넷, AI로 답안을 검색하는 것으로 의심될 만한 장면이 많았다는 것이다.
이에 담당 교수는 “부정행위를 자수하는 학생은 중간고사 점수만 0점 처리하고, 발뺌하는 학생은 학칙대로 유기정학을 추진하겠다”고 밝혔다. 이후 수강생 40여 명이 교수에게 연락해 부정행위를 했다고 인정했으며 이들 상당수가 AI를 사용해 답안을 작성했다고 말한 것으로 전해졌다.
생성형 AI가 대중화된 지 3년이 지났지만 대학가의 혼란은 갈수록 커지는 모습이다. AI 성능이 빠르게 고도화되며 학습 보조 도구 수준을 넘어선 상황에서, 학교의 AI 사용 정책이나 윤리 기준 논의는 발전 속도를 따라잡지 못하고 있다.
한국직업능력연구원 조사에 따르면 지난해 4∼6년제 대학생 726명 중 91.7%가 과제나 자료 검색에 AI를 활용한 경험이 있다고 답했다. 그러나 한국대학교육협의회에 따르면 전국 대학 131곳 중 71.1%는 여전히 AI 가이드라인을 마련하지 못하고 있다.
한편 AI 시대의 교육과 평가 방식을 재정립해야 한다는 주장도 나온다. AI의 적극적인 사용을 허용하되, 출처를 투명하게 밝히게 하자는 등의 제언이다. 김명주 AI안전연구소 소장은 “AI 결과물뿐 아니라 개인 의견을 적어내게 해 비판적 사고를 교육해야 한다”고 말했다.









