온라인 시험의 확산으로 감시 시스템이 일상화되고 있다. 하지만 이 과정에서 학생의 사생활과 디지털인권이 어디까지 보호받는지는 여전히 논란이다. 기술적 효율성과 인권의 균형을 찾는 것이 교육의 미래 과제로 떠오르고 있다.

감시 시스템의 확산, 디지털 교실의 새로운 논란
코로나19 팬데믹 이후 온라인 수업과 비대면 시험이 보편화되면서, 학교들은 부정행위를 방지하기 위해 온라인 시험 감시 시스템(Proctoring System)을 도입하기 시작했다. 이 시스템은 학생의 카메라·마이크를 켜 두고, 눈동자 움직임·타이핑 소리·주변 소음·심지어 시선 방향까지 인공지능으로 분석한다. 겉으로 보기엔 공정한 시험 환경을 보장하기 위한 장치처럼 보이지만, 실상은 학생의 사생활을 침해할 가능성이 매우 크다. 학생의 방 안, 가족의 목소리, 배경 소음 등이 모두 데이터로 수집되며, 이 정보는 서버에 저장되고 분석된다. 이러한 데이터가 어디로 저장되고, 얼마나 보관되는지는 대부분 공개되지 않는다.
여기서 가장 큰 문제는 동의의 자율성이다. 대부분의 학생은 “시험을 보려면 감시에 동의해야 한다”는 구조 속에서 실질적인 선택권을 박탈당한다. 이는 단순한 편의의 문제가 아니라 명백한 디지털인권 침해로 볼 수 있다. 학생은 학습의 주체이자 동시에 인권의 주체이지만, 온라인 시험 환경에서는 감시의 대상이 되어버린다. 얼굴 인식 기술과 행동 분석 시스템이 개인의 심리 상태나 신체 특성을 파악할 수 있다는 점에서, 감시 시스템은 교육적 공정성을 넘어 ‘감시 자본주의의 축소판’으로 작동하고 있다는 비판이 제기된다.
기술의 명분과 인권의 경계: 공정성과 감시 사이
학교 측은 온라인 감시 시스템이 공정한 평가를 위한 필수 수단이라고 주장한다. 실제로 일부 대학에서는 시험 중 부정행위 적발률이 줄었고, 학생 간의 신뢰가 높아졌다는 보고도 있다. 그러나 이 명분 뒤에는 심각한 권리 침해의 가능성이 숨어 있다. 시스템이 감지하는 ‘의심 행동’의 기준이 모호하고, 학생의 환경에 따라 오인될 위험이 크기 때문이다. 예를 들어 조명이 어두워 눈동자 움직임이 불안정하게 보이거나, 외부 소음으로 인해 마이크가 자동으로 활성화되는 경우 AI는 이를 부정행위로 판단할 수 있다. 이처럼 기계적 판단이 인간의 권리를 침해하는 구조는, 기술이 인간을 평가하는 새로운 형태의 불평등을 만들어내고 있다.
더 나아가 이 감시 시스템은 감정 분석, 얼굴 인식, 생체 데이터 수집 등 고도의 AI 기술을 활용하기 때문에, 그 결과물이 어떻게 저장·활용되는지 투명하게 공개되지 않는 한 학생의 디지털인권은 항상 위태롭다. 개인정보보호법상 민감 정보에 해당하는 얼굴 이미지와 음성 데이터가 다국적 클라우드 서버로 전송되기도 하며, 일부 솔루션은 외국 기업에 의해 운영된다. 이런 상황에서 ‘누가 데이터를 소유하고, 삭제를 요구할 수 있는가’라는 기본적인 인권 질문이 제기된다. 결국 ‘공정성’이라는 명분 아래 이루어지는 감시는, 학생이 가진 인간으로서의 존엄과 프라이버시를 위협하는 제도화된 감시 구조로 발전하고 있다.
감시 기술의 구조와 디지털인권의 위험
온라인 감시 시스템은 인공지능(AI)과 머신러닝을 기반으로 동작한다. 시험 중 학생의 웹캠 영상, 마이크 소리, 키보드 타이핑 패턴, 마우스 움직임, 시선 트래킹 데이터를 실시간으로 분석해 ‘부정행위 가능성’을 판별한다. 예를 들어 학생이 정면을 보지 않거나, 일정 시간 이상 시선이 움직이면 AI는 자동으로 ‘의심 행동’으로 분류한다. 또한 학생이 사용하는 인터넷 창이나 다른 프로그램이 감지될 경우, 화면 캡처 및 로그 데이터가 자동 저장된다. 문제는 이런 데이터가 시험 종료 후에도 남는다는 점이다. 대부분의 시스템이 “데이터는 일정 기간 보관 후 삭제된다”고 명시하지만, 실제로 그 삭제 시점이나 과정은 투명하게 공개되지 않는다.
이러한 데이터는 학생의 민감 정보를 포함하기 때문에 디지털인권 관점에서 매우 위험하다. 특히 얼굴 인식 데이터는 생체 정보로 분류되어 유출 시 회복이 불가능한 피해를 초래할 수 있다. 더구나 일부 감시 시스템은 글로벌 클라우드 서비스를 이용하고 있어, 데이터가 국외 서버에 저장되는 경우도 있다. 이 경우, 학생의 정보는 외국 법률의 적용을 받게 되어 보호의 범위가 현저히 약화된다. 실제로 미국과 유럽에서는 이러한 감시 시스템이 인권 침해 소송으로 번진 사례도 있다. AI의 오판으로 인해 부정행위자로 낙인찍힌 학생들이 억울함을 호소했지만, 그 데이터의 처리 과정은 불투명했고, 기업들은 “AI 알고리즘의 내부 정보는 영업 비밀”이라는 이유로 공개를 거부했다. 이처럼 디지털인권 침해는 단순한 기술적 문제가 아니라, 법적·윤리적 구조의 허점을 드러내는 심각한 사회 문제로 부상하고 있다.
교육의 공정성과 인권 보호의 균형: 새로운 기준이 필요하다
이제 학교는 기술 의존적 공정성에서 벗어나 인권 중심형 교육 평가 체계로 나아가야 한다. 온라인 시험의 공정성을 보장하는 것도 중요하지만, 그 과정에서 학생의 존엄성과 권리를 침해해서는 안 된다. 학생은 감시의 대상이 아니라, 학습의 주체이며, 시스템의 일부가 되어서는 안 된다. 따라서 모든 감시 기술은 반드시 투명한 데이터 관리 정책, 동의 절차의 실질적 자율성, 사생활 보호 기능의 기본 내장화(Privacy by Default)를 갖추어야 한다. 특히 데이터 수집 목적, 보관 기간, 삭제 절차를 명시적으로 공개하고, 학생이 언제든지 자신의 데이터를 삭제할 권리를 보장받아야 한다.
아래 표는 현재 온라인 시험 감시 시스템의 주요 논란과, 이를 개선하기 위한 인권적 접근 방안을 정리한 것이다.
| 구분 | 문제점 | 인권 중심 대안 | 디지털인권 영향 |
|---|---|---|---|
| 데이터 수집 | 불필요한 영상·음성 저장 | 최소 수집 원칙 적용, 자동 삭제 기능 도입 | 사생활 침해 감소, 데이터 주권 강화 |
| 감시 알고리즘 | 오탐지, 편향된 판단 | 알고리즘 공개·감사 제도 도입 | 공정성 확보, AI 투명성 제고 |
| 동의 절차 | 형식적 동의, 선택권 부재 | 선택적 감시 옵션 제공, 대체 시험 허용 | 자율성 확대, 권리 존중 |
| 데이터 보관 | 장기 저장, 국외 이전 | 보관 기한 단축, 국내 서버 활용 | 정보 보호 강화, 통제권 회복 |
결국, 기술이 아무리 발전하더라도 교육의 본질은 인간의 존엄과 자유에 기반해야 한다. 학교와 정부는 단순히 감시 시스템을 운영하는 주체가 아니라, 학생의 디지털인권 수호자가 되어야 한다. 교육 현장은 감시의 공간이 아닌, 신뢰와 권리의 공간으로 거듭나야 하며, 이를 위해서는 기술이 아니라 사람 중심의 규범이 먼저 세워져야 한다.
기술의 시대, 교육의 이름으로 인권을 지켜야 한다
학교의 온라인 감시 시스템은 기술 발전의 필연적 결과처럼 보이지만, 그 안에는 우리가 반드시 마주해야 할 질문이 숨어 있다. “공정함을 위해 감시받는 것이 정당한가?”라는 질문이다. 교육은 감시로 유지되는 질서가 아니라, 자유로운 사고와 책임 있는 선택으로 완성되는 과정이다. 학생의 방, 시선, 표정까지 기록하는 감시 시스템은 공정함보다 두려움을 낳을 뿐이다. 이제 교육의 중심은 ‘통제’가 아니라 ‘신뢰’, ‘기술’이 아니라 ‘인권’이어야 한다. 디지털인권은 학생이 단순한 평가의 객체가 아닌, 존엄한 주체로 설 수 있는 최소한의 안전선이다. 학교가 기술의 편리함에 기대어 인권의 경계를 무너뜨리는 순간, 교육은 본래의 목적을 잃는다. 감시 없는 공정함, 통제 없는 신뢰 — 그것이 미래 교육이 지향해야 할 새로운 표준이자, 진정한 디지털인권 교육의 시작점이다.