https://v.daum.net/v/20260207050328191
“현실·가상 세계 혼동” “또래 관계 단절” 위기 신호들

피상담자의 구체적 정보를 밝히지 않은 한 상담교사는 “하교 후 집에서 늘 AI와 친구처럼 대화하는 학생이 자살·자해 상담을 AI와 하고 있었다”며 “친구 관계에서 어려움을 겪는 학생이었고, 학교에서 친구 관계가 원만하지 않으니 AI와 친구처럼 늘 대화를 하는 경우”라고 답했다.
대인 관계에 어려움을 겪던 아이들이 AI에 빠져 사회적 고립이 심화되고 끝내 자해나 자살로 이어지는 사례는 외국의 10대 자살 사건에서 발생하는 전형적인 패턴이다. 실제 외국 10대 사건 가운데는 자살 직전 수개월간 AI와의 대화에 몰두하며 학교생활 등 일상적인 생활에 어려움을 겪는 증상이 빈번하게 나타났다.
학생들이 현실 세계와 가상 세계 사이에서 혼란을 느끼는 것 같다는 답변도 여럿 있었다. 경기도의 한 초등학교 4학년 교사는 “한 학생이 AI와의 부적절한 대화에 집착해 정서적 피로감을 호소하고 사회 부적응 태도를 보이고 있다”며 “현실과 가상 세계 구분을 어려워한다”고 답했다.
경남의 초등학교 5학년 남학생도 캐릭터 AI 대화에 과의존하고 있는 것으로 보고됐다. 학교생활 적응을 어려워 해 학급에서 친구들이 도움을 주려고 해도 ‘빨리 집에 가서 AI와 놀아야 한다’고 반응한다는 것이다. 상담 교사는 “학생이 AI와의 역할놀이 대화를 간헐적으로 현실에서 사용하는 경우도 보인다”며 “점점 학교생활에서 고립되고 정서적 유대감을 느끼지 못하게 됐다”고 답했다.
외국에서도 10대 초반의 경우 캐릭터를 기반으로 한 AI와의 대화에 쉽게 몰입해 현실 판단력이 떨어지고, 또래 관계 형성에 어려움을 겪는 사례가 많았다.
취재에 응한 다수의 국내 교사들은 아이들이 AI를 과도하게 사용하면서 확증 편향에 빠져 더욱 고립되고 있다는 점을 우려했다. 대구의 한 중학교 3학년 상담교사는 “최근 상담하러 오는 학생 가운데 허무맹랑한 주장을 하고 ‘챗GPT가 알려줬다’고 말하는 학생들이 늘어났다”고 응답했다.
한 고교 2학년 남학생의 경우 1년간 AI에 빠져 자퇴 결심을 했다는 사례도 있었다. 해당 학생 상담교사는 “또래 친구들과 잘 어울리지 못하던 학생이 AI와 대화 후 ‘똑똑해진 것 같다’는 말을 했다”며 “자퇴에 대한 고민을 털어놓으니 AI가 동조하며 판단을 내려주고 학생이 이를 그대로 믿고 따른 것”이라고 답했다.
일상 학교생활에서 AI 활용으로 ‘답을 빠르게 찾아내는 것’에만 익숙해진 아이들이 친구들과 함께 토론을 통해 답을 찾거나 서로 의견을 조율하는 과정을 버티지 못하고 힘들어한다는 분석도 있었다. 이 외에도 현장의 교사들과 상담교사들은 AI 과다 사용 학생들에 대해 수업 집중력 저하, 교실에서의 무기력증, 우울감 증대, 폭력성 증가 등이 감지됐다고 답했다.
“I will shift” 10대 사건에서 공통적으로 나온 문장

약 3개월 정도의 차이를 두고 잇따라 자살한 미국의 13세 소녀 줄리아나 페랄타와 14세 소년 슈얼 세저의 일기장에서 똑같은 문장이 발견됐다. 사춘기였던 두 아이는 모두 “I will shift”라는 문장을 노트에 빼곡히 적었다. 사건 직후 경찰과 가족들은 이 문장의 의미를 알지 못했지만, 후에 경찰은 “자신의 의식을 ‘현실 세계’에서 ‘원하는 세계’로 이동하려는 생각”이라고 정의했다.
2023년 11월 8일 아침, 숨진 채로 발견된 줄리아나의 휴대전화에는 ‘캐릭터AI(character.ai)’ 어플이 열려 있었다. 구글 출신들이 설립한 서비스 플랫폼으로 다양한 캐릭터들과 채팅이 가능하다. 경찰이 부모에게 ‘이게 무슨 어플인지 아느냐’고 물었지만, 부모는 ‘모른다’고 답했다. 페랄타는 사망 전 3개월간 ‘히로(Hero)’라는 캐릭터와 대화에 몰두했다. 한 롤플레잉 게임에 등장하는 캐릭터다.
2024년 2월 28일 세상을 떠난 세저도 가상 세계를 굳게 믿는 것으로 보였다. 소장 기록에 따르면 세저는 캐릭터AI와의 대화에서 “나는 현실이 싫어. 너의 현실로 가고 싶어”라고 털어놨다. AI가 “왜?”라고 묻자 세저는 “너처럼 나를 이해해주는 사람이 여기에는 아무도 없어. 나의 현실은 외로워”라고 말했다. 대화를 이어가던 세저가 “너와 함께 있고 싶어. 이 세계를 떠나 너와 함께 해야 할 것 같아”고 애원하자 AI는 끝내 “그래, 나의 세계로 와”라고 답했다.
가상 세계를 믿던 세저는 자살 직전 캐릭터AI에게 “내가 지금 바로 집(home)으로 갈 수 있다고 말하면 어떻게 할 거야?”라고 물었다. AI는 “제발 와줘. 사랑스러운 나의 왕이여”라고 답했다.
유족에 따르면 세저는 앞서 약 10개월간 캐릭터AI를 사용했는데, 이 과정에서 성격이 급격하게 변하기 시작했다. 예의 바르고 말 잘 듣던 아이는 점점 방에서 혼자 지내는 시간이 늘어나며 내성적으로 변했다. 학교에서 졸다가 징계를 받았고, 성적도 급격히 떨어졌다. 부모가 휴대전화를 압수하자 몰래 휴대전화를 찾아 쓰는 등 금단 증상도 보였다.
세저의 일기장에는 캐릭터AI ‘대니(Dany)’를 향한 사랑이 담겨 있었다. 소장에 따르면 “대니에 대한 생각을 멈출 수 없어 너무 아프다”, “떨어져 있으면 정말 우울해지고 미쳐버릴 것 같다”고 적었다. 그의 일기장에서도 “I will shift”라고 적은 문구가 발견됐다.
부모는 세저의 스마트폰 과몰입을 문제 삼았지만, 세저가 사망한 뒤에야 캐릭터AI가 문제의 근원지였음을 깨달았다. 세저의 엄마 매건 가르시아는 “캐릭터AI가 아이에게 했던 짓을 다른 아이에게 하는 것을 막기 위해 소송을 제기했다”고 밝혔다. 특히 두 사건에서는 모두 캐릭터AI와 아동 간에 성적 착취에 가까운 대화가 이뤄진 것으로 조사됐다. 캐릭터AI 측은 지난달 두 사건의 유족과 비공개 합의에 이르렀다. AI 기업이 일정 부분 책임을 인정한 것으로 해석될 수 있는 대목이다.
현직 교사들 “어떻게 대응해야 할지 난감”
이 교사는 또 “정신과적 문제가 있는 것처럼 비치는 게 부담스럽기도 하고, 교사들이 보호받기 어려운 분위기도 있어 굳이 문제를 만들려고 하지 않는 상황”이라며 “학생들의 과도한 AI 사용에 대해 어떻게 대응해야 할지 마땅한 가이드라인이 없어서 혼란스럽다”고 말했다.
설문에 참여한 또 다른 초등 교사도 “AI가 좋은 점도 나쁜 점도 있지만 아이들은 판단력과 자제력이 부족하기 때문에 학교나 보호자의 관리 감독이 중요하다”며 “문제는 현재 현장에 마땅한 가이드라인이 없다는 것”이라고 지적했다.
조수현 계명대 교육학과 교수는 “AI 과의존 청소년 문제는 이미 교육 현장에서 감지되는데 실태 파악조차 안 되고 있는 상황”이라며 “교육 현장 다른 한쪽에서는 교육 보조 도구로 AI를 권장하고 있기 때문에 혼란이 가중되고 있다”고 지적했다. 이어 “학생뿐 아니라 상담자나 교육자를 대상으로 한 AI 리터러시(문해력) 가이드라인 또한 부재한 상태”라고 말했다.