[인인칼럼 유준형] AI와 교육: AI는 스승이 될 수 있을까?

[인인칼럼 유준형] AI와 교육: AI는 스승이 될 수 있을까?

[강남 소비자저널=유준형 컬럼니스트] 교실은 종종 한 가지 질문으로 시작된다. “이걸 왜 배워야 하지?” 학생의 질문은 종종 단순한 투정처럼 들리지만, 사실은 교육의 본질을 찌른다. 배움은 정보의 축적이 아니라, 이유를 찾는 과정이기 때문이다. 그런데 지금, 교실 한가운데에 새로운 존재가 들어왔다. 생성형 AI다. 무엇이든 설명해주고, 예문을 만들어주고, 요약해주고, 문제도 출제한다. 그래서 질문이 바뀐다. “AI는 스승이 될 수 있을까?” 먼저 인정할 건 인정해야 한다. AI는 가르치는 도구로서 이미 강력하다. 학생이 밤늦게 질문을 해도 지치지 않고 답한다. 같은 설명을 열 번, 백 번 반복해도 짜증을 내지 않는다. 수준을 바꿔가며 예시를 내고, 부족한 개념을 찾아 채워준다. 어떤 학생에게는 이것만으로도 교육의 문턱이 낮아진다. 배움의 기회는 종종 시간과 비용, 지역과 배경에 가로막히는데, AI는 그 장벽을 상당 부분 무너뜨린다. 과외를 받을 형편이 안 되는 학생도, 야간 자율학습 뒤 홀로 책상에 앉은 학생도, 이제 물어볼 곳이 생겼다.. 하지만 여기서 중요한 구분이 있다. 가르칠 수 있는 것과 스승이 될 수 있는 것은 다르다. “가르침은 전달이고, 스승은 관계다. 교육은 지식의 이동이 아니라 사람의 변화다.” 그리고 사람이 바뀌는 순간은 대개 정보가 주어졌을 때가 아니라, 누군가가 나를 믿어줬을 때 찾아온다. 중학교 때 수학을 포기하려던 아이에게 “넌 원래 느린 게 아니라 깊이 생각하는 거야”라고 말해준 선생님, 진로를 정하지 못해 전전긍긍하던 대학생에게 “아직 몰라도 괜찮다”고 말해준 교수님. 그 한마디가 성적표보다 오래 남는다. 그래서 교육에는 늘 눈빛과 망설임이 있다. 학생의 표정이 굳어지는 순간, 교사는 설명을 멈추고 숨을 고른다. 단어 하나를 더 쉬운 말로 바꾸거나, 반대로 더 단단한 질문을 던진다. 그 미세한 조정이 배움의 방향을 바꾼다. AI는 그 조정에 유능해 보이기도 한다. 대화의 톤을 맞추고, 심지어 공감의 문장도 뽑아낸다. 하지만 여기에는 한계가 있다. AI의 공감은 정답처럼 보이는 공감일 수는 있어도, 함께 견디는 공감이 되기는 어렵다. 교육은 종종 아프다. 내가 모른다는 사실을 인정해야 하고, 쉽게 되지 않는 것을 반복해야 하고, 실패와 수치심을 견뎌야 한다. 그때 필요한 것은 설명이 아니라 동행이다. “너만 그런 게 아니다.” “지금 멈춘 자리에서 다시 시작하면 된다.” 이런 말은 정보가 아니라 사람의 체온이다. 스승은 지식을 주는 사람이 아니라, 좌절의 시간을 함께 건너게 해주는 사람이다. 또 하나의 차이가 있다. AI는 답을 잘하지만, 교육은 답보다 질문으로 완성된다. “답은 종종 생각을 끝내지만, 질문은 생각을 시작한다.” AI가 강한 건 빠른 답이다. 그런데 아이러니하게도 교육이 목표로 하는 것은 빠른 답이 아니라 깊은 사고다. 학생이 AI에게 답을 얻는 순간, 학습이 끝난 것처럼 느껴질 수 있다. 하지만 그건 종종 시작에 불과하다. 진짜 배움은 “왜 그런가?” “다른 경우에도 성립하는가?” “내 삶에서는 무엇을 바꿀 수 있는가?” 같은 질문이 이어질 때 생긴다. 스승의 역할은 답을 주는 게 아니라, 질문의 방향을 잡아주는 데 더 가깝다. 그리고 교육에서 가장 민감한 지점, 책임이 남는다. AI는 설득력 있는 문장을 만들 수 있다. 하지만 설득력은 진실을 보장하지 않는다. 유창한 설명은 때로 가장 위험한 오답이 될 수 있다. 학생이 AI의 답을 그대로 믿고 제출하거나, 그 답을 근거로 판단을 내릴 때 문제가 생기면 누가 책임질까. 결국 책임은 학생과 교육기관, 그리고 사회로 돌아온다. 그래서 AI가 교실에 들어오는 순간, 교육은 기술 문제가 아니라 윤리 문제가 된다. “편리함은 비용을 숨기고 들어온다.” 그 비용이 무엇인지 교육은 먼저 가르쳐야 한다. 그렇다고 결론이 “AI는 스승이 될 수 없다”로 끝나면 너무 쉽다. 오히려 더 중요한 결론은 이거다. “AI가 스승이 되느냐 마느냐보다, 인간이 스승으로 남을 수 있느냐가 더 큰 문제다.” AI가 학생의 질문을 빠르게 처리해주는 사이, 교사는 무엇을 해야 할까. 교사가 해야 할 일은 오히려 또렷해진다. AI가 반복 설명을 대신한다고 해서 교사의 설명이 불필요해지는 것은 아니다. 오히려 교사는 더 깊은 맥락을 짚고, 지식이 삶과 만나는 지점을 보여주는 설명에 집중할 여유를 얻는다. 동시에 교사는, 학생이 어떤 질문을 품고 있는지, 그 질문이 어디에서 왔는지, 그 아이가 지금 무엇을 두려워하는지, 무엇에 마음이 움직이는지를 읽어내야 한다. AI는 글을 매끈하게 다듬어줄 수 있지만, 학생이 자기 목소리를 갖게 만드는 건 여전히 사람의 몫이다. AI 시대의 교육은 이렇게 역할이 나뉜다. AI는 설명과 반복과 연습에 강하다. 인간 교사는 의미와 동기, 그리고 학생을 사람으로 대하는 태도에 강해야 한다. AI는 맞춤형 문제를 낼 수 있지만, 학생이 왜 공부해야 하는지까지 대신 만들어줄 수는 없다. 교육이란 결국 정보를 아는 사람을 만드는 게 아니라, 자기 삶을 책임질 사람을 만드는 일이기 때문이다. 그러니 질문을 바꿔보자. “AI는 스승이 될 수 있을까?” 대신, “AI를 곁에 둔 시대에, 스승은 무엇을 가르쳐야 할까?” 마지막으로 한 문장을 남기고 싶다. “좋은 스승은 답을 주지 않는다. 대신 학생이 자기 답을 찾을 수 있도록 곁에서 버텨준다.” AI는 좋은 조력자가 될 수 있다. 하지만 스승은 여전히 사람이어야 한다. 아니, 사람이어야만 한다. 교육은 결국 지식을 넘어, 한 인간의 미래에 책임지는 일이기 때문이다.

[인인칼럼 유준형] AI와 김홍도: AI가 지운 ‘사람 냄새’의 정체

[인인칼럼 유준형] AI와 김홍도: AI가 지운 ‘사람 냄새’의 정체

[강남 소비자저널=유준형 칼럼니스트] 아침 시장에 서 본 적 있나? 생선 비린내와 막 튀겨낸 기름 냄새가 섞이고, 좌판을 두드리는 손바닥 소리, 흥정하는 목소리, 아이가 칭얼대는 울음이 한꺼번에 밀려온다. 그 소란 속에서 누군가는 웃고, 누군가는 짜증을 내고, 누군가는 오늘 벌이가 시원찮아 어깨가 처진다. 이상하게도 그 장면은 지금 여기에만 있는 게 아니다. 조선의 화가 단원 김홍도가 남긴 풍속화를 들여다보고 있으면, 시장의 소음이 그림 밖으로 새어 나오는 것처럼 느껴진다. 그림인데도 사람 냄새가 난다. 잉크와 종이 위에, 시대의 체온이 살아 있다. 그런데 요즘 우리는 매일 더 놀라운 장면을 본다. 몇 줄의 지시어만 입력하면 그림이 만들어지고, 문장이 완성되고, 그럴듯한 세계가 순식간에 펼쳐진다. 생성형 AI가 우리 일상에 들어온 뒤로, 창작은 더 쉬워졌고, 생산은 더 빨라졌다. 누구나 포스터를 만들고, 누구나 홍보 문구를 쓰고, 누구나 글의 형태를 갖춘 무언가를 내놓을 수 있다. 분명 대단한 변화다. 올려진 풍속화는 단 몇초 만에 AI가 그렸다. 얼핏 김홍도 화풍 같지만, 여기엔 장터의 땀 냄새가 없고 붓 터치는 정교하지만 어딘가 낯선 ‘디지털의 차가움’이 묻어난다. 이러한 변화 앞에서, 마음 한구석이 어딘가 허전하지 않나. 결과물을 보고 “우와!”라고 감탄하면서도, 얼마 지나지 않아 잊혀지는 경험. 멋지긴 한데 오래 남지 않는 감정. 완벽한데도 이상하게 따뜻하지 않은 문장. 나는 그 허전함이 결국 하나의 차이에서 온다고 생각한다. 관찰과 학습의 차이다. 김홍도의 풍속화가 사람을 붙잡는 이유는 기술이 아니라 태도다. 그는 삶을 보고, 삶에 머물렀다. 예를 들어보자. 국밥을 허겁지겁 들이키는 주막 손님의 불룩해진 볼, 젓가락을 쥔 야무진 손끝, 그 옆에서 침을 꼴깍 삼키며 쳐다보는 아이의 눈빛까지. 김홍도는 그 찰나의 ‘생활’을 놓치지 않았다. 웃음의 모양만 그린 게 아니라 웃음 뒤의 피곤함까지 읽었다. 동작만 그린 게 아니라 그 동작이 나오기까지의 맥락을 붙잡았다. 그래서 그림 속 사람들은 포즈를 취하지 않는다. 그냥 산다. 그들이 사는 방식이, 그림을 보는 우리에게까지 전염된다. 우리는 한 장면을 보며 스스로 이야기를 만든다. “저 사람은 오늘 무슨 일로 저렇게 웃을까.” “저 아이는 왜 울고 있을까.” “저 둘 사이에는 어떤 기류가 흐를까.” 풍속화는 정답을 주지 않는다. 대신 해석의 공간을 남겨 둔다. 그 빈자리에 독자의 마음이 들어간다. 바로 그때 감동이 생긴다. 감동은 누가 만들어 주는 완성품이 아니라, 내가 참여하는 순간에 생기니까. 반면 AI는 관찰하지 않는다. AI는 방대한 데이터를 학습하고, 그 학습의 결과를 재조합한다. 이 과정이 놀라운 건 맞다. 하지만 그 결과물에는 종종 이런 성질이 있다. 평균적으로 안전하고, 평균적으로 매끄럽고, 평균적으로 만족스럽다. 문제는 그 평균이 사람의 마음을 설득하긴 해도, 깊게 흔들지는 못한다는 데 있다. 삶을 바꾸는 문장, 기억에 남는 그림은 대개 평균에서 오지 않는다. 누구도 대신할 수 없는 경험, 말투, 사정, 망설임 – 그런 “되돌릴 수 없는 디테일”에서 온다. 김홍도는 그 디테일을 살렸고, AI는 그 디테일을 자주 평평하게 만든다. 여기서 중요한 건 AI가 나쁘다는 결론이 아니다. AI는 도구다. 도구는 잘 쓰면 도움이고, 잘못 쓰면 위험이다. 진짜 문제는 따로 있다. 우리가 어느 순간부터 관찰을 포기하는 쪽으로 기울고 있다는 사실이다. 예전에는 이해하려면 시간을 들여야 했다. 직접 보고, 직접 듣고, 직접 고민해야 했다. 그런데 지금은 요약이 먼저 오고, 결론이 먼저 온다. 질문보다 답이 앞서고, 경험보다 정리가 앞선다. 그러다 보면 우리는 점점 이렇게 변한다. “내가 확인한 세계”보다 “누군가(혹은 AI)가 정리해 준 세계”에 더 빨리 고개를 끄덕이게 된다. 그리고 바로 그 지점에서 감동이 사라진다. 감동은 속도에서 태어나지 않는다. 감동은 머무름에서 태어난다.  사람의 표정을 오래 바라보고, 말 한마디의 결을 곱씹고, 문장 하나를 내 입에서 다시 굴려보는 그 시간에서 나온다. 풍속화가 주는 울림이 강한 건 그 그림이 우리에게 “빨리 결론 내리지 말고, 조금 더 보라”고 말하기 때문이다. 그래서 나는 AI 시대의 창작 윤리를 표절이라는 단어 하나로만 다루지 않았으면 한다. 물론 저작권과 공정한 보상은 중요하다. 하지만 더 큰 질문이 있다. 우리는 편리함을 얻는 대신 무엇을 잃고 있는가? 맥락을 잃고, 관계의 온도를 잃고, 생활의 질감을 잃고, 결국 사람을 사람으로 이해하는 능력을 조금씩 잃어가고 있는 건 아닌가. 기술이 발전할수록 인간다움도 함께 발전해야 하는데, 우리는 자꾸 인간다움을 비용처럼 절감하려 한다. 이때 기술은 효율적일지 몰라도, 따뜻하지는 않다. 그러면 해답은 뭘까. “AI를 쓰지 말자”가 아니다. 오히려 반대다. AI를 더 잘 쓰자. 단, 우리는 AI를 비서로 쓸 것인가, 작가로 앉힐 것인가를 결정해야 한다. 나는 AI를 관찰을 위한 도구로 쓰자고 제안한다. AI가 수만 건의 자료를 정리해 주는 시간, 그 아껴진 시간만큼 우리는 현장을 더 오래 응시해야 한다. 초안은 AI가 도울 수 있다. 하지만 사람의 마음을 움직이는 마지막 한 줄은 오직 인간의 경험에서 나온다. 내 눈이 포착한 떨림, 내 귀에 꽂힌 탄식, 내가 겪은 망설임이 그 재료다. 기억하자. AI는 정보를 주지만, 감동은 체온에서 온다. 당신의 체온이 묻어날 때, 그제야 글은 정보 덩어리를 넘어 살아있는 이야기가 된다. 김홍도는 붓으로 세상을 기록했다. 우리는 키보드와 AI로 세상을 기록한다. 시대는 달라졌고 도구도 달라졌다. 하지만 글을 쓰는 사람에게 가장 중요한 질문은 변하지 않는다. “너는 지금 무엇을 보고 있나?” 그리고 더 아픈 질문이 따라온다. “네가 보고 있는 것을, 네 말로 남길 수 있나?” AI가 만들어준 문장을 그대로 붙여넣는 건 쉬운 일이다. 하지만 독자의 마음을 움직이는 건 그 쉬움이 아니다. 독자는 완벽한 문장에 감동하지 않는다. 독자는 “아, 이 사람은 진짜 봤구나”라는 확신을 느낄 때 감동한다. 그 확신이 생기는 순간, 글은 정보가 아니라 이야기로, 결과물이 아니라 사람의 목소리로 바뀐다. 김홍도의 풍속화가 아직도 우리 마음을 흔드는 건, 바로 그 목소리가 살아 있기 때문이다. 그래서 오늘 나는 이렇게 말하고 싶다. AI 시대에 가장 값진 능력은 잘 만드는 능력이 아니라 잘 보는 능력이라고. 더 많이 만들기 전에, 조금 더 보자. 조금 더 오래 바라보자. 그게 결국, 기술이 아무리 발전해도 사람이 끝내 지켜야 할 창작의 윤리이자, 독자를 설득하고 감동시키는 가장 단단한 힘이다. ▲사진=구글 제미나이(Gemini)가 김홍도 화풍으로 생성한 장터 이미지. 붓 터치는 정교하지만 어딘가 낯선 ‘디지털의 차가움’이…

[인인칼럼 유준형] 기계는 상상하지 않는다: AI가 네안데르탈인을 닮은 이유

[인인칼럼 유준형] 기계는 상상하지 않는다: AI가 네안데르탈인을 닮은 이유

[강남 소비자저널=유준형 칼럼니스트] 며칠 전, 누군가의 요청으로 비즈니스 사과문 초안을 AI로 써 보았다. 문장은 매끈했고 논리는 완벽했다. “잘못을 깊이 반성한다”는 말도, “재발 방지에 최선을 다하겠다”는 약속도 빠짐없이 들어 있었다. 그런데 이상하게도 읽는 사람의 마음이 풀릴 것 같지 않았다. 틀린 말이 없는데, 닿지 않았다. 그 순간 떠오른 생각이 있다. 기계는 상상하지 않는다. 여기서 말하는 상상은 ‘새로움’이나 ‘기발함’이 아니다. 여러 인문학·철학·윤리 논의를 종합해 보면, 상상은 대체로 세 요소가 함께 움직일 때 비로소 힘을 갖는다. 첫째는 의도다. “왜 이 일을 해야 하는가”를 스스로 묻고 목적을 세우는 힘이다. 둘째는 상징이다. 보이지 않는 의미(규범, 약속, 이야기)를 만들어 타인과 공유하는 힘이다. 셋째는 책임이다. 선택이 낳을 결과를 감당하겠다고 결심하는 태도다. 이 세 가지가 결합될 때 상상은 단순한 창의가 아니라, 의미를 세우고 방향을 정하는 ‘판단’으로 기능한다. 반대로 기계는 이 지점에서 멈춘다. AI는 능숙하게 문장을 만들지만, 그 문장이 왜 필요한지 스스로 목적을 세우지 못한다. 상징이 사람에게 남기는 상처와 위로를 경험으로 살려내지 못한다. 무엇보다 결과에 대해 책임을 질 수 없다. Bender 등(2021)에 따르면, 거대언어모델(LLM)은 말의 형태는 정교하게 만들 수 있어도, 그 말이 놓이는 현실의 의미를 사람처럼 이해한다고 단정하긴 어렵다. 그러니 AI의 산출물은 종종 정확해 보이면서도, 정작 사람의 마음을 움직이는 결정적 한 끗이 비어 있는 채로 남는다. 바로 여기서 “네안데르탈인”이라는 비유가 의외로 정확해진다. 이 비유는 네안데르탈인을 깎아내리려는 말이 아니다. 오히려 네안데르탈인은 오랫동안 과소평가되어 왔고, 그들도 환경에 적응하고 도구를 다루며 살아남은 유능한 존재였다. 일부 연구는 네안데르탈인에게도 상징 활동의 흔적 가능성을 제기한다(Hoffmann et al., 2018). 그러니 비교의 핵심은 “지능의 높낮이”가 아니다. 정곡은 따로 있다. AI와 네안데르탈인이 닮았다는 말은, ‘과제 수행’에는 강하지만 ‘공유된 상상’으로 사회의 방향을 세우는 방식이 제한적이라는 점에서 성립한다는 뜻이다. 인간(호모 사피엔스)의 강점은 단지 도구를 쓰는 능력만이 아니었다. 모르는 타인과도 함께 살아가게 만드는 ‘공유된 상상’이 있었다. 규범과 약속을 만들고, 상징과 이야기로 서로를 묶고, 아직 오지 않은 미래를 공동의 계획으로 당겨 오는 능력이다. Tomasello(2014)에 따르면 인간은 타인과 목적과 규칙을 함께 세우는 공유된 의도(shared intentionality)에 강점을 보이고, 이런 협력 구조가 문화의 누적과 확장을 가능하게 했다. 이것이 인간 사회를 크게 만들었다. 반면 AI는 뛰어난 실행자이지만, 공동체가 함께 믿고 지킬 목적을 스스로 발명하지 못한다. 그래서 AI는 ‘왜’를 만들기보다 ‘어떻게’를 수행한다. 이 비유를 더 선명하게 만드는 핵심은 세 가지로 압축된다. 첫째, AI는 ‘왜’를 만들지 못하고 ‘어떻게’를 잘한다. 상상은 목적에서 시작한다. 하지만 AI의 출발점은 목적이 아니라 프롬프트다. “요약해라, 비교해라, 써라”라는 지시가 주어지면 놀라운 속도로 해낸다. 그러나 그 일을 “왜 해야 하는지”를 스스로 세우지는 못한다. 목적을 던지는 쪽은 늘 인간이다. 둘째, AI는 상징을 ‘살지’ 못하고 언어를 ‘맞춘다’. 인간에게 상징은 단순한 표지가 아니다. 돈 한 장, 깃발 한 조각, 약속 한 문장이 사람을 움직이는 이유는 그 속에 경험과 기억과 공동체의 감정이 압축되어 있기 때문이다. AI는 그 압축의 무게를 체감하지 못한다. 대신 그 상징을 설명하는 문장을 능숙하게 조합한다. 그래서 그럴듯하지만, 때로는 비어 있다. 셋째, AI는 책임이 없어서 상상이 판단으로 끝나지 못한다. 인간의 상상은 선택의 윤리와 연결되어 있다. 어떤 말이 누군가를 살릴 수도, 다치게 할 수도 있다는 걸 알면서도 감당하겠다고 결정하는 것이 판단이다. 기술문명이 커질수록 책임 윤리가 중요해진다는 문제의식은 Hans Jonas(1984)의 논의에서 대표적으로 제기된다. 그런데 AI는 그 책임의 주체가 될 수 없다. 책임을 질 수 없는 존재는 판단의 최종 결정을 내릴 수 없다. 그러니 AI의 결과물은 의견처럼 보이더라도, 본질적으로는 생성물에 가깝다. 마지막 책임은 결국 인간에게 돌아온다. 여기까지 오면 결론은 단순해진다. AI는 뛰어난 해결자이지만, 상상하는 존재는 아니다. 그리고 이 사실은 AI를 깎아내리기 위한 문장이 아니라, 오히려 인간에게 남은 자리를 또렷하게 비추는 문장이다. AI가 자료를 모으고 초안을 만들어주는 시대일수록 더 중요한 질문이 있다. “무엇을 할 수 있는가”가 아니라 “무엇을 해야 하는가”다. 효율이 높아져도 존엄이 무너질 수 있고, 편리함이 늘어도 약자가 배제될 수 있다. 그 균형을 잡는 힘이 상상이다. 나는 그래서 이 시대의 인문학을 “기술을 반대하는 학문”으로 보지 않는다. 인문학은 기술의 속도를 늦추려 하기보다, 기술의 방향을 묻는다. AI가 답을 더 잘 만들수록 인간은 질문을 덜 하게 된다. 하지만 질문을 포기하는 순간, 상상도 사라진다. 그리고 상상이 사라진 사회는 결국 누군가의 삶을 정확하게 설명하면서도 따뜻하게 구하지 못한다. 마지막으로 한 문장만 남기고 싶다.기계가 만드는 것은 답이고, 인간이 만들어야 하는 것은 이유다.기계는 상상하지 않는다. 그러니 이제, 상상은 인간의 책임이다.