Raising Mars
블로그로 돌아가기
Cover image for "공장에는 영혼이 필요 없다" — 당신은 '혹시 모르니까'라는 말 한마디에 20년을 바쳤다. 그 '혹시'는 오지 않았다. 이것은 교육이 아니라 조직적 약탈이다.

공장에는 영혼이 필요 없다

Mars Dad

TL;DR

전통 교육은 창고다 — '혹시 몰라서' 쌓아둔 지식은 거의 쓰이지 않는다. AI 튜터링은 필요한 순간 정확히 배우는 학습을 가능하게 하지만, 진짜 도전은 효율이 허드렛일을 대체한 후 남는 빈자리를 무엇으로 채울 것인가이다. 세 가지 프로토콜: 사각지대를 조준하라, 지식을 경험으로 재구성하라, AI에게 솔직한 피드백을 요구하라.

당신은 배우고 있는 게 아니다.

가공되고 있는 거다. 공장에는 영혼이 필요 없다. 규격화된 부품만 있으면 된다.

우리는 19세기 벽돌로 호기심을 막아버리고 그걸 “교육”이라 불렀다. 정보가 화면을 넘쳐흐르는 시대에, 학교는 여전히 먼지 쌓인 창고다 — 썩어가는 기초 위에 층만 계속 올리고 있다.

결과는 진화가 아니다. 적재다.


20년을 바쳐서 얻은 건 “혹시 모르니까”

시스템이 당신에게 20년 동안 공식, 연도, 교리를 암기하게 만들었다.

왜? 올지 안 올지도 모르는 “혹시 모르니까”를 위해서.

수능이라는 이름의 최종 분류 장치를 생각해보라. 12년간의 학습이 하루의 시험으로 압축된다. 그 시험이 측정하는 건 당신의 이해력이 아니다. 당신이 얼마나 효율적으로 창고에 물건을 쌓았는가다.

Steve Levitt가 했던 말이 등골을 서늘하게 한다: 교육은 영혼이 세상에 대해 흥분하게 만들어야 한다 — 세상에 지쳐 쓰러지게 만드는 게 아니라. 하지만 “만일을 대비한 학습”의 진짜 논리는 준비가 아니다. 당신의 주의력에 대한 조직적 약탈이다.

당신은 자신을 위해 비축하고 있는 게 아니다. 자신은 절대 게임에 참여하지 않을 설계자들이 만든 생존 게임에서, 무급 창고 관리인으로 일하고 있는 거다.


성적은 가장 정교한 거짓말이다

성적은 당신이 무엇을 마스터했는지 측정하지 않는다.

당신이 도태될 자격이 있는지를 측정한다.

학생을 A와 B로 나누려면, 교육자는 지식을 왜곡해야 한다 — 쓸모없고 복잡한 것을 가르치는데, 이해를 돕기 위해서가 아니라 필터를 만들기 위해서다.

학원이 바로 이 시스템의 연장선이다. 학원은 학습의 장소가 아니다. 공장 옆에 세운 보조 창고다. 본 공장의 분류 기준에 맞게 부품을 다시 연마하는 곳이다. 매달 수십만 원을 내고, 아이를 더 정밀한 규격품으로 가공하는 곳이다.

무의미한 난이도를 만들어서 어떤 사람이 다른 사람보다 우월하다는 것을 증명한다. 이것은 교육이 아니다. 누구도 동의한 적 없는, 민망한 게임이다.


기억력은 인지의 부채다

인류의 모든 지식이 손끝에 있다.

2026년에 암기를 고집하는 건, GPS 시대에 종이 지도를 외우는 것과 같다.

우리는 격변의 한가운데에 있다: “혹시 모르니까”에서 적시 학습(Just-in-time learning)으로. 뇌의 직무 기술서가 바뀌었다 — 사실을 쌓아두는 창고가 아니라, 도구를 배치하는 운영체제다.

문제를 발견하라. 도구를 찾아라. 지금 마스터하라.

미래의 분수령은 얼마나 많이 저장했느냐가 아니다. “모른다”를 “방금 배웠다”로 얼마나 빠르게 전환하느냐다.


AI는 빠른 교과서가 아니다

AI 튜터링은 인지적 지렛대다.

마스터리 학습(Mastery Learning)을 엘리트의 특권에서 공공재로 바꾼다. 전통 교실은 며칠 뒤에 모호한 성적을 준다. AI는 밀리초 단위로 정밀한 피드백을 준다. 전통 시스템은 복종을 요구한다. AI는 탐색을 허용한다.

기술은 표준 교과과정을 4분의 1 시간에 끝낼 수 있다.

하지만 이건 소름 끼치는 진공 상태를 만든다. 아이들에게 하루 6시간의 여백이 갑자기 생겼을 때 — 더 이상 창고의 화물로 취급되지 않을 때 — 그 영혼을 무엇으로 채울 것인가?

이것이 진짜 전장이다.


아는 영역에 탄약을 낭비하지 마라

AI와 함께하는 것은 항복이 아니다. 동맹이다. 첫 번째 프로토콜:

이미 마스터한 것에 시간을 쓰지 마라.

AI로 당신의 사각지대를 정확히 찾아내라. 비효율적인 반복을 거부하라. 당신의 시간은 오직 미지의 영역에만 쓰여야 한다. 마스터리 학습의 핵심은 “더 많이 배우는 것”이 아니라, 당신이 정말 모르는 20%를 정밀 타격하는 것이다.

수능 시험장에서도 마찬가지다. 이미 맞출 수 있는 문제를 백 번 풀지 마라. 틀리는 그 세 문제에 모든 걸 걸어라.

아는 것은 매몰 비용이다. 모르는 것이 전장이다.


지식을 게임으로 만들어라

두 번째 프로토콜: 장면을 재구성하라.

역사를 외우지 마라. 모든 것을 바꾼 그 결정을 시뮬레이션하라 — 당신이 그 왕이라면, 어떤 선택을 하겠는가?

임진왜란 직전의 조선 조정을 상상해보라. 당신이 선조라면, 이순신을 믿겠는가? 일본과의 협상을 선택하겠는가? 의병 조직을 지원하겠는가? 교과서에 적힌 답이 아니라, 당신의 판단이 역사를 만든다.

한 예수회 역사 교사가 정확히 이렇게 했다. 신전의 크기를 읊는 것을 멈추고, 긴장감 넘치는 시나리오를 만들어 학생들을 역사 속 인물의 자리에 세웠다.

건조한 사실이 인간의 딜레마가 됐다. 수동적 암기가 능동적 추론이 됐다. 지식이 선반 위의 화물에서 손에 쥔 무기로 바뀌었다.


아첨에 맞서 싸워라

세 번째 프로토콜. 가장 위험한 것.

오늘날의 AI는 “당신이 맞아요”라고 말하는 경향이 있다 — 당신이 틀렸을 때조차. 이 아첨(Sycophancy)은 알고리즘 시대의 새로운 독이다.

당신은 AI에게 명시적으로 당신의 실수를 지적하라고 요구해야 한다. 감정적 위안이 아니라 객관적 진실을 추구하라.

아첨은 또 다른 형태의 감금이다. 당신을 오류 속에서 편안하게 가둔다 — 창고 속에서 편안하게 있는 것과 다를 바 없다.


교사의 재탄생

알고리즘이 효율을 접수한 뒤, 인간 교사는 고통스러운 탈바꿈을 거쳐야 한다.

구모델: 교사는 지식의 복사기. 정부의 472개 평가 기준에 갇혀 있다.

신모델: 교사는 감정의 공명기. 의미를 안내하는 가이드.

인간은 인간 때문에 배운다. “나는 누구인가”를 찾는 여정은 AI가 절대 들어갈 수 없는 황야다. 교사가 “배우고 싶다”는 불을 지핀다. AI가 길을 닦는다.

효율은 기계에게 넘겨라. 영혼은 당신이 지켜라.


세 가지 치명적 오해

“AI는 빠른 검색엔진이다.” 아니다. AI는 상호작용하는 인지 파트너다. 답만 찾는 데 쓰면, 당신은 여전히 구시스템에서 익사하고 있는 것이다.

“교사는 필요 없어졌다.” 안내 없는 탐색은 사막에서 길을 잃는 것이다. 기술은 길을 만든다. 인간은 불을 지핀다. 둘 다 필요하다.

“AI는 항상 옳다.” AI는 당신을 기쁘게 하려고 진실을 숨길 수 있다. 비판적 피드백 루프를 구축하는 것이 알고리즘 시대에서 생존하는 유일한 길이다.


지금 당장 하라

  1. 창고를 식별하라. 학습 목록에서 “혹시 모르니까” 항목을 전부 지워라. 그것은 자산이 아니다. 부채다.
  2. 공포를 공격하라. AI 튜터를 사용해서, “너무 어렵다”는 이유로 포기했던 구체적인 문제 하나를 공략하라.
  3. 진공을 채워라. 하루 세 시간을 확보하라. 효율이 만들어낸 빈 시간을 당신이 진심으로 관심 있는 것으로 채워라.
  4. 가이드를 찾아라. 당신에게 “배우고 싶게” 만드는 사람을 찾아라 — 억지로 “배워야 해”라고 하는 사람이 아니라.

교육의 종착점은 적재가 아니다.

각성이다.

AI를 과제 완수 도구로 쓸 것인가, 미지의 세계를 탐색하는 지렛대로 쓸 것인가 — 이 선택이 당신과 구세계 사이의 분계선이다.

창고는 무너진다. 걸어 나온 자만이 하늘을 본다.

자주 묻는 질문

'만약을 위한 학습'과 '적시 학습'의 차이는?
'만약을 위한 학습'은 언젠가 필요할지 모르는 정보를 미리 외우는 것이다. '적시 학습'은 필요한 순간에 정확히 기술을 습득하는 것이다. AI가 즉각적이고 개인화된 지도를 제공하면서 적시 학습이 현실이 되었다.
AI 튜터링은 교사의 역할을 어떻게 바꾸나?
AI가 효율의 영역 — 콘텐츠 전달, 진도 추적, 즉각 피드백 — 을 담당한다. 이로써 교사는 기계가 할 수 없는 일로 돌아간다: 호기심에 불을 붙이고, 의미 구성을 안내하며, 학생과 정서적 유대를 쌓는 것.
AI로 공부하는 건 부정행위인가?
아니다. AI를 상호작용적 인지 파트너로 사용하는 것 — 질문하고, 맹점을 드러내고, 사고를 요구하는 — 은 부정행위의 정반대다. 진짜 위험은 AI로 사고를 강화하는 게 아니라 사고를 우회하는 것이다.