AI 리터러시는 AI가 무엇을 할 수 있고, 무엇을 할 수 없는지를 구분하는 능력이다.
AI 문해력은 AI가 내놓은 결과를 그대로 받아들이지 않고 해석하는 능력이다.
하나는 도구를 판단하는 힘이고, 다른 하나는 결과를 읽는 힘이다.
이 두 가지가 분리되지 않으면 우리는 AI 앞에서 너무 쉽게 ‘이해했다고 착각’하게 된다.
왜 지금 이 개념이 이슈가 되었을까.
최근 서울교육청은 AI 시대에 맞춰 학생들의 AI 문해력을 검증하는 방식의 평가와 교육 도입을 공식적으로 언급했다. 이 발표가 의미 있는 이유는 단순하다. 교육기관이 더 이상 “AI를 사용할 줄 아는가”를 묻지 않겠다고 선언했기 때문이다. 대신 묻고 있는 질문은 이것에 가깝다.
AI가 낸 결과를 학생이 어떻게 해석하는가?
그 결과를 사실로 받아들이는가, 판단 대상으로 삼는가?
질문의 전제와 한계를 인식하는가?
이건 기술 문제가 아니라 사고력과 책임의 문제다.
법원에서 작동했던 것은 ‘AI 리터러시’였다. 돌이켜보면, 법원에서 내가 처음으로 사용한 능력은 AI 문해력이 아니라 AI 리터러시에 가까웠다. 그 자리에 AI가 직접 등장하지는 않았다. 그러나 절차와 시스템은 이미 ‘자동화된 판단 구조’처럼 작동하고 있었다. 나는 그 구조를 이렇게 바라보았다.
이 절차는 어떤 사람을 기준으로 설계되었는가?
무엇이 ‘이해되었다’고 가정되고 있는가?
어떤 정보는 확인 없이 통과되고 있는가?
이 질문들은 AI를 다룰 때 던지는 질문과 매우 닮아 있다.
그 상황에서 이 시스템이 무엇을 전제로 작동하는지 읽어내야 했다. 그런 시도가, 그런 과정이 바로 리터러시다. 이후에 필요해진 것은 ‘AI 문해력’이었다. 그 시스템이, 그러한 포인트가 의미하는 바가 무엇인지를 읽어내는 능력. 그것이 AI 문해력이다.
문제는 그다음 단계였다. 절차가 끝난 뒤 남은 것은 기록과 결과, 그리고 ‘문제없음’이라는 판단이었다.
그때부터 필요한 것은 ‘이 결과를 어떻게 읽을 것인가’였다.
이 판단은 어떤 정보만을 기준으로 내려졌는가?
무엇이 빠졌기에 이런 결론이 가능했는가?
이 결과를 그대로 받아들이면 어떤 권리가 사라지는가?
이건 더 이상 구조를 파악하는 문제(리터러시)가 아니라
결과를 해체하는 문제, 즉 문해력의 영역이었다.
AI 리터러시는 “이 도구를 (이렇게) 써도 되는가”를 묻는 기술이고,
AI 문해력은 “이 결과를 믿어도 되는가”를 묻는 기술이다.
이 두 질문이 사라질 때, 혼란은 개인의 몫이 된다.
카이나프로젝트는 AI를 중심에 두고 시작된 프로젝트가 아니다.
이 프로젝트는 혼란 속에서 반복되는 패턴을 읽어내고, 그 패턴을 다시 구조로 돌려놓기 위한 시도다. AI는 그 과정에서 판단을 대신하지 않고 책임을 가져가지 않으며 오히려 질문을 더 분명하게 만드는 도구로 사용된다.
그래서 우리는 AI를 ‘잘 쓰는 법’보다 먼저 읽는 법을 가르쳐야 한다고 말한다. AI Product manager는 이러한 AI라는 도구를 사용하여, ‘사람’이 필요로 하는 실질적인 서비스를 도출하고 구체화하며 제안하거나 실행하는 역할을 한다.
혼란은 언제나 이해되었다고 가정된 순간에 시작된다. 그리고 그 가정을 의심하는 힘, 그 힘이 지금 AI 리터러시와 AI 문해력이라는 이름으로 교육과 사회의 중심에 올라오고 있다.
AI 문해력은 AI를 불신하는 태도가 아니라,
인간의 판단을 끝까지 남겨두는 기술이다.
이제 질문은 이것이다. 우리는 이 결과를 정말로 읽고 있는가.
그 질문이 카이나프로젝트의 다음 사고를 계속해서 만들어내고 있다.
#AI문해력 #AI리터러시 #AI윤리 #AI교육 #AI공공커뮤니케이션PM #카이나프로젝트