김한성 투비유니콘 최고철학책임자(CPO) 2026년, 우리는 처음으로 '보이지 않는 동료'와 함께 일하기 시작했다. 한 문장으로 업무를 설계하고 실행하는 AI. 한국은 같은 시기 세계 최초로 AI 기본법을 시행했다. 기술과 규제가 동시에 움직이는 이 순간, AI는 더 이상 도구가 아니다. 이제 AI는 검색, 금융, 행정, 정책 결정 전반을 작동시키는 “보이지 않는 운영체제(OS)"가 되었다. 우리는 이미 그 위에서 살아가고 있다. 문제는 이 운영체제를 누가 설계하고, 누가 통제하는가 이다. 존 L. 오스틴은 말했다. “말하는 것은 곧 행동이다." 이제 프롬프트는 입력이 아니라 실행이다. 한 문장이 정책을 만들고, 판단을 내리고, 여론을 움직인다. 그러나 한나 아렌트가 경고했듯, 행위에는 책임이 따른다. 니체의 통찰은 더 근본적이다. 권력은 해석을 통해 만들어진다. AI가 판단하는 순간, 그 의미를 해석하는 권력이 발생한다. 문제는 그 권력이 이미 현실에서 작동하고 있다는 점이다. 우리는 그것을 의식하지 못한 채 매일 그 판단에 따라 선택하고, 그 선택 속에서 다시 영향을 받는다. 그리고 이 보이지 않는 권력은 지금도 우리의 일상을 통해 끊임없이 작동하고 있다. 어떤 뉴스가 먼저 보이는가, 누가 대출을 승인받는가, 어떤 정책이 채택되는가, 어떤 콘텐츠가 확산되고 어떤 의견이 사라지는가. AI는 매 순간 선택하고, 그 선택은 다시 사회의 방향을 만든다. 이때 질문은 자연스럽게 확장된다. 이 판단 기준은 누가 설계했는가. 그 기준은 누구의 가치에 기반하는가. 잘못된 판단이 발생했을 때, 누가 책임지는가. 그리고 우리는 그 판단에 개입할 수 있는가. 이 지점에서, 우리는 더 이상 피할 수 없는 질문과 마주한다. 바로, 정책의 질문이다. 지금까지의 AI 정책은 주로 기술 경쟁력 확보와 위험 규제에 집중해 왔다. 물론 필요하지만 충분하지 않다. AI 시대의 본질은 단순한 위험 관리가 아니라 판단 권력의 배분 구조를 어떻게 설계할 것인가의 문제이기 때문이다. 한국은 지금 중요한 전환점에 서 있다. AI 도입 속도와 기술 수용성은 세계 최고 수준이지만 판단 구조는 여전히 공급자 중심이다. 기업이 설계하고, 정부가 규제하며, 시민은 사용하는 구조. 이 구조에서는 의미를 결정하는 권력이 집중될 수 밖에 없다. 따라서 다음 단계의 정책은 명확해야 한다. 핵심은 하나다. '판단력의 사회적 분산' 이다. 이를 위해 세 가지 전환이 필요하다. 첫째, '설명 가능한 AI'에서 '참여 가능한 AI'로의 전환이다. 지금의 정책은 알고리즘이 왜 그런 결정을 내렸는지를 설명하는 데 집중한다. 그러나 설명은 이해를 돕지만, 권한을 부여하지는 않는다. 이제는 시민이 알고리즘의 판단에 질문하고, 그 결과에 이의를 제기하며, 필요할 경우 수정 요구를 할 수 있어야 한다. 예를 들어 공공 AI 시스템에 대한 시민 감사권, 알고리즘 결정에 대한 공식 이의 제기 절차, 정책 AI에 대한 공개 피드백 플랫폼 구축이 가능하다. 이는 기술이 아니라 민주주의의 문제다. 둘째, 'AI 리터러시'에서 '판단력 교육'으로의 전환이다.현재 교육은 AI를 잘 사용하는 법에 집중되어 있다. 그러나 앞으로 중요한 것은 사용 능력이 아니라 AI의 결과를 해석하고, 의심하고, 재구성하는 능력, 즉 판단력이다. 국가 교육 시스템은 AI 출력 평가 기준의 표준화, 에이전트 기반 토론 수업, AI 편향 분석과 수정 실습 등이 교육의 중심이 되어야 한다. 학생은 더 이상 사용자에 머무르지 않고 AI 판단에 개입하는 시민으로 성장해야 한다. 셋째, '데이터 경제'에서 '의미 거버넌스'로의 전환이다. 지금까지 정책은 데이터의 수집과 활용에 집중되어 왔다. 그러나 앞으로의 경쟁력은 데이터의 양이 아니라 그 데이터를 통해 어떤 의미를 만들어내는가에 달려 있다. 이를 위해서는 시민 참여형 데이터 신탁(Data Trust), AI 학습 방향에 대한 집단 의사결정, 그리고 '알고리즘 배심원제'와 같은 제도적 실험이 필요하다. 이는 데이터를 공유하는 수준을 넘어, 판단 기준 자체를 사회가 공동 설계하는 단계로 나아가야 한다. 이 세 가지 전환은 하나로 수렴된다. AI를 통제하는 것이 아니라, AI의 판단 과정에 사회 전체가 참여하는 구조를 만드는 것이 다음 시대의 정책이다. 기술은 점점 완벽해질 것이다. 그러나 완벽한 시스템은 위험하다. 질문을 멈추게 만들기 때문이다. 기술은 답을 만든다. 그러나 문명은 질문을 만든다. AI 시대의 정책은 효율을 높이는 것이 아니라 질문할 수 있는 권리를 보장하는 것이어야 한다. 보이지 않는 운영체제가 세상을 움직이는 시대. 국가 경쟁력의 기준도 바뀐다. 더 빠른 기술이 아니라, 더 많은 데이터가 아니라, 더 공정하고 참여적인 판단 구조다. 한국이 선택해야 할 길은 분명하다. AI를 잘 쓰는 나라를 넘어, AI의 의미를 함께 결정하는 나라. 그때 우리는 기술의 사용자가 아니라 문명의 설계자가 될 것이다. bienns@ekn.kr