
지난주 CES 2026은 '피지컬 인공지능(Physical AI)'의 시대가 열렸음을 선언했다. AI가 모니터 밖으로 걸어 나와 로봇이라는 육체를 입었다. 하지만 여기서 멈추면 안 된다. 스탠퍼드대 페이페이 리(Fei-Fei Li) 교수가 이끄는 월드랩스(World Labs)는 AI의 다음 단계로 '공간지능(Spatial Intelligence)'을 주목하고 있다. 이는 AI가 사물뿐만 아니라 공간의 깊이, 물리학, 그리고 그 안에 있는 사람의 의도를 이해하는 것을 뜻한다.
공간지능은 심리학자 하워드 가드너(Howard Gardner)가 1983년 다중지능이론에서 정의한 개념으로, 머릿 속에서 입체를 상상하고 물체를 회전해 보고 지도를 보며 길을 찾는 능력처럼 공간을 머릿 속에서 그려 보고 다루는 인간의 인지 능력, 바로 우리가 공간을 몸으로 '느끼고 다루는 능력'을 가리키는 말이다.
특히 건축가나 엔지니어, 외과의사, 파일럿 같은 사람들은 이 능력이 없으면 일할 수 없다. 그리고 예술가나 운동선수도 마찬가지다. 공간을 '눈을 감고도 그려 보는 힘', 이것이 공간지능의 본질이다.
최근 이 개념은 AI와 로봇의 세계로 확장되고 있다. '공간지능'은 더 이상 인간만의 특권이 아니다. 기계도 3차원 세계를 이해하고(무엇이 어디에 있고), 예측하며(어디로 움직일지), 그리고 행동까지 결정하는 능력을 갖추기 시작했다.
따라서 페이페이 리교수와 월드랩스가 말하는 공간지능은 단순한 기술혁신이 아니다. 언어를 잘 다루는 LLM을 넘어서 '세상을 실제로 보고, 이해하고, 움직일 수 있는 AI'를 만들겠다는 의지와 기술의 철학을 바꾸겠다는 선언에 가깝다.
이처럼 공간지능은 사람의 '머릿 속 3D 지도'를 설명하는 개념에서 출발해 오늘날 AI·로보틱스에서는 기계가 실제 세계 속에서 스스로 길을 찾고, 부딪치지 않고, 사람을 배려하며 움직이게 만드는 핵심 능력으로 진화하고 있다.
그렇다면 도시는 어떨까? 도시는 거대한 3D 환경이다. 도로와 건물, 신호등, 지하철뿐만 아니라 그 안을 예측 불가능하게 오가는 수백만의 사람들과 사건들, 감정들까지 모두 포함하는 살아 있는 공간이다. 공간지능을 도시 차원에 적용한다는 것은 결국 한 가지를 의미한다. '도시 전체가 하나의 지능을 가진 존재처럼 상황을 읽고, 예측하고, 반응하게 만들겠다'는 뜻이다.
지금 정부가 추진하는 'AI 3대 강국 도약'과 '100조원 펀드'가 중요한 이유는 여기에 있다. 단순한 칩 경쟁이나 로봇 대량생산이 아니라, 지금 살펴본 공간 지능의 철학, 즉 '도시를 지능적으로 읽고, 사람을 배려하며, 윤리적으로 설계하는 방식'이 글로벌 표준이 되는 '도시 문명의 표준'을 선점해야 하기 때문이다.
그동안 우리는 도시에 수많은 CCTV와 센서를 설치했다. 하지만 그것은 도시가 우리를 '모니터링(Monitoring)', 즉, 감독·관리하는 것이었지, '이해(Understanding)'하는 것은 아니었다. 휠체어를 탄 사람이 나타났을 때 계단은 여전히 높고, 짐을 든 노인이 힘겨워할 때 벤치는 여전히 가만히 있다. 도시는 그 사람들의 필요를 '예측'하지 못했다. 세계적인 경영컨설팅 기업인 맥킨지와 세계경제포럼(WEF)의 최신 보고서들이 지적하듯, '관제' 중심의 스마트시티는 이제 한계에 봉착했다.
여기서 도시의 미래는 갈라진다.
김태형 단국대 대학원 데이터지식서비스공학과 교수·정보융합기술·창업대학원장