인공지능(AI)이 사용자의 목소리를 듣는 단계를 넘어, 카메라를 통해 세상을 실시간으로 인지하고 판단하는 '눈'을 갖추게 되었다. 구글은 작년 첫선을 보였던 실시간 멀티모달 AI ‘프로젝트 아스트라(Project Astra)’를 안드로이드 스마트폰에 온디바이스(On-device) 형태로 이식하는 데 성공하며, 진정한 개인 AI 비서 시대의 개막을 선언했다.
이는 단순히 성능이 좋은 언어 모델을 탑재한 것을 넘어, 기기 내부의 연산 자원만으로 시각과 청각 정보를 동시 처리하는 지능형 에이전트의 시대가 열렸음을 의미한다.
기술적 관점에서 이번 이식의 핵심은 '지연 시간(Latency)'의 획기적인 단축에 있다. 기존 클라우드 기반 AI가 영상 데이터를 서버로 보내 분석하고 다시 결과값을 받는 과정에서 물리적인 시차가 발생했다면, 온디바이스 아스트라는 신경망 처리 장치(NPU) 최적화를 통해 이 과정을 기기 내에서 종결한다. 마치 인간이 뜨거운 물건에 손이 닿았을 때 뇌의 판단을 기다리지 않고 척수 반사로 손을 떼는 것처럼, 기기가 별도의 외부 통신 없이도 현장의 맥락을 즉시 파악하게 된 것이다.
이러한 변화는 MWC 2026에서 강조된 '에이전틱 AI(Agentic AI)'의 실무 적용을 앞당기는 결정적인 계기가 될 것으로 보인다. 에이전틱 AI는 사용자의 질문에 단순히 텍스트로 답하는 수준을 넘어, 카메라로 비춰진 사물의 용도를 파악하거나 복잡한 상황에서 사용자의 의도를 선제적으로 읽어내고 행동한다. 예를 들어, 고장 난 가전제품을 카메라로 비추면 수리 방법을 즉석에서 가이드하거나, 현재 보고 있는 식재료로 만들 수 있는 요리를 실시간 음성으로 제안하는 식의 능동적 개입이 가능해진다.
산업적으로는 모바일 인프라의 안보와 프라이버시 기준을 한 단계 높이는 결과를 가져올 전망이다. 모든 시각 데이터와 음성 분석이 기기 내부에서 처리되므로, 민감한 개인 정보가 외부 서버로 유출될 우려가 원천적으로 차단된다.
또한 네트워크 연결이 불안정한 환경에서도 AI의 핵심 기능을 유지할 수 있어, 기업용 보안 단말기나 극한의 환경에서 작업하는 전문가들을 위한 도구로서의 활용도가 극대화될 것으로 기대된다.
결론적으로 프로젝트 아스트라의 모바일 안착은 스마트폰을 단순한 통신 도구에서 사용자의 감각을 공유하는 '디지털 동반자'로 변모시키는 변곡점이 될 것이다. 구글은 이를 통해 안드로이드 생태계의 폐쇄적 최적화를 강화하며 경쟁사들에 강력한 선전포고를 던졌다.
향후 하드웨어 제조사들은 더욱 강력한 온디바이스 연산 능력을 확보하기 위한 칩셋 경쟁에 박차를 가할 것이며, 소프트웨어 시장은 누가 더 자연스러운 에이전트 경험을 제공하느냐에 따라 승패가 갈릴 것으로 보인다.

