Con el nuevo asistente con IA de Google, es cuestión de tiempo que ya no haga falta volver a tocar la pantalla del móvil
Llevo años usando Google Assistant y tengo claro que salvo para unas cuantas (pocas) órdenes concretas, no merecía la pena para mucho más: el entenimiento y la contextualización están a años luz de lo esperable en una conversación humana natural, por lo que salvo cositas como poner un temporizador o algo de música, el asistente de Google no funcionaba como yo esperaba. Gemini está siendo una revolución a la hora de interaccionar porque por fin la experiencia es bastante próxima a hablar con otra persona y además Google está poniendo toda la carne en el asador para hacerlo más completo e integrarlo en cualquier parte. Gemini Live me está sorprendiendo gratamente, pero en el Google I/O vimos algo que me dejó con la boca abierta: que la inteligencia artificial controle tu móvil Android pronto va a ser una realidad. La meta de Google: un asistente con IA omnisciente y omnipotente La idea es que su asistente pueda comprender el contexto, detecte problemas y desarrolle soluciones que pueda ejecutarlas por nosotros. Un asistente que todo lo sabe y todo lo puede que hasta entre en acción sin tener que invocarlo. Su nombre es Project Astra, llevamos meses oyendo hablar de él y ya hemos podido verlo. Así, en el Google I/O vimos el desempeño de su asistente omnipotente y omnisciente como que una persona tiene problemas con los frenos de su bici y le pide a Astra que busque el manual del usuario online. Una vez encontrado, le solicita que rebusque hasta la sección correspondiente de los frenos y que a partir de ahí encuentre un tutorial en vídeo en YouTube y que hasta contacte con una tienda para averiguar qué piezas necesita. Astra no solo lo hace, sino que hasta consulta a la tienda si tiene stock de esas piezas. Otro ejemplo de uso espectacular lo cuenta The Verge: la directora de producto del equipo de Google DeepMind enfoca con la cámara de su móvil hacia unos auriculares Sony y le pide a Astra que le diga cuáles son. Como le pasaría a la mayoría de mortales, no tiene claro si son los WH-1000XM4 o los WH-1000XM3. Bien, luego Bibo Xiu le solicita que le pase el manual y le explique cómo emparejarlos con el móvil para, a mitad de la explicación, le pide que se los empareje con ella. Y Astra lo hace: ya no es buscar información en internet o ver, es que es capaz de preparar una explicación y ejecutarla actuando sobre dispositivos. Según las demos, Astra simula interacciones en pantalla para desplazarse por la interfaz, analizando su contenido. Aunque impresionantes, estas demos siguen evidenciando cierto margen de mejora. Sin ir más lejos, la directora de producto del equipo de Google DeepMind tuvo que activar manualmente una función para conceder acceso a la pantalla del móvil. No obstante, todavía está en fase de pruebas y solo aquellas funciones consolidadas se integran en herramientas como Gemini para pasar al público general. Eso sí, Google tiene un plan de acción claro: 'transformar la app de Gemini en un asistente universal de IA que realice tareas cotidianas por nosotros'. Sin ir más lejos, el modo IA de Google ya está sustituyendo a la búsqueda de Google: un cambio radical en su buscador de información, que ahora es tan simple como tener una conversación natural con el asistente donde este ejecuta cientos de búsquedas simultáneas para unos resultados de la web mucho más profundos frente a la búsqueda tradicional valiéndose de Gemini 2.5. Y no solo propone, sino que también te ayuda a completar esas tareas de principio a fin, como hemos vislumbrado en sus demos. Por el momento hasta los sistemas con inteligencia artificial más avanzados todavía requieren que introduzcas indicaciones paso a paso, que les datos y contexto y aún así puede que necesites intervenir manualmente. Pero como Astra tiene acceso a internet y los accesos de Google, el objetivo es que más pronto que tarde se reduzcan todos esos pasos para que actúe solo. Ni es una tarea técnicamente fácil y además representa todo un desafío de privacidad y seguridad que una app pueda acceder, entender y actuar frente a tanta información. En teoría, Astra podría ejecutar todo eso en local con el modelo Gemini Nano, pero esto no se vio en la demo. Desarrollar algo así y que funcione bien (con las menores alucinaciones posibles, algo esencial habida cuenta el poder que tiene) e implementarlo llevará tiempo, pero Google ya está adelantando el futuro y es uno en el que un asistente universal hará que no haga falta ni tocar el móvil. En Xataka Android | Gemini Live es la mejor herramienta de Google en años: así puedes usarlo como un pro En Xataka Android | Adiós, Google Assistant: usar Perplexity como asistente en mi Android lo cambia todo. Ya no me desespero hablando con el móvil Portada | Antonio Vallejo - La noticia Con el nuevo asistente con IA de Google, es cuestión de tiempo que ya no haga falta volver a tocar l

Llevo años usando Google Assistant y tengo claro que salvo para unas cuantas (pocas) órdenes concretas, no merecía la pena para mucho más: el entenimiento y la contextualización están a años luz de lo esperable en una conversación humana natural, por lo que salvo cositas como poner un temporizador o algo de música, el asistente de Google no funcionaba como yo esperaba.
Gemini está siendo una revolución a la hora de interaccionar porque por fin la experiencia es bastante próxima a hablar con otra persona y además Google está poniendo toda la carne en el asador para hacerlo más completo e integrarlo en cualquier parte. Gemini Live me está sorprendiendo gratamente, pero en el Google I/O vimos algo que me dejó con la boca abierta: que la inteligencia artificial controle tu móvil Android pronto va a ser una realidad.
La meta de Google: un asistente con IA omnisciente y omnipotente
La idea es que su asistente pueda comprender el contexto, detecte problemas y desarrolle soluciones que pueda ejecutarlas por nosotros. Un asistente que todo lo sabe y todo lo puede que hasta entre en acción sin tener que invocarlo. Su nombre es Project Astra, llevamos meses oyendo hablar de él y ya hemos podido verlo.
Así, en el Google I/O vimos el desempeño de su asistente omnipotente y omnisciente como que una persona tiene problemas con los frenos de su bici y le pide a Astra que busque el manual del usuario online. Una vez encontrado, le solicita que rebusque hasta la sección correspondiente de los frenos y que a partir de ahí encuentre un tutorial en vídeo en YouTube y que hasta contacte con una tienda para averiguar qué piezas necesita. Astra no solo lo hace, sino que hasta consulta a la tienda si tiene stock de esas piezas.
Otro ejemplo de uso espectacular lo cuenta The Verge: la directora de producto del equipo de Google DeepMind enfoca con la cámara de su móvil hacia unos auriculares Sony y le pide a Astra que le diga cuáles son. Como le pasaría a la mayoría de mortales, no tiene claro si son los WH-1000XM4 o los WH-1000XM3. Bien, luego Bibo Xiu le solicita que le pase el manual y le explique cómo emparejarlos con el móvil para, a mitad de la explicación, le pide que se los empareje con ella.
Y Astra lo hace: ya no es buscar información en internet o ver, es que es capaz de preparar una explicación y ejecutarla actuando sobre dispositivos. Según las demos, Astra simula interacciones en pantalla para desplazarse por la interfaz, analizando su contenido.
Aunque impresionantes, estas demos siguen evidenciando cierto margen de mejora. Sin ir más lejos, la directora de producto del equipo de Google DeepMind tuvo que activar manualmente una función para conceder acceso a la pantalla del móvil. No obstante, todavía está en fase de pruebas y solo aquellas funciones consolidadas se integran en herramientas como Gemini para pasar al público general.
Eso sí, Google tiene un plan de acción claro: 'transformar la app de Gemini en un asistente universal de IA que realice tareas cotidianas por nosotros'. Sin ir más lejos, el modo IA de Google ya está sustituyendo a la búsqueda de Google: un cambio radical en su buscador de información, que ahora es tan simple como tener una conversación natural con el asistente donde este ejecuta cientos de búsquedas simultáneas para unos resultados de la web mucho más profundos frente a la búsqueda tradicional valiéndose de Gemini 2.5. Y no solo propone, sino que también te ayuda a completar esas tareas de principio a fin, como hemos vislumbrado en sus demos.

Por el momento hasta los sistemas con inteligencia artificial más avanzados todavía requieren que introduzcas indicaciones paso a paso, que les datos y contexto y aún así puede que necesites intervenir manualmente. Pero como Astra tiene acceso a internet y los accesos de Google, el objetivo es que más pronto que tarde se reduzcan todos esos pasos para que actúe solo.
Ni es una tarea técnicamente fácil y además representa todo un desafío de privacidad y seguridad que una app pueda acceder, entender y actuar frente a tanta información. En teoría, Astra podría ejecutar todo eso en local con el modelo Gemini Nano, pero esto no se vio en la demo.
Desarrollar algo así y que funcione bien (con las menores alucinaciones posibles, algo esencial habida cuenta el poder que tiene) e implementarlo llevará tiempo, pero Google ya está adelantando el futuro y es uno en el que un asistente universal hará que no haga falta ni tocar el móvil.
En Xataka Android | Gemini Live es la mejor herramienta de Google en años: así puedes usarlo como un pro
En Xataka Android | Adiós, Google Assistant: usar Perplexity como asistente en mi Android lo cambia todo. Ya no me desespero hablando con el móvil
-
La noticia
Con el nuevo asistente con IA de Google, es cuestión de tiempo que ya no haga falta volver a tocar la pantalla del móvil
fue publicada originalmente en
Xataka Android
por
Eva R. de Luis
.