un sistema controlado por agentes de IA – Desde dentro
La forma en que utilizamos las aplicaciones móviles podría estar entrando en una nueva fase. Hasta ahora, la experiencia

La forma en que utilizamos las aplicaciones móviles podría estar entrando en una nueva fase. Hasta ahora, la experiencia en Android se basaba en algo muy sencillo: abrir aplicaciones y realizar acciones paso a paso dentro de ellas. Sin embargo, Google está explorando un modelo diferente en el que la inteligencia artificial actúa como una capa intermedia entre lo que pedimos y lo que las aplicaciones pueden hacer. En este escenario, no siempre seremos nosotros quienes nos desplacemos por los menús o completemos procesos manualmente. En muchos casos basta con indicar qué queremos hacer para que el sistema intente solucionarlo por nosotros y coordinar diferentes funciones del teléfono.
El siguiente paso en Android. En una publicación en el blog oficial del desarrollador.La compañía está introduciendo nuevas funciones diseñadas para permitir que las aplicaciones funcionen directamente con asistentes y sistemas de inteligencia artificial. Estas funciones están diseñadas para permitir que herramientas como Gemini reconozcan y realicen acciones específicas dentro de algunas aplicaciones. El proyecto aún se encuentra en sus primeras etapas, pero apunta en una dirección muy específica: comenzar a reconfigurar Android como un entorno donde la inteligencia artificial pueda ayudar a hacer las cosas.
¿Qué entendemos por agente? En el campo de la IA Un agente es un sistema diseñado. pasar de la reacción a la acción. Si bien los primeros asistentes digitales funcionaban como herramientas de asesoramiento, los agentes buscan comprender una intención y planificar cómo ejecutarla. Para ello, combinan varias habilidades: comprender el lenguaje natural, evaluar el contexto y decidir qué pasos son necesarios para cumplir con una solicitud. No se trata sólo de generar textos o sugerencias, sino de organizar una pequeña cadena de decisiones encaminadas a un objetivo concreto.
Si seguimos el razonamiento expuesto por Google en su publicación, el cambio afecta no sólo a la IA, sino también a la forma en que se diseñan las aplicaciones dentro de Android. Durante años, el objetivo principal de cualquier aplicación era conseguir que el usuario la abriera y realizara las acciones necesarias dentro de ella. Sin embargo, este criterio está empezando a cambiar. En este nuevo escenario, el éxito se mide menos por si abrimos una aplicación y más por su capacidad para ayudar a completar una tarea, incluso si el usuario no interactúa directamente con toda la interfaz.
Uno de los primeros cambios. La primera ruta que Google sugiere en esta dirección es a través de algo que llama Características de la aplicación. Esta no es una característica visible para el usuario como tal, sino más bien un conjunto de herramientas que los desarrolladores pueden usar para hacer que la funcionalidad y los datos de sus aplicaciones estén disponibles para asistentes inteligentes como Gemini. El ejemplo mencionado en el blog de Android es bastante ilustrativo: en la serie Galaxy S26 recientemente presentada, Gemini puede acceder a las funciones de la Galería Samsung para buscar fotografías específicas basadas en una consulta en lenguaje natural, por ejemplo para mostrar imágenes de una mascota. En este caso, el asistente interpreta la solicitud, activa la función Samsung Gallery correspondiente y devuelve el resultado sin que el usuario tenga que navegar manualmente por la galería.
Al revés de Google. Además de las integraciones directas, la compañía prepara una segunda fórmula para expandir este modelo a aplicaciones adicionales. Según explica, se trata de un sistema de automatización de interfaz que permitirá a Gemini manejar tareas genéricas de varios pasos sin depender de una conexión específica entre la aplicación y el asistente. En lugar de depender de una función proporcionada previamente por la aplicación, la IA actúa directamente sobre la interfaz. Google señala que esta vista previa inicial se está probando en la serie Galaxy S26 y algunos Pixel 10, dentro de la aplicación Gemini y con una selección limitada de aplicaciones de entrega, comestibles y transporte en EE. UU. y Corea. La empresa también asegura que el usuario puede seguir el proceso a través de notificaciones o una vista en vivo, retomar el control manual en cualquier momento y recibir notificaciones antes de acciones sensibles como una compra.
Mirando hacia el futuro. Si algo deja claro el anuncio de Google es que Android empieza a prepararse para otra fase. Las características presentadas aún están en desarrollo y su introducción será paulatina, pero apuntan a una dirección concreta: un sistema operativo en el que la inteligencia artificial juega un papel cada vez más activo en la forma en que realizamos las acciones diarias en los teléfonos móviles. Pixel y Samsung parecen ser las referencias más visibles por ahora, aunque Google insinúa que pondrá estas capacidades a disposición de otros fabricantes a medida que el ecosistema evolucione. Como suele ocurrir con este tipo de cambios, el resultado final depende de cómo evolucionan las herramientas, las integraciones y la respuesta de los usuarios.
Imágenes | Google
En | El iPhone ha sido un teléfono “Hecho en China” durante décadas. Ahora está cambiando de país a toda velocidad: India



