Google pasó gran parte de 2025 agregando flechas a su carcaj mientras desarrollaba su inteligencia man-made, Gemini. Ahora, se centra en la mejor manera de apuntar esas flechas a través de su amplia gama de equipment y software application de Android para ayudar a las personas a encontrar formas verdaderamente útiles de utilizar la IA.

Gemini de Google tuvo un año excepcional en 2025 Se impulsó al espacio creativo de la IA disadvantage modelos líderes en la industria como Veo 3 videos y nanoplátano El modo AI introdujo capacidades agentes que permitieron a la IA hacer la busqueda por ti Y Géminis 3 mostró el modelo de lenguaje grande más avanzado de la compañía hasta el momento, generando preocupación entre OpenAI y otros competidores.

Este año, Google espera aprovechar el progreso que ha logrado en el desarrollo de estos exitosos modelos y capacidades para incorporarlos a dispositivos, ya sea teléfonos inteligentes Android , Chromebooks , gafas inteligentes o incluso Televisores El objetivo final es conocer los usos prácticos de la IA. Sameer Samat, presidente del ecosistema Android de Google, lo llama “utilidad de IA”.

“La utilidad de la IA es realmente lo que pienso sobre la forma en que un consumidor común experimentaría esta tecnología y diría: ‘Guau, eso es realmente poderoso'”, dijo Samat a CNET en una entrevista en CES 2026 “Es algo que me hace muy feliz de tener este producto o algo que quiero cambiar”.

Leer más: Lo mejor de CES 2026: 22 ganadores otorgados por CNET Group

Definir usos prácticos para la IA ciertamente no es una concept nueva para Google. En 2024, introdujo Circle to Browse en Android, que hace exactamente lo que su nombre dice: puedes dibujar un círculo en una foto en la pantalla de tu teléfono y utiliza inteligencia visual para analizarla en busca de información relevante, ejecutar una búsqueda en Google y mostrar información adicional. Las mejoras impulsadas por IA para la prevención de spam significaron que los usuarios de Android reportó significativamente menos mensajes de spam (58 %) en comparación disadvantage los usuarios de iPhone, según la propia investigación de Google. Más recientemente, agregó capacidades de manos libres a chatear con geminis mientras usas Google Maps, lo que te ayuda a encontrar estacionamientos o restaurantes cercanos.

Los dispositivos Android han visto la adición de mucha IA, pero la idea de la utilidad de la IA no se limita a teléfonos y computadoras. Google ha estado agregando constantemente Gemini a los televisores, por ejemplo, comenzando con recomendaciones sobre qué mirar

En enero, la compañía anunció que estaba ampliando las integraciones de IA en televisores. Deep dives puede crear presentaciones multimedia personalizadas en menos de 2 minutos sobre cualquier tema que desee. Puedes chatear con tu televisor sobre cualquier cosa, como lo harías cheat un chatbot. Edición de fotografías impulsada por IA, similar a las herramientas de remezcla en Fotos de Google también llega a las pantallas grandes. Y si lo deseas, también puedes crear imágenes y vídeos cheat IA desde cero utilizando los modelos populares de Google.

edición de gemini-on-google-tv-remix

Puedes editar tus fotos con Gemini en tu televisor, si quieres verlas en una pantalla más grande.

Google

La introducción de estas capacidades de búsqueda y medios de comunicación similares a las de los chatbots se trata menos de presionar a las personalities para que creen imágenes de IA en su televisor y más de conocer gente dondequiera que estén. Si te encanta mostrar tus fotos familiares en tu televisor, como protector de pantalla, puedes aprovechar las herramientas de edición impulsadas por IA para darles tu propio toque personalizado. Todo es en un esfuerzo por hacer que mirar tv sea una actividad más atractiva y menos pasiva, dijo Google. en una demostración en vivo en CES.

Otra forma de introducir herramientas de IA más utilitarias es desarrollar IA agente o agentes de IA. Este género de IA generativa está diseñado para manejar tareas de forma independiente, wrong necesidad de supervisión humana, como ordenar comida a domicilio o ejecutando código. En este momento, estamos “en la cúspide de que los agentes puedan realizar tareas reales para nosotros”, dijo Samat. Será clave desarrollar esta tecnología, más allá de las aplicaciones móviles y de escritorio.

“Algunas de las mayores necesidades de este tipo de funcionalidad vendrán de otros factores de forma, que tal vez tengan pantallas más pequeñas, ninguna pantalla o donde necesiten ser manos libres”, dijo Samat. Eso podría estar en el software application dentro de los vehículos, autoconducción y otras cosas, pero también podría estar dentro de las gafas inteligentes, que Google ha dicho anteriormente que considera parte important de la evolución de la IA.

El enfoque de Google en la utilidad refleja una tendencia creciente y un movimiento hacia la siguiente fase del desarrollo de la IA. Supongamos que pensamos en los chatbots como una versión temprana de Net, como AOL. Luego, avanzar hacia herramientas de inteligencia man-made personalizadas y agentes es el nuevo Google.

La IA ya no es una novedad. En 2026, todos nosotros (las personalities que construyen la IA y quienes la utilizan) deberíamos invertir en encontrar formas concretas y productivas de integrar la IA. Si bien es posible que disfrutes usando Nano Banana, también querrás que la IA de tu Android te haga la vida más fácil.

“Creemos que esta tecnología puede hacer que las personas pasen de la curiosidad por la IA a la utilidad de la IA y a la sensación de que los dispositivos Android child útiles, divertidos y agradables”, afirmó Samat.

Fuente