Google no piensa ceder un milímetro en el desarrollo de soluciones novedosas basadas en inteligencia artificial (IA). Para el buscador, la era de Gemini , su IA, ha empezado. Y a la de ya. La empresa ha anunciado, dentro del marco de su evento anual Google I/O , que su nueva versión del buscador de internet capaz de generar respuestas de forma automática cuando el usuario realice una consulta en la web, exactamente igual que lo que ofrece ChatGPT, sale de su fase de pruebas. La herramienta recibe el nombre de AI Overviews y ya está disponible en Estados Unidos y, próximamente, llegará al resto del mundo. En Europa tendrá que superar varias barreras regulatorias, por lo que es posible que se demore algo más.Esta tecnología, basada en Gemini, que es como se conoce a la versión de Google de ChatGPT, fue anunciada por la compañía hace exactamente un año, permite a los usuarios obtener respuestas concretas a consultas que pueden ser difíciles de resolver visitando páginas web. Por ejemplo, si el usuario quiere organizarse un fin de semana en Barcelona, la IA se lo responde en el mismo buscador, justo al inicio. Y si le pregunta en qué debería fijarse antes de comprar una bicicleta de montaña, lo mismo. No hará falta que haga clic en ninguna página de las que aparecen más abajo en pantalla. O sí, en caso de que quiera consultar más información. Sea como fuere, la novedad puede representar una gran amenaza para los editores y para todos aquellos creadores que dependen de que la gente entre en sus sitios web.El buscador también permitirá realizar búsquedas a través de vídeos e imágenes y vídeos. Por ejemplo, el usuario podría compartir una imagen de un neumático y preguntarle al buscador dónde puede comprarlo, y la máquina le responderá y le ofrecerá enlaces. Esto es algo parecido a lo que ya es posible hacer en los móviles Samsung Galaxy y en los Pixel, todo gracias a la tecnología de Gemini.Nuevo asistente que te dice todo lo que veLa empresa también compartió su Proyecto Astra, que aspira a reformular el modo en el que funcionan actualmente los (limitados) asistentes virtuales actuales, como es el caso de Siri. Para ello hará uso de Gemini. El asistente es multimodal, lo que implica que funciona con texto, voz, imágenes y vídeo. Hasta es capaz de analizar el entorno en tiempo real a través de la cámara del dispositivo de turno. Durante las pruebas del asistente, se ha mostrado cómo un usuario, con un móvil en la mano y la cámara activada, iba mostrándole la oficina en la que trabaja. La herramienta fue capaz de reconocer pinturas de colores ubicadas en un bote, la ciudad en la que se encontraba el usuario simplemente echando un vistazo por la ventana o, incluso, decir para que servía un código que aparecía en la pantalla de un ordenador. Hasta le dijo dónde se encontraban las gafas que tenía encima de la mesa.Vídeos a partir de textoGoogle también mostró su respuesta a Sora, la herramienta de IA de OpenAI capaz de generar vídeos de hasta un minuto de forma automática. Como en ese caso, el usuario de Gemini solo tendrá que ofrecer una descripción del vídeo que quiere mediante texto, y la máquina lo crea. En el evento se han mostrado ejemplos en los que se ve un velero en el mar o un coche entrando en una residencia. Los resultados son muy buenos. Rabiosamente realistas. Pero cuidado, porque uno no se puede fiar de más de lo que muestran las grandes tecnológicas cuando enseñan grandes avances de IA. Habrá que esperar a que la funcionalidad esté disponible para comprobarlo, algo para lo que todavía no hay fecha.Los anuncios del buscador llegan un día después de que OpenAI transformase completamente a ChatGPT añadiéndole funciones de asistente de voz y haciendo a la herramienta capaz de interactuar con imágenes en vídeo captadas en tiempo real. Por el momento, el chatbot de la startup sigue siendo, con diferencia, el más empleado en la red. Sin embargo, Google no se rinde con Gemini. Ni mucho menos.
Dejar una contestacion