La búsqueda visual de Google ahora puede responder preguntas aún más populares

Cuando se introdujo Google Lens en 2017, la función de búsqueda realizó una tarea que no hace mucho habría parecido ciencia ficción: apuntar la cámara de su teléfono a un objeto y Google Lens puede reconocerlo, mostrar ciertas condiciones y tal vez incluso permitirlo. lo compras. Era una nueva forma de buscar, una que no implicaba escribir torpemente descripciones de las cosas que ves delante de ti.

Lens también mostró cómo Google planea utilizar herramientas de inteligencia artificial y aprendizaje automático para garantizar que su motor de búsqueda aparezca siempre que sea posible. A medida que Google continúa utilizando sus modelos centrales de inteligencia artificial para generar resúmenes de información basados ​​en búsquedas de texto, la búsqueda visual de Google Lens también está evolucionando. Y ahora la compañía dice que Lens, que impulsa alrededor de 20 mil millones de búsquedas al mes, admitirá más métodos de búsqueda, incluidos videos y búsquedas multimodales.

Otro cambio en Lens significa que aparecerán más condiciones de compra en los resultados. Sorprendentemente, comprar es uno de los casos de uso más importantes de Lens; Amazon y Pinterest también cuentan con herramientas de búsqueda visual diseñadas para generar más tráfico. Busca las zapatillas de deporte de tu amigo en el antiguo Google Lens y probablemente te haya mostrado un carrusel de artículos similares. En la versión actualizada de Lens, Google dice que mostrará más enlaces de compras directos, reseñas de clientes, reseñas de anunciantes y herramientas de comparación de precios.

La búsqueda de lentes ahora es multimodal, la palabra de moda en IA en estos días, lo que significa que las personas ahora pueden buscar con una combinación de videos, imágenes y palabras. En lugar de apuntar la cámara de su teléfono inteligente a un objeto, hacer clic en el objetivo en la pantalla y esperar a que la aplicación Lens muestre los resultados, los usuarios pueden apuntar la lente y usar comandos de voz al mismo tiempo, por ejemplo, “¿Qué tipo de nubes son esas?” ?” o “¿Qué tipo de zapatillas son esas y dónde puedo comprarlas?”

La lente también comenzará a funcionar para capturar video en tiempo real, llevando el dispositivo un paso más allá de la identificación de objetos en imágenes. Si tienes un tocadiscos averiado o ves una luz intermitente en un dispositivo que no funciona en casa, puedes grabar un vídeo rápido con Lens y, con un análisis general de IA, ver consejos sobre cómo solucionar el problema.

Anunciada por primera vez en I/O, la función se considera experimental y solo está disponible para las personas que se inscriben en Google Labs, dice Rajan Patel, un Googler de 18 años y cofundador de Lens. Otras características de Google Lens, el modo de voz y las tiendas ampliadas, continúan expandiéndose.

La función “video insight”, como la llama Google, es interesante por varias razones. Si bien actualmente solo funciona con videos capturados en tiempo real, si Google se expande a la captura de videos, todo el archivo de video, ya sea en la cámara de una persona o en una base de datos como Google, podría estar marcado y sobrevaluado.

La segunda cosa es que esta característica de Lens comparte algunas características con el Proyecto Astra de Google, que se espera que esté disponible a finales de este año. Astra, al igual que Lens, utiliza múltiples herramientas para traducir el mundo que te rodea a través de tu teléfono. Como parte de la demostración de Astra de este año, la compañía mostró un modelo de gafas inteligentes.

Por otra parte, Meta reveló recientemente una visión a largo plazo para nuestro futuro aumentado, que implica que los mortales usen gafas tontas que pueden interpretar inteligentemente el mundo que los rodea y mostrarles interfaces holográficas. Google, por supuesto, ya ha intentado ver este futuro con las Google Glass (que utilizan una tecnología muy diferente a la última Meta). ¿Son las nuevas funciones de Lens, junto con las de Astra, una parte natural de un nuevo tipo de gafas inteligentes?

Fuente