Si realiza una búsqueda rápida en línea de Ray-Ban Meta Smart Glasses hoy, encontrará que el dispositivo portátil se comercializa en gran medida por su capacidad para tomar fotografías rápidas y transmitir en vivo.
Sin embargo, en el evento Meta Connect 2024 del miércoles, el fundador y director ejecutivo de Meta, Mark Zuckerberg, no tuvo mucho que decir sobre las fotos y videos durante la presentación de las gafas inteligentes Ray-Ban de Meta.
Todo lo anunciado en Meta Connect 2024
De hecho, Zuckerberg presentó las Meta Smart Glasses Ray-Ban principalmente como un dispositivo de inteligencia artificial.
“Las gafas son una nueva categoría de dispositivos de inteligencia artificial”, dijo Zuckerberg, añadiendo que su empresa acababa de satisfacer la demanda de los consumidores de gafas inteligentes Meta después de que las ventas aumentaran más rápido de lo que esperaba.
Aparte de un nuevo dispositivo Ray-Ban Meta Smart Glasses de edición limitada con un marco transparente, no hubo nuevos anuncios de hardware de gafas inteligentes por parte de Meta.
Crédito: Meta
Sin embargo, Zuckerberg compartió varias características nuevas que, según dice, llegarán a las gafas inteligentes Meta en una serie de actualizaciones lanzadas durante los próximos meses, todas relacionadas con la IA.
Meta AI ya está integrada en las Ray-Ban Meta Smart Glasses de la misma manera que los asistentes de voz de otras empresas están integrados en sus dispositivos. Sin embargo, según Zuckerberg, la nueva actualización hará que estas interacciones sean “más naturales y conversacionales”.
Velocidad destructible de la luz
Velocidad destructible de la luz
“Hola Meta” en lugar de “Mira y cuéntame”.
Por ejemplo, actualmente, los usuarios deben indicar en sus Meta Smart Glasses Ray-Ban la frase “mira y avísame” cuando tienen una pregunta. La demostración de Zuckerberg muestra cómo los usuarios ya no necesitan hacer eso. Los usuarios sólo necesitan activar la función con la solicitud “Hey Meta” y luego hacer una pregunta. Meta AI sabrá automáticamente que la pregunta está relacionada con lo que el usuario ve a través de las gafas.
Además, después del primer “Hey Meta”, Meta AI ya no requiere que los usuarios comiencen cada comando con esa frase. Meta AI podrá interactuar continuamente con los usuarios.
Traducción en vivo en las metagafas inteligentes Ray-Ban
Esta última característica es similar a lo visto en otras gafas inteligentes en cuanto a traducción. Los usuarios pueden acceder a traducciones de audio en vivo desde otros idiomas a través de las gafas mientras hablan con otras personas. La demostración parece funcionar casi a la perfección en Meta Connect al traducir del español al inglés y del inglés al español.
Crédito: Meta
Comandos de IA multimodal
Zuckerberg explicó la función de video de IA multimodal a través de una demostración que muestra a los usuarios probándose ropa para usar. A través de esta función, Meta AI puede ofrecer sugerencias de moda y comentarios basados en la ropa del usuario y sus preguntas específicas sobre la ropa.
Las gafas Ray-Ban Meta Smart pronto también podrán recordar cosas automáticamente para el usuario. El ejemplo que se muestra en Meta Connect implica que Meta AI recuerde el número de estacionamiento donde el usuario estacionó su automóvil. Los usuarios no necesitan pedirle a Meta AI que lo haga. Naturalmente, Meta AI parece recordar el número porque el usuario lo ve a través de las gafas.
Crédito: Meta
La función se complementa con capacidades similares de Meta AI, donde los usuarios de Ray-Ban Meta Smart Glasses pronto podrán ver un folleto o anuncio y hacer que las gafas inteligentes llamen a un número de teléfono o escaneen un código QR relevante. Las gafas también pueden recordar automáticamente estas cosas si el usuario quiere volver más adelante a lo que vio anteriormente a través de las gafas.
Otras actualizaciones que llegarán a las Ray-Ban Meta Smart Glasses incluyen la capacidad de controlar el sonido de Spotify y Amazon Music a través del dispositivo, así como nuevas integraciones con aplicaciones como Audible e iHeartRadio.
Asociación con Be My Eyes para usuarios ciegos y con baja visión
Crédito: Meta
Meta también anunció una asociación con Be My Eyes, una aplicación móvil que conecta a personas ciegas y con discapacidad visual con voluntarios a través de video en vivo para hablar sobre lo que tienen frente a ellos. La aplicación funcionará directamente a través de Ray-Ban Meta Smart Glasses y los voluntarios podrán ver a través de las gafas del usuario para brindar asistencia.