Las Ray-Ban Meta Smart Glasses son más un dispositivo de inteligencia artificial que nunca con una nueva actualización

Si realiza una búsqueda rápida en línea de Ray-Ban Meta Smart Glasses hoy, encontrará que el dispositivo portátil se comercializa en gran medida por su capacidad para tomar fotografías rápidas y transmitir en vivo.

Sin embargo, en el evento Meta Connect 2024 del miércoles, el fundador y director ejecutivo de Meta, Mark Zuckerberg, no tuvo mucho que decir sobre las fotos y videos durante la presentación de las gafas inteligentes Ray-Ban de Meta.

VER TAMBIÉN:

Todo lo anunciado en Meta Connect 2024

De hecho, Zuckerberg presentó las Meta Smart Glasses Ray-Ban principalmente como un dispositivo de inteligencia artificial.

“Las gafas son una nueva categoría de dispositivos de inteligencia artificial”, dijo Zuckerberg, añadiendo que su empresa acababa de satisfacer la demanda de los consumidores de gafas inteligentes Meta después de que las ventas aumentaran más rápido de lo que esperaba.


Las Ray-Ban Meta Smart Glasses son más un dispositivo de inteligencia artificial que nunca con una nueva actualización

Aparte de un nuevo dispositivo Ray-Ban Meta Smart Glasses de edición limitada con un marco transparente, no hubo nuevos anuncios de hardware de gafas inteligentes por parte de Meta.

Las gafas Ray-Ban Meta Smart son claras y transparentes


Crédito: Meta

Sin embargo, Zuckerberg compartió varias características nuevas que, según dice, llegarán a las gafas inteligentes Meta en una serie de actualizaciones lanzadas durante los próximos meses, todas relacionadas con la IA.

Meta AI ya está integrada en las Ray-Ban Meta Smart Glasses de la misma manera que los asistentes de voz de otras empresas están integrados en sus dispositivos. Sin embargo, según Zuckerberg, la nueva actualización hará que estas interacciones sean “más naturales y conversacionales”.

Velocidad destructible de la luz

Velocidad destructible de la luz

“Hola Meta” en lugar de “Mira y cuéntame”.

Por ejemplo, actualmente, los usuarios deben indicar en sus Meta Smart Glasses Ray-Ban la frase “mira y avísame” cuando tienen una pregunta. La demostración de Zuckerberg muestra cómo los usuarios ya no necesitan hacer eso. Los usuarios sólo necesitan activar la función con la solicitud “Hey Meta” y luego hacer una pregunta. Meta AI sabrá automáticamente que la pregunta está relacionada con lo que el usuario ve a través de las gafas.

Además, después del primer “Hey Meta”, Meta AI ya no requiere que los usuarios comiencen cada comando con esa frase. Meta AI podrá interactuar continuamente con los usuarios.

Traducción en vivo en las metagafas inteligentes Ray-Ban

Esta última característica es similar a lo visto en otras gafas inteligentes en cuanto a traducción. Los usuarios pueden acceder a traducciones de audio en vivo desde otros idiomas a través de las gafas mientras hablan con otras personas. La demostración parece funcionar casi a la perfección en Meta Connect al traducir del español al inglés y del inglés al español.

Vídeo de IA metamultimodal


Crédito: Meta

Comandos de IA multimodal

Zuckerberg explicó la función de video de IA multimodal a través de una demostración que muestra a los usuarios probándose ropa para usar. A través de esta función, Meta AI puede ofrecer sugerencias de moda y comentarios basados ​​en la ropa del usuario y sus preguntas específicas sobre la ropa.

Las gafas Ray-Ban Meta Smart pronto también podrán recordar cosas automáticamente para el usuario. El ejemplo que se muestra en Meta Connect implica que Meta AI recuerde el número de estacionamiento donde el usuario estacionó su automóvil. Los usuarios no necesitan pedirle a Meta AI que lo haga. Naturalmente, Meta AI parece recordar el número porque el usuario lo ve a través de las gafas.

Meta AI recuerda


Crédito: Meta

La función se complementa con capacidades similares de Meta AI, donde los usuarios de Ray-Ban Meta Smart Glasses pronto podrán ver un folleto o anuncio y hacer que las gafas inteligentes llamen a un número de teléfono o escaneen un código QR relevante. Las gafas también pueden recordar automáticamente estas cosas si el usuario quiere volver más adelante a lo que vio anteriormente a través de las gafas.

Otras actualizaciones que llegarán a las Ray-Ban Meta Smart Glasses incluyen la capacidad de controlar el sonido de Spotify y Amazon Music a través del dispositivo, así como nuevas integraciones con aplicaciones como Audible e iHeartRadio.

Asociación con Be My Eyes para usuarios ciegos y con baja visión

Meta + Sé mis ojos


Crédito: Meta

Meta también anunció una asociación con Be My Eyes, una aplicación móvil que conecta a personas ciegas y con discapacidad visual con voluntarios a través de video en vivo para hablar sobre lo que tienen frente a ellos. La aplicación funcionará directamente a través de Ray-Ban Meta Smart Glasses y los voluntarios podrán ver a través de las gafas del usuario para brindar asistencia.



Fuente