Identificar canciones con la voz
Para activar el reconocimiento musical, el usuario debe vincular previamente la aplicación Shazam desde el menú de conexiones de la app Meta View. Una vez configurado, basta con pronunciar “Oye Meta, ¿qué canción es esta?” para que las gafas identifiquen el tema que suena en el entorno y envíen la información directamente al usuario. La función resulta especialmente práctica en restaurantes, tiendas o eventos donde sacar el teléfono sería incómodo.
Traducción simultánea en tiempo real
La traducción de idiomas se activa con el comando “Hey Meta, inicia la traducción en vivo”. A partir de ese momento, las gafas captan el audio de la conversación y reproducen la versión traducida a través de sus propios altavoces, lo que permite mantener el contacto visual sin consultar ninguna pantalla. Los paquetes de idiomas pueden descargarse para funcionar sin conexión a internet.
Escaneo de códigos QR
Al enfocar un código QR y decir “Hey Meta, escanea esto”, las gafas capturan y procesan la información de forma inmediata. El enlace resultante se envía como notificación al teléfono del usuario, que puede abrirlo con un solo toque. La función es compatible con menús, pagos, inscripciones a eventos y cualquier tipo de código QR.
El celular como complemento, no como centro
Todas estas capacidades se gestionan mediante comandos de voz, sin necesidad de tocar la montura ni el teléfono. La aplicación Meta View centraliza la configuración y garantiza una integración fluida entre las gafas y el dispositivo móvil, posicionando a las Ray-Ban inteligentes como una herramienta cotidiana para quienes necesitan tener las manos libres.
