Découvrez les Nouveaux Lunettes Intelligentes Ray-Ban avec Fonctionnalités IA en Direct !

Meta révolutionne l’univers des lunettes intelligentes avec l’intégration des fonctionnalités ‘Live AI’ dans les célèbres lunettes Ray-Ban. Cette innovation promet d’améliorer l’interaction utilisateur, alliant élégance à la technologie. Découvrez comment ces lunettes redéfinissent le quotidien, mêlant style et intelligence artificielle pour une expérience sans précédent.

Mise à jour logicielle des lunettes intelligentes Ray-Ban

Meta a récemment annoncé une mise à jour majeure pour ses lunettes intelligentes Ray-Ban, intégrant une nouvelle fonctionnalité appelée Live AI. Cette avancée technologique permet aux lunettes de capturer des vidéos en temps réel et d’utiliser ces données pour fournir une assistance sur mesure, semblable à ce que propose le projet Astra de Google.

Nouvelles fonctionnalités de la version 11

La mise à jour, portant le numéro de version 11, introduit plusieurs nouvelles options pour les utilisateurs. Parmi celles-ci, l’intégration avec Shazam permet aux utilisateurs de demander aux lunettes : « Hey Meta, quelle est cette chanson ? », et le résultat sera lu à haute voix. Cette fonctionnalité sera d’abord disponible aux États-Unis et au Canada.

Fonctionnalité Live AI

Le premier ajout de cette mise à jour est la fonctionnalité Live AI. Grâce à cette fonctionnalité, les lunettes Ray-Ban Meta peuvent capturer des vidéos en continu, ce qui permet à l’IA d’offrir une assistance en temps réel et sans les mains pour diverses activités quotidiennes. Les utilisateurs peuvent ainsi poser des questions de manière plus naturelle, sans avoir besoin de dire « Hey Meta », et peuvent faire référence à des sujets abordés précédemment. L’IA est également capable de donner des suggestions utiles au bon moment, même avant que l’utilisateur ne pose la question.

La fonctionnalité Live AI enrichit l’interaction avec l’IA de Meta sur les lunettes. Au cours d’une session Live AI, Meta AI peut voir ce que vous voyez et interagir de manière plus fluide. Que ce soit pour préparer un repas, jardiner ou explorer un nouveau quartier, les utilisateurs peuvent recevoir de l’aide en temps réel.

Traduction en temps réel

Un autre ajout notable est la traduction en direct, qui permet de traduire des discours en temps réel. Les utilisateurs peuvent converser dans plusieurs langues, telles que l’espagnol, le français et l’italien. Les paroles de l’interlocuteur seront affichées en anglais sur les lunettes et également transcrites sur le téléphone de l’utilisateur.

Accès et disponibilité

Pour l’instant, Meta déploie ces nouvelles fonctionnalités via une liste d’attente, et elles seront disponibles uniquement aux États-Unis et au Canada. Cette stratégie de lancement limité permet à Meta de tester le produit avant une éventuelle expansion à d’autres marchés.

Concurrence avec Google

Meta n’est pas seule sur ce marché innovant. Google travaille également sur une technologie similaire, comme l’a montré le géant de la technologie lors de la conférence Google I/O 2024 en mai. Le projet Astra, présenté par Google, utilise également un flux vidéo pour recueillir le contexte et répondre aux questions basées sur ce qu’il voit.

Lors de cet événement, Google a donné un aperçu de la façon dont cette technologie pourrait être intégrée dans des lunettes intelligentes. Bien que cette fonctionnalité soit encore en développement, Google a récemment annoncé des mises à jour pour son projet Gemini 2.0, qui visent à améliorer la capacité d’interaction de l’IA, la mémoire, et à réduire la latence.

Perspectives d’avenir

Il reste à voir comment la fonctionnalité Live AI de Meta se comparera à celle d’autres entreprises, notamment Google. Cependant, il est indéniable que l’arrivée de ces technologies de pointe dans le domaine des lunettes intelligentes représente une avancée significative. Les utilisateurs peuvent s’attendre à un avenir où des assistants virtuels seront intégrés dans des appareils portables, offrant des expériences interactives et personnalisées.

En savoir plus sur les lunettes intelligentes

Pour en savoir plus sur les avancées dans le domaine des lunettes intelligentes, consultez des sources autorisées telles que The Verge.

Quelles sont les nouvelles fonctionnalités des lunettes intelligentes Ray-Ban de Meta ?

Meta a annoncé une nouvelle mise à jour logicielle pour ses lunettes intelligentes Ray-Ban, qui ajoutera la fonctionnalité « Live AI », permettant de capturer des vidéos et d’offrir une aide contextuelle en temps réel. D’autres nouvelles fonctionnalités incluent l’intégration de Shazam, permettant aux utilisateurs de demander le titre d’une chanson, et la traduction en temps réel pour plusieurs langues.

Comment fonctionne la fonctionnalité « Live AI » ?

La fonctionnalité « Live AI » permet aux lunettes de voir ce que l’utilisateur voit en continu et de converser de manière plus naturelle. Cela offre une aide pratique dans des activités quotidiennes comme la préparation des repas ou la navigation dans un nouveau quartier, sans avoir besoin de dire « Hey Meta » à chaque fois.

Quand ces nouvelles fonctionnalités seront-elles disponibles ?

Meta déploiera ces fonctionnalités via une liste d’attente, et elles seront disponibles uniquement aux États-Unis et au Canada pour le moment.

Quelles langues prend en charge la traduction en temps réel ?

La fonctionnalité de traduction en temps réel sera capable de traduire des discours en anglais, espagnol, français et italien, offrant ainsi une assistance linguistique à l’utilisateur dans ses interactions quotidiennes.

Add a comment

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Keep Up to Date with the Most Important News

By pressing the Subscribe button, you confirm that you have read and are agreeing to our Privacy Policy and Terms of Use