Les assistants IA captent davantage de sens. Lundi, OpenAI a présenté un nouveau modèle ChatGPT qui promet de voir, entendre et parler via les smartphones, entre autres nouvelles capacités. Google annonce désormais un assistant rival doté de capacités similaires.
Mardi, lors de la conférence des développeurs d’E/S de l’entreprise, Demis Hassabis, PDG de DeepMind, a présenté un prototype du nouvel assistant expert en IA de Google qui peut voir à travers le téléphone d’un utilisateur et d’autres objets comme des lunettes intelligentes. L’assistant « s’appuie sur » Gemini, le chatbot existant de Google, selon la société, et certaines de ses capacités arriveront dans l’application Gemini et dans l’expérience Web plus tard cette année.
Le développement fait partie du projet Astra de Google DeepMind, qui vise à créer « un agent d’IA universel pour la vie quotidienne des utilisateurs. «C’est il est facile d’envisager un avenir dans lequel vous pourrez avoir un assistant expert à vos côtés, via votre téléphone, ou de nouveaux facteurs de forme passionnants comme lunettes », a déclaré Hassabis à une foule de quelques milliers de développeurs à Mountain View, en Californie.
Une vidéo de démonstration montre une personne parlant avec un agent IA via son téléphone tout en traversant un bureau. Grâce à leur caméra , elles montrent l’assistant IA un récipient de crayons comme s’ils parlaient via FaceTime et lui demandaient de faire une « allitération créative.
« Les crayons créatifs colorent joyeusement », dit-il. « Ils créent certainement des créations colorées. » La personne continue d’interagir avec le robot IA pendant sa promenade. , puis se rendent compte qu’ils ont oublié leurs lunettes et demandent de l’aide pour les retrouver. « Ils sont sur le bureau près d’une pomme rouge », le bot répond.
Lorsque l’utilisateur met ces lunettes, l’assistant IA peut également regarder à travers elles et identifie une illustration représentant le chat de Shrödinger. un tableau blanc.
On ne sait pas si ces lunettes sont un nouveau produit que Google envisage de lancer. Les lunettes de réalité augmentée exposées dans la démo n’avaient pas l’air comme Google Glass, les lunettes intelligentes existantes de l’entreprise, et elles ne ressemblent pas non plus à des casques d’écoute typiques et plus volumineux.
« Un agent comme celui-ci doit comprendre et répondre à notre monde complexe et dynamique, tout comme nous, a déclaré Hassabis lors de la conférence. . « Il devrait prendre en compte et se souvenir de ce qu’il voit afin de pouvoir comprendre le contexte et prendre des mesures. être proactif, enseignable et personnel. Pour que vous puissiez lui parler naturellement, sans décalage ni délai.
C’est ce que le Projet Astra vise à faire, a-t-il déclaré, et il fait « de grands progrès ».
Alors que Google le prototype d’assistant IA est disponible en démonstration pour les participants à sa conférence Google I/O, il faudra probablement un certain temps avant que la technologie ne fasse son chemin entre les mains des consommateurs quotidiens.
Ce contenu a été traduit automatiquement à partir du texte original. De légères différences résultant de la traduction automatique peuvent apparaître. Pour la version originale, cliquez ici.