Quel avenir pour l’IA en 2025, selon un dirigeant de Google

La « prochaine frontière » de l’IA réside dans les « capacités d’agent », a déclaré Sissie Hsiao, vice-présidente et directrice générale de l’application Gemini et de la parole chez Google
Nous pouvons gagner une commission sur les liens sur cette page.
Portrait de Sissie Hsiao, un col boutonné blanc peut être vu sur un blazer bleu foncé, Sissie est asiatique et sourit à la caméra
Sissie Hsiao, vice-présidente et directrice générale de l’application Gemini et de Speech chez Google.
Photo: Google

L’industrie technologique s’efforce de mettre l’intelligence artificielle générative entre les mains des consommateurs, mais ce n’est qu’« un avant-goût de son potentiel », déclare un responsable de l’IA.

Sissie Hsiao, vice-présidente et directrice générale de l’application Gemini et de Speech chez Google (GOOGLE), a déclaré à Quartz qu’elle pensait que l’entreprise allait « aider d’une manière à laquelle les gens n’ont même pas encore pensé » au cours de la prochaine année.

Alors que les « assistants IA » travaillent actuellement aux côtés des utilisateurs et nécessitent des sollicitations répétées, les consommateurs commenceront à les voir « évoluer au-delà de simples commodités pour devenir de véritables expériences personnalisées et avancées sur lesquelles vous comptez au quotidien ».

Par exemple, a déclaré Hsiao, les gens utilisent l’IA Gemini de Google pour des tâches plus avancées, telles que la préparation aux entretiens d’embauche avec Gemini Live et le débogage de code avec Gemini Advanced.

En novembre, Google a lancé une application iPhone pour Gemini qui incluait la nouvelle fonctionnalité d’assistant vocal Gemini Live, capable de gérer des conversations naturelles avec interruptions et changements de sujet. Jusqu’à présent, Gemini Live propose 10 options vocales distinctes et prend en charge 12 langues, dont l’espagnol et l’arabe. Google a annoncé son intention de déployer davantage de langues.

En 2025, a déclaré Hsiao, la « prochaine frontière » de l’IA réside dans les « capacités agentiques ». Agents IA sont des logiciels capables d’accomplir des tâches complexes de manière autonome.

Gemini, en particulier, « sera profondément personnalisé, se souviendra de ce que vous lui avez dit auparavant et, à votre demande, pourra agir en votre nom sur Google, les services tiers et le Web », a déclaré Hsiao.

Google a récemment lancé une nouvelle fonctionnalité dans Gemini Advanced appelée Deep Research, qui utilise l’IA pour explorer des sujets complexes et transformer les résultats en rapports faciles à lire pour les utilisateurs. Hsiao a qualifié Deep Research de « première fonctionnalité » dans Gemini « qui donne vie à notre vision de créer davantage de capacités d’agent dans nos produits ».

Le marché de l’IA au cours de l’année prochaine consistera à « continuer à construire l’écosystème complet », a déclaré Hsiao, ajoutant qu’elle le voit de la même manière que le marché des smartphones.

« Il ne s’agit plus seulement du matériel, mais de l’écosystème entier d’applications, de services et d’intégrations qui l’entourent », a déclaré Hsiao. « De même, avec l’IA, il est impératif de savoir dans quelle mesure nous parvenons à créer l’écosystème le plus complet et le plus convivial possible. »

Google s’efforce de faire de Gemini « l’assistant personnel IA le plus utile » en 2025, a déclaré Hsiao, ajoutant que la clé pour y parvenir est d’intégrer l’IA dans la vie quotidienne des utilisateurs et de rendre l’intégration de la routine quotidienne transparente.

Plus tôt cette année, Google a lancé Gemini Live, une expérience conversationnelle mobile qui permet aux utilisateurs d’avoir des conversations fluides avec le chatbot.

« Pouvoir parler à Gemini lors d’un brainstorming sur de nouvelles idées ou lors d’une répétition pour une conversation importante a changé la donne », a déclaré Hsiao. « À l’avenir, l’accent sera encore davantage mis sur les fonctionnalités qui rendent l’interaction avec l’IA encore plus facile, accessible et utilitaire. »

En 2025, les entreprises technologiques axées sur l’IA continueront de développer une IA multimodale, c’est-à-dire des modèles capables de traiter différents types de données au-delà du texte, comme la parole, l’image et la vidéo.

Par exemple, lors de la conférence annuelle des développeurs I/O de Google en juin, la société a dévoilé le projet Astra, qui est un aperçu de l’avenir des assistants IA multimodaux.

« Depuis 2016, nous affirmons que Google est une entreprise axée sur l’IA, et cela ne changera pas », a déclaré Hsiao. « L’IA est indispensable, et comme nous la voyons intégrée à tous les aspects des opérations d’une entreprise, du développement de produits au service client, en passant par le marketing et les ventes, il est essentiel d’adopter cette technologie pour rester compétitif. »

Ce contenu a été traduit automatiquement à partir du texte original. De légères différences résultant de la traduction automatique peuvent apparaître. Pour la version originale, cliquez ici.

Publicité

Publicité