Salesforce affirme que son chatbot IA n’hallucinera pas – enfin, probablement

Salesforce a annoncé la disponibilité générale d’Einstein Copilot lors de sa tournée mondiale à New York

Nous pouvons gagner une commission sur les liens sur cette page.
Représentation par Salesforce d’Albert Einstein , qui, oui, est l’homonyme d’Einstein Copilot.
Représentation par Salesforce d’Albert Einstein , qui, oui, est l’homonyme d’Einstein Copilot.
Photo: Laura Bratton

Salesforce a annoncé jeudi la disponibilité générale de son chatbot pour les entreprises, Einstein Copilot.

Publicité

Les dirigeants de Salesforce affirment qu’Einstein Copilot est beaucoup moins susceptible que les autres chatbots IA de halluciner, ou générer des informations fausses ou absurdes —quelque chose que d’autres chatbots de Google, Meta, Anthropic et OpenAI ont eu du mal à surmonter.

«Ils peuvent être des menteurs très confiants», a déclaré Patrick Stokes, vice-président exécutif du marketing produit de Salesforce, à propos des chatbots IA lors d’un discours à Salesforce World Tour NYC jeudi.

Publicité

Copilote d’Einstein est différent, a déclaré Stokes, car il utilise les propres données d’une entreprise provenant à la fois de feuilles de calcul et de documents écrits dans toutes les applications qu’elles sont stockées. sur, qu’il s’agisse de la propre plateforme de Salesforce, de Google Cloud, d’Amazon Web Services, de Snowflake ou d’autres entrepôts de données.

Publicité

Le chatbot est conçu comme une sorte d’intermédiaire entre une entreprise, ses données privées et grands modèles langagiers (LLM) tels que GPT-4 d’OpenAI et Gemini de Google. Les employés peuvent poser des questions telles que « quelle prochaine étape dois-je prendre pour répondre à ce plainte du client », et Einstein extraira les données pertinentes de l’entreprise à partir de Salesforce ou d’autres services cloud. Il joindra ensuite ces données. à la requête initiale à envoyer à un LLM, qui générera une réponse.

Publicité

Le nouveau chatbot de Salesforce est également doté d’une couche de protection afin que les LLM auxquels il envoie des invites ne puissent pas conserver les données d’une entreprise.

Dans une interview de suivi avec Quartz, Stokes a expliqué davantage pourquoi Einstein Copilot est moins susceptible d’halluciner que les autres chatbots. envoyez-nous la question au LLM, nous allons rechercher les données », a-t-il déclaré, ajoutant que « je ne pense pas que nous empêcherons toujours complètement les hallucinations.

Publicité

Pour cette raison, le chatbot est doté d’une fonction de détection d’hallucinations. Il recueille également les commentaires en temps réel des clients de Salesforce afin de pouvoir signaler faiblesses du système pour les administrateurs.

Les hallucinations de l’IA se produiront toujours

Stokes a déclaré qu’envisager un monde sans hallucinations de l’IA est aussi “idiot” que d’imaginer un monde dans lequel les réseaux informatiques sont totalement impossibles à pirater.

Publicité

“Il y aura toujours une porte d’entrée. Je pense que c’est également vrai avec l’IA”, a-t-il déclaré. “Mais ce que nous pouvons faire, c’est faire tout ce que nous pouvons pour nous assurer que nous construisons une technologie transparente qui peut faire surface lorsque cela se produit.

Ariel Kelmen, directeur marketing de Salesforce, a soutenu. « Ce qui est drôle, c’est que les LLM ont été intrinsèquement conçus pour halluciner, a-t-il déclaré. “C’est comme ça qu’ils fonctionnent. Ils ont de l’imagination.

Publicité

Un rapport du New York Times L’année dernière, on a constaté que le taux d’hallucinations pour les systèmes d’IA était d’environ 5 % pour Meta, jusqu’à 8 % pour Anthropic, soit 3 % pour OpenAI, et jusqu’à 27 % pour Google PaLM.

Les chatbots « hallucinent » lorsqu’ils ne disposent pas des données de formation nécessaires pour répondre à une question, mais génèrent quand même une réponse qui ressemble à une réponse. Les hallucinations peuvent être causées par différents facteurs, tels que des données d’entraînement inexactes ou biaisées et un surapprentissage, ce qui se produit lorsqu’un l’algorithme ne peut pas faire de prédictions ni de conclusions à partir d’autres données que celles sur lesquelles il a été formé.

Publicité

Les hallucinations sont actuellement l’un des plus gros problèmes liés aux modèles d’IA générative — et elles sont pas vraiment facile à résoudre. Dans la mesure où les modèles d’IA sont formés sur des ensembles massifs de données, il peut être difficile de trouver des problèmes spécifiques dans les données. Parfois, De toute façon, les données utilisées pour entraîner les modèles d’IA sont inexactes, car elles vient d’endroits comme Reddit.

C’est là que Salesforce affirme que son chatbot sera différent. Il est encore tôt, cependant, et seul le temps nous dira quel chatbot IA est le meilleur. le moins délirant.

Publicité

Ce contenu a été traduit automatiquement à partir du texte original. De légères différences résultant de la traduction automatique peuvent apparaître. Pour la version originale, cliquez ici.

Publicité