Une nouvelle fonctionnalité Google Search AI a aidé augmenter ses revenus du premier trimestre. C’est désormais la risée d’Internet.
Google a officiellement déployé une fonctionnalité d’intelligence artificielle générative pour son moteur de recherche appelée AI Overviews lors de sa conférence annuelle des développeurs d’E/S le 14 mai. L’outil fournit aux utilisateurs un résumé des informations provenant du Web en réponse à leurs requêtes de recherche. les informations sont trop sérieuses ; sinon, elles génèrent d’elles-mêmes de nouvelles réponses extrêmement mauvaises, fausses, étranges, voire dangereuses.
Les utilisateurs de Reddit et de X ont inondé Internet pour fournir des exemples d’erreurs commises par AI Overviews. Certains des résultats les plus stupides de l’outil proposent ajouter de la colle à la pizza et manger une pierre par jour. Ensuite, il en existe des plus dangereuses : AI Overviews a suggéré qu’un utilisateur déprimé saute du Golden Gate Bridge et a dit que quelqu’un mordu par un serpent à sonnette devrait le faire.couper la plaie ou tenter d’aspirer le venin. »
Ces réponses, provenant des commentateurs des médias satiriques The Onion et Reddit, ont présenté des blagues comme des faits. Dans certains cas, AI Overviews ignore les faits. du Web, en faisant des déclarations incorrectes comme qu’il y a « aucun pays souverain en Afrique dont le nom commence par la lettre « K ».“Il se trompe également à propos de son propre créateur, Google. Il indique que les modèles d’IA de Google ont été formés sur le matériel d’abus sexuel sur des enfants. " et ça Google exploite toujours un centre de recherche sur l’IA en Chine.
Google s’est défendu dans une déclaration, affirmant que "[l]a grande plus profondément sur le Web.
« La plupart des exemples que nous avons vus étaient des requêtes peu courantes, et nous avons également vu des exemples qui ont été trafiqués ou que nous n’avons pas pu résoudre. t reproduire”, a-t-il déclaré, ajoutant que AI Overviews a subi des “tests approfondis” avant son lancement. “Nous prenons des mesures rapides lorsque cela est approprié dans le cadre de nos politiques de contenu, et en utilisant ces exemples pour développer des améliorations plus larges de nos systèmes, dont certains ont déjà commencé à être déployés.
Il s’agit du deuxième embarras majeur lié à l’IA pour Google. a dû faire une pause sur son générateur d’images Gemini AI en février après qu’il ait été critiqué pour avoir produit des images historiquement inexactes. Mais Google est en bonne compagnie : les chatbots de la plupart des entreprises ont été cités pour ce qu’on appelle hallucinations, inventant des informations extrêmement incorrectes malgré les données sur lesquelles ils sont formés. Une panne chez OpenAI en février a eu ChatGPT jette un charabia. Même en fonctionnant à pleine capacité, ChatGPT a faussement accusé des personnes de harcèlement sexuel et a généré des citations d’affaires judiciaires inexistantes. Microsoft Copilot a été mis sur la sellette en mars lorsqu’il a suggestion d’automutilation à un utilisateur longuement.
Le potentiel de l’IA à générer de la désinformation et de la désinformation a suscité une inquiétude généralisée, en particulier à l’approche de l’élection présidentielle américaine de 2024. les législateurs des États ont introduit des centaines de lois pour aborder les problèmes associés à l’IA, il n’existe aucune législation fédérale de substantiel.
NDLR : Cet article a été mis à jour pour inclure une déclaration de Google.
Ce contenu a été traduit automatiquement à partir du texte original. De légères différences résultant de la traduction automatique peuvent apparaître. Pour la version originale, cliquez ici.