Google ne veut pas que les utilisateurs manger de la colle et des cailloux, mais il exige que les gens vérifient certains des contenus les plus farfelus qu’ils reçoivent des recherches améliorées par l’IA.
Google a déployé AI Overviews, une fonctionnalité d’intelligence artificielle générative pour son moteur de recherche, le 14 mai lors de sa conférence annuelle des développeurs d’E/S. L’outil fournit aux utilisateurs un résumé généré par l’IA des informations provenant d’Internet en réponse à des requêtes de recherche. Juste une semaine plus tard, les utilisateurs ont commencé à partageant des captures d’écran de certaines des réponses étranges et parfois dangereuses du nouvel outil.
Beaucoup d’entre eux sont devenus viraux, y compris des réponses qui demandaient à quelqu’un de ajouter de la colle à la pizza et manger un pierre par jour — réponses extraites des forums Reddit et de sites d’actualités satiriques. Dans un autre cas viral, AI Overviews a suggéré qu’un utilisateur déprimé saute du Golden Gate Bridge.
Liz Reid, vice présidente de la recherche de Google, a écrit un article de blog le 30 mai destiné à remettre les pendules à l’heure. Bien que certaines des captures d’écran diffusées sur les réseaux sociaux étaient réelles, elle a écrit, « il y a eu un grand nombre de fausses captures d’écran largement partagé. »
«Certains de ces faux résultats ont été évidents et stupides. D’autres ont laissé entendre que nous avions renvoyé des résultats dangereux pour des sujets comme laisser les chiens dans “Ces aperçus de l’IA ne sont jamais apparus. Nous encourageons donc toute personne rencontrant ces captures d’écran à faire une recherche pour vérifier.”
Ceux qui étaient de véritables domaines ont mis en évidence les domaines dans lesquels Google doit résoudre certains problèmes de la nouvelle technologie, a reconnu Reid. des réponses étranges à des questions qui n’ont pas vraiment été posées auparavant, telles que : “Combien de cailloux dois-je manger ?" ce qu’on appelle une lacune en matière de données ou d’informations, et l’outil a extrait le contenu Web qui a le mieux répondu à la question, ce qui s’est avéré être un site de satire, dit-elle.
Mais Google essaie de manière proactive de résoudre ces problèmes, notamment en créant de meilleurs mécanismes de détection pour les requêtes absurdes, en limitant l’inclusion de la satire et de l’humour. contenu, en limitant les conseils potentiellement trompeurs générés par les utilisateurs (tels que les conversations Reddit) et en améliorant ses garde-fous déjà solides sur les sujets d’actualité et de santé.
« À l’échelle du Web, avec des milliards de requêtes reçues chaque jour, il y aura forcément des bizarreries et des erreurs. » Reid a écrit. « Nous avons beaucoup appris au cours des 25 dernières années sur la manière de créer et de maintenir une expérience de recherche de haute qualité. y compris comment tirer les leçons de ces erreurs pour rendre la recherche meilleure pour tout le monde.
Ce contenu a été traduit automatiquement à partir du texte original. De légères différences résultant de la traduction automatique peuvent apparaître. Pour la version originale, cliquez ici.