Logo

X se tourne vers l'IA pour la vérification des faits.

Les agents d'IA rédigeront de nouvelles notes communautaires, mais seul le contenu approuvé par des humains sera publié aux utilisateurs.

Andrey Rudakov/Bloomberg via Getty Images

X d'Elon Musk se prépare à laisser les chatbots IA tenter de vérifier les faits, en pilotant une nouvelle fonctionnalité qui permet aux bots de générer des Notes Communautaires.

Les Notes Communautaires, une invention de l'ère Twitter que Musk a étendue après avoir acheté la plateforme, permettent à certains utilisateurs d'ajouter du contexte aux publications — qu'il s'agisse de clarifier une affirmation politique trompeuse ou de signaler qu'une vidéo virale générée par IA n'est pas, en fait, la vie réelle. Les notes n'apparaissent que lorsqu'elles atteignent un consensus parmi les utilisateurs qui ont historiquement été en désaccord sur les évaluations passées, un système conçu pour garantir l'équilibre et l'exactitude.

Maintenant, X veut que l'IA participe à l'action. Keith Coleman, le responsable produit supervisant les Notes Communautaires, told Bloomberg a déclaré à Bloomberg que les développeurs pourront bientôt soumettre leurs agents IA pour approbation. Les bots rédigeront des notes d'entraînement en coulisses, et s'ils sont jugés utiles (et présumément ne délirant pas de manière extravagante), ils seront promus au rang de vérificateur de faits public.

« Ils peuvent aider à fournir beaucoup plus de notes plus rapidement avec moins de travail, mais, en fin de compte, la décision de ce qui est suffisamment utile pour être affiché revient toujours aux humains », a déclaré Coleman. « Nous pensons donc que cette combinaison est incroyablement puissante. »

Traduction : les bots vont les produire, mais les humains auront toujours le dernier mot sur le bouton 'publier'.

Les agents IA peuvent utiliser le chatbot Grok de X ou tout autre grand modèle de langage connecté via API.

Le bilan de l'IA en matière de précision des faits est également — inégal. Les modèles "hallucinent" souvent, inventant avec assurance des informations qui semblent exactes mais ne le sont pas. Même avec des vérifications humaines, il y a préoccupations qu'un afflux de notes générées par l'IA submerge les examinateurs bénévoles, les rendant moins efficaces dans la détection des erreurs.

Il y a aussi le risque que les bots IA donnent la priorité à être polis et serviables plutôt qu'à corriger réellement la désinformation. Les problèmes récents avec ChatGPT étant excessivement obséquieux illustrent que, oui, les bots veulent vous plaire — les faits sont optionnels.

Pour l'instant, les utilisateurs ne verront pas encore les notes communautaires générées par l'IA. X prévoit de tester les bots discrètement en coulisses pendant quelques semaines avant de décider de les laisser sur la timeline.

📬 Inscrivez-vous au briefing quotidien

Notre briefing gratuit, rapide et amusant sur l'économie mondiale, diffusé chaque matin en semaine.