Copie de ChatGPT Réponses aux questions de programmation de manière incorrecte 52% du temps : Étude

Pour aggraver les choses, les programmeurs de l’étude ignoraient souvent la désinformation.

Nous pouvons gagner une commission sur les liens sur cette page.
Image de l'article intitulé Copie de ChatGPT Réponses aux questions de programmation de manière incorrecte 52% du temps : Étude
Photo: Silas Stein/picture-alliance/dpa/AP (AP)

Les chatbots d’intelligence artificielle comme ChatGPT d’OpenAI sont vendus comme des outils révolutionnaires qui peuvent aider les travailleurs à devenir plus efficaces dans leur travail, peut-être en les remplaçant. des gens entièrement dans le futur. Mais un stupéfiant nouvelle étude a constaté que ChatGPT répond de manière incorrecte aux questions de programmation informatique dans 52 % des cas.

Publicité

Les recherches de l’Université Purdue, repérées pour la première fois par les médias Futurisme, a été présenté plus tôt ce mois au Conférence sur l’interaction ordinateur-humain à Hawaï et a examiné 517 questions de programmation sur Stack Overflow qui ont ensuite été transmises à ChatGPT.

« Notre analyse montre que 52 % des réponses ChatGPT contiennent des informations incorrectes et 77 % sont verbeuses », explique la nouvelle étude. les participants à l’étude sur les utilisateurs préféraient toujours les réponses ChatGPT 35 % du temps en raison de leur exhaustivité et de leur style de langage bien articulé.

Publicité

Il est troublant de constater que les programmeurs de l’étude n’ont pas toujours détecté les erreurs produites par le chatbot IA.

Publicité

“Cependant, ils ont également négligé la désinformation dans les réponses de ChatGPT 39% du temps”, selon l’étude. « Cela implique la nécessité pour contrer la désinformation dans les réponses de ChatGPT aux questions de programmation et sensibiliser aux risques associés à des réponses apparemment correctes.

Publicité

Évidemment, ce ci est juste une étude qui est disponible pour lire en ligne, mais ce met en pointe des problèmes aux quels qui qui utilise ces outils peuvent s’identifier. Les grandes entreprises de technologie injectent des milliards de dollars dans L’IA dès maintenant dans le but de fournir les chatbots les plus fiables. Meta, Microsoft et Google sont tous dans une course pour dominer. un espace émergent qui a le potentiel de remodeler radicalement notre relation avec Internet. Mais il y a un certain nombre d’obstacles qui se dressent dans ce domaine. façon.

Le principal de ces problèmes est que l’IA est souvent peu fiable, surtout si un utilisateur donné pose une question vraiment unique. Le nouveau Google basé sur l’IA La recherche est constamment jeter des ordures qui sont souvent extraits de sources peu fiables. En fait, il y a eu plusieurs fois cette semaine où la recherche Google a présenté des articles satiriques de The Oignon comme informations fiables.

Publicité

De son côté, Google se défend en insistant sur le fait que les mauvaises réponses sont des anomalies.

“Les exemples que nous avons vus sont généralement des requêtes très rares et ne sont pas représentatifs des expériences de la plupart des gens”, a déclaré un porte-parole de Google. Gizmodo par e-mail plus tôt cette semaine. «La grande majorité des AI Aperçus fournit des informations de haute qualité, avec des liens permettant d’approfondir le Web.”

Publicité

Mais cette défense, selon laquelle les « requêtes peu courantes » donnent des réponses erronées, est franchement risible. Les utilisateurs sont-ils seulement censés demander à ces chatbots le plus Des questions banales ? Comment cela est-il acceptable, alors que la promesse est que ces outils sont censés être révolutionnaires ?

OpenAI n’a pas immédiatement répondu à une demande de commentaires vendredi sur la nouvelle étude sur les réponses de ChatGPT. Gizmodo mettra à jour ce message si nous avons une réponse.

Publicité

A version of this article originally appeared on Gizmodo.

Ce contenu a été traduit automatiquement à partir du texte original. De légères différences résultant de la traduction automatique peuvent apparaître. Pour la version originale, cliquez ici.

Publicité