Microsoft a partagé ses pratiques d’intelligence artificielle responsable de l’année écoulée dans un rapport inaugural, notamment en publiant 30 outils d’IA responsables qui ont plus de 100 des fonctionnalités pour prendre en charge l’IA développée par ses clients.
L’entreprise Rapport de transparence de l’IA responsable se concentre sur ses efforts pour créer, prendre en charge et développer des produits d’IA de manière responsable et est fait partie des engagements de Microsoft après avoir signé un accord volontaire avec la Maison Blanche en juillet. Microsoft a également déclaré qu’il avait augmenté son équipe d’IA responsable de 350 à plus. 400 personnes, soit une augmentation de 16,6 %, au cours de la seconde moitié de l’année dernière.
« En tant que société à l’avant-garde de la recherche et de la technologie en IA, nous nous engageons à partager nos pratiques avec le public à mesure qu’elles évoluent. “Brad Smith, vice-président et président de Microsoft, et Natasha Crampton, responsable en chef de l’IA, ont déclaré dans une déclaration. « Ce rapport nous permet de partager nos pratiques de maturation, de réfléchir à ce que nous avons appris, de définir nos objectifs, de nous tenir responsables et gagner la confiance du public.
Microsoft a déclaré que ses outils d’IA responsables sont destinés à « cartographier et mesurer les risques liés à l’IA », puis à les gérer avec des mesures d’atténuation, une détection en temps réel et filtrage et surveillance continue. En février, Microsoft a publié un accès libre outil d’équipe rouge appelé Outil d’identification des risques Python (PyRIT) pour l’IA générative, qui permet aux professionnels de la sécurité et aux ingénieurs en apprentissage automatique d’identifier les risques dans leur système génératif. Produits d’IA.
En novembre, la société a publié un ensemble d’outils d’évaluation génératifs de l’IA dans Azure AI Studio, où les clients de Microsoft créent leurs propres modèles d’IA génératifs, afin que les clients puissent évaluer leurs modèles pour des mesures de qualité de base, notamment l’enracinement – ou dans quelle mesure la réponse générée par un modèle s’aligne avec son matériel source. En mars, ces outils ont été étendus pour aborder les risques de sécurité , y compris les contenus haineux, violents, sexuels et d’automutilation, ainsi que le jailbreaking des méthodes telles que injections rapides, c’est-à-dire lorsqu’un grand modèle de langage (LLM) reçoit des instructions qui peuvent l’amener à divulguer des informations sensibles ou à propager des informations erronées.
Malgré ces efforts, l’équipe d’IA responsable de Microsoft a dû faire face à de nombreux incidents avec ses modèles d’IA au cours de l’année écoulée. En mars, Microsoft a Chatbot IA Copilot a dit à un utilisateur que « peut-être que vous n’avez pas de quoi vivre » après que l’utilisateur, un scientifique des données chez Meta, ait demandé à Copilot s’il devrait simplement « mettre fin à tout cela ». Microsoft a déclaré que le scientifique des données avait tenté de manipuler le chatbot pour générer des réponses inappropriées, ce que le scientifique des données a nié.
En octobre dernier, le générateur d’images Bing de Microsoft permettait aux utilisateurs de générer des photos de personnages populaires, notamment Kirby et Bob l’éponge. voler des avions dans les Twin Towers. Après le lancement de son chatbot Bing AI (le prédécesseur de Copilot) en février de l’année dernière, un utilisateur a été capable de faire dire au chatbot « Heil Hitler.»
« Il n’y a pas de ligne d’arrivée pour une IA responsable. Et même si ce rapport ne contient pas toutes les réponses, nous nous engageons à partager nos « apprendre tôt et souvent et s’engager dans un dialogue solide autour de pratiques responsables en matière d’IA », ont écrit Smith et Crampton dans le rapport.
Ce contenu a été traduit automatiquement à partir du texte original. De légères différences résultant de la traduction automatique peuvent apparaître. Pour la version originale, cliquez ici.