Microsoft interdit à la police d’utiliser son IA pour la reconnaissance faciale

Microsoft a déclaré que son service Azure OpenAI ne doit pas être utilisé « par ou pour » la police américaine à des fins de reconnaissance faciale

Nous pouvons gagner une commission sur les liens sur cette page.
Satya Nadella parle avec ses mains en leve devant un fond bleu qui porte le logo Microsoft
Satya Nadella, président-directeur général de Microsoft.
Photo: Ethan Miller (Getty Images)

Microsoft interdit l’utilisation de son service d’intelligence artificielle pour la reconnaissance faciale « par ou pour » les services de police aux États-Unis.

Publicité

Dans son code de conduite mis à jour pour son service Azure OpenAI, la société a également déclaré que les intégrations avec le service ne doivent pas être utilisées pour la technologie de reconnaissance faciale en temps réel utilisée par “toutes forces de l’ordre dans le monde”, y compris sur des caméras mobiles et des caméras montées sur le tableau de bord, pour tenter d’identifier des individus dans des zones non contrôlées “environnements sauvages” ou “pour tenter d’identifier les individus présents dans une base de données de suspects ou d’anciens détenus.”

Service Azure OpenAI donne aux entreprises clients l’accès aux OpenAI grands modèles langagiers (LLM). Le service est entièrement géré par Microsoft et limité aux clients qui ont déjà un partenariat avec l’entreprise, l’utilisent pour un prix inférieur cas à risque et qui sont axés sur des atténuations.

Publicité

La semaine dernière, Axon, une entreprise qui fabrique des technologies et des armes, notamment pour les forces de l’ordre, a lancé un Un logiciel basé sur l’IA permettant à la police d’automatiser les rapports. Le produit, appelé Draft One, est un « nouveau logiciel révolutionnaire qui rédige des récits de rapports de police de haute qualité en quelquessecondes.” Axon a déclaré que Draft One est propulsé par OpenAI. Le LLM le plus puissant, le GPT-4, et peut rédiger des rapports à partir de la transcription automatique de l’audio des caméras corporelles de la police vendues par l’entreprise.

Publicité

Cependant, les critiques de l’outil ont déclaré qu’il pourrait être problématique étant donné L’IA a des problèmes avec les « hallucinations » — ou inventer des informations fausses ou absurdes — et peut être utilisé pour exonérer la police de ses responsabilités juridiques si un rapport contient des informations inexactes. .

Publicité

Dave Maass, directeur des enquêtes sur les technologies de surveillance à l’Electronic Frontier Foundation, a dit à Forbes Draft One est « une sorte de cauchemar ». Il a ajouté que la police n’est pas formée pour utiliser des outils basés sur l’IA et qu’elle pourrait donc ne pas comprendre la portée de la technologie.

Il n’est pas clair si le code de conduite mis à jour de Microsoft est lié à la sortie du produit Axon.

Publicité

Ce contenu a été traduit automatiquement à partir du texte original. De légères différences résultant de la traduction automatique peuvent apparaître. Pour la version originale, cliquez ici.

Publicité