Les PDG de la Silicon Valley et les législateurs américains se sont rencontrés cette semaine lors d’une série d’audiences qui ont abouti à un consensus général : la réglementation de l’IA est nécessaire. Les leaders technologiques qui ont fait leur apparition constituaient un véritable who’s who de l’industrie en plein essor de l’IA, y compris Mark Zuckerberg de Meta et Elon de X. Musk, Jensen Huang, PDG de Nvidia, et William Dally, scientifique en chef, Sam Altman d’OpenAI, Alex Karp de Palantir et Brad Smith de Microsoft.
Voici un tour d’horizon de ce que plusieurs de ces dirigeants, dont certains ne sont pas particulièrement connus pour leur convivialité envers la réglementation en général, j’avais à dire sur la réglementation de l’IA :
Brad Smith, président de Microsoft
Le permis est « indispensable » dans les scénarios à haut risque, mais il a reconnu qu’il ne résoudra pas tous les problèmes. « Vous ne pouvez pas conduire une voiture avant vous obtenez une licence », a déclaré Smith. « Vous ne pouvez pas rendre le modèle ou l’application disponible tant que vous n’avez pas franchi cette porte.
William Dally, scientifique en chef chez Nvidia
« De nombreuses utilisations des applications d’IA sont soumises aux lois et réglementations en vigueur qui régissent les secteurs dans lesquels elles opèrent. Les services et les services basés sur l’IA les secteurs à haut risque pourraient être soumis à des exigences renforcées en matière de licences et de certification lorsque cela est nécessaire.
Il a ajouté qu’aucun pays ni aucune entreprise ne contrôle le développement de l’IA. « Même si les entreprises américaines peuvent actuellement être les plus économes en énergie, les plus rentables et les plus simples, à utiliser. Ce ne sont pas les seules alternatives viables pour les développeurs à l’étranger », a déclaré Dally. « Une IA sûre et digne de confiance nécessitera des mesures multilatérales et coopération multipartite, sinon elle ne sera pas efficace.
Mark Zuckerberg, PDG de Meta
Dans remarques préparées, Zuckerberg a écrit que le gouvernement devrait créer une réglementation qui soutient l’innovation. Il a ajouté que deux problèmes déterminants pour l’IA à l’heure actuelle sont 1) sécurité : il appartient aux entreprises (et non au gouvernement) de créer et de déployer des produits de manière responsable et d’intégrer des mesures de protection dans leurs modèles d’IA génératifs et 2) accès à une IA de pointe.
Elon Musk, PDG de Twitter
Musc a déclaré aux journalistes il était nécessaire d’un « arbitre »pour garantir la sécurité de l’IA et a ajouté qu’un régulateur « veillerait à que les entreprises prennent des actions qui sont sûres et dans l’intérêt du grand public.”
La réglementation de l’IA aux États-Unis est encore loin
On ne sait pas clairement quand et comment le gouvernement américain réglementera les entreprises qui fournissent des applications d’IA. Compte tenu du temps qu’il a fallu à l’UE pour bouger grâce à ses propres lois sur l’IA, une action immédiate semble peu probable. Les sénateurs Richard Blumenthal et Josh Hawley ont proposé vendredi dernier un cadre d’IA axé sur le licence de modèles d’IA « à haut risque » et un organisme indépendant pour superviser l’octroi de licences.
Le défi lorsqu’il s’agit d’élaborer des lois sur l’IA est qu’il n’est pas toujours possible d’expliquer pourquoi un algorithme fait quelque chose. Universitaires qui étudient l’IA préconisons que la réglementation devrait se concentrer sur les résultats des systèmes d’IA, par exemple lorsqu’il existe des preuves que les outils d’embauche d’IA ont fait preuve de discrimination à l’égard un candidat à un emploi, en se concentrant sur la détermination qui est responsable.
Ce contenu a été traduit automatiquement à partir du texte original. De légères différences résultant de la traduction automatique peuvent apparaître. Pour la version originale, cliquez ici.