Ce que les PDG du secteur technologique Elon Musk, Mark Zuckerberg et Brad Smith ont à dire sur la réglementation de l’IA

Les audiences du Sénat américain avec les leaders de la technologie ont abouti à un consensus sur la nécessité de réglementer l’IA, mais il faudra beaucoup de temps avant qu’elle ne devienne une réalité. réalité

Nous pouvons gagner une commission sur les liens sur cette page.
Trois hommes assis à une table, vêtus de costumes, avec des plaques signalétiques devant eux, celui du milieu dit M. Brad Smith.
M. Smith va à Washington.
Photo: Leah Millis (Reuters)

Les PDG de la Silicon Valley et les législateurs américains se sont rencontrés cette semaine lors d’une série d’audiences qui ont abouti à un consensus général : la réglementation de l’IA est nécessaire. Les leaders technologiques qui ont fait leur apparition constituaient un véritable who’s who de l’industrie en plein essor de l’IA, y compris Mark Zuckerberg de Meta et Elon de X. Musk, Jensen Huang, PDG de Nvidia, et William Dally, scientifique en chef, Sam Altman d’OpenAI, Alex Karp de Palantir et Brad Smith de Microsoft.

Publicité

Voici un tour d’horizon de ce que plusieurs de ces dirigeants, dont certains ne sont pas particulièrement connus pour leur convivialité envers la réglementation en général, j’avais à dire sur la réglementation de l’IA :

Brad Smith, président de Microsoft

Le permis est « indispensable » dans les scénarios à haut risque, mais il a reconnu qu’il ne résoudra pas tous les problèmes. « Vous ne pouvez pas conduire une voiture avant vous obtenez une licence », a déclaré Smith. « Vous ne pouvez pas rendre le modèle ou l’application disponible tant que vous n’avez pas franchi cette porte.

Publicité

William Dally, scientifique en chef chez Nvidia

« De nombreuses utilisations des applications d’IA sont soumises aux lois et réglementations en vigueur qui régissent les secteurs dans lesquels elles opèrent. Les services et les services basés sur l’IA les secteurs à haut risque pourraient être soumis à des exigences renforcées en matière de licences et de certification lorsque cela est nécessaire.

Publicité

Il a ajouté qu’aucun pays ni aucune entreprise ne contrôle le développement de l’IA. « Même si les entreprises américaines peuvent actuellement être les plus économes en énergie, les plus rentables et les plus simples, à utiliser. Ce ne sont pas les seules alternatives viables pour les développeurs à l’étranger », a déclaré Dally. « Une IA sûre et digne de confiance nécessitera des mesures multilatérales et coopération multipartite, sinon elle ne sera pas efficace.

Mark Zuckerberg, PDG de Meta

Dans remarques préparées, Zuckerberg a écrit que le gouvernement devrait créer une réglementation qui soutient l’innovation. Il a ajouté que deux problèmes déterminants pour l’IA à l’heure actuelle sont 1) sécurité : il appartient aux entreprises (et non au gouvernement) de créer et de déployer des produits de manière responsable et d’intégrer des mesures de protection dans leurs modèles d’IA génératifs et 2) accès à une IA de pointe.

Publicité

Elon Musk, PDG de Twitter

Musc a déclaré aux journalistes il était nécessaire d’un « arbitre »pour garantir la sécurité de l’IA et a ajouté qu’un régulateur « veillerait à que les entreprises prennent des actions qui sont sûres et dans l’intérêt du grand public.”

Publicité

La réglementation de l’IA aux États-Unis est encore loin

On ne sait pas clairement quand et comment le gouvernement américain réglementera les entreprises qui fournissent des applications d’IA. Compte tenu du temps qu’il a fallu à l’UE pour bouger grâce à ses propres lois sur l’IA, une action immédiate semble peu probable. Les sénateurs Richard Blumenthal et Josh Hawley ont proposé vendredi dernier un cadre d’IA axé sur le licence de modèles d’IA « à haut risque » et un organisme indépendant pour superviser l’octroi de licences.

Publicité

Le défi lorsqu’il s’agit d’élaborer des lois sur l’IA est qu’il n’est pas toujours possible d’expliquer pourquoi un algorithme fait quelque chose. Universitaires qui étudient l’IA préconisons que la réglementation devrait se concentrer sur les résultats des systèmes d’IA, par exemple lorsqu’il existe des preuves que les outils d’embauche d’IA ont fait preuve de discrimination à l’égard un candidat à un emploi, en se concentrant sur la détermination qui est responsable.

Ce contenu a été traduit automatiquement à partir du texte original. De légères différences résultant de la traduction automatique peuvent apparaître. Pour la version originale, cliquez ici.

Publicité