
Les nouvelles règles européennes en matière d’IA sont là — et elles s’appliquent également à la Silicon Valley.
La loi historique, entrée en vigueur l’année dernière, a commencé son déploiement au début de ce mois, des dispositions interdisant certaines applications d’IA « à risque inacceptable », notamment les systèmes de notation sociale et les techniques d’IA manipulatrices. Violations de la loi sur l’IA de l’Union européenne peut entraîner des amendes jusqu’à 7 % du chiffre d’affaires mondial ou 35 millions d’euros (près de 37 millions de dollars), selon le montant le plus élevé.
Ces règles ont déclenché une confrontation transatlantique, l’administration Trump s’engageant à protéger les entreprises technologiques américaines des excès européens. Mais l’industrie technologique américaine se prépare déjà à se conformer à ces règles, et des réglementations similaires gagnent du terrain dans les capitales des États américains.
Cet affrontement met en évidence une fracture croissante dans les approches de la gouvernance de l’IA. Alors que l’UE a opté pour une réglementation complète visant à garantir que le développement de l’IA soit conforme aux valeurs et aux droits européens, les États-Unis n’ont rien adopté au niveau fédéral. L’ancien président Joe Biden n’a voté que publier un décret exécutif qui définissait des lignes directrices volontaires en matière de sécurité de l’IA. Même ce effort minimal a été annulé par le président Donald Trump, qui prône une surveillance minimale pour promouvoir l’innovation — et s’attaque à tout ce qui va à l’encontre de cela, y compris l’AI Act.
« Ce sont des entreprises américaines, que cela vous plaise ou non », Trump a dit la foule au Forum économique mondial de Davos le mois dernier, qualifiant l’approche réglementaire de l’UE de « une forme de fiscalité ». Son administration a adopté une position de plus en plus confrontative, avec le vice-président Avertissement de JD Vance à l’occasion d’une IA à Paris sommet selon lequel les États-Unis « ne peuvent pas et ne veulent pas accepter » que les gouvernements étrangers « resserrent la vis sur les entreprises technologiques américaines ».
Les dirigeants de Big Tech ont fait écho à ces préoccupations. Le PDG de Meta, Mark Zuckerberg, a critiqué ce qu’il a appelé La « censure institutionnalisée » de l’Europe tandis que le chef de la politique de Meta, Joel Kaplan a indiqué que l’entreprise solliciterait l’administration Trump intervention si elle se sent injustement ciblée par les autorités de l’UE.
Les responsables européens affirment que leur cadre réglementaire est à la fois nécessaire et équitable. « Lorsque nous faisons des affaires dans d’autres pays, nous devons respecter leurs règles », a déclaré la commissaire européenne Henna Virkkunen. soulignant que les règles s’appliquent de la même manière pour les entreprises américaines, européennes et chinoises. Mais la pression semble avoir un certain effet : Virkkunen a également déclaré à Reuters que la Commission réexaminera ses règles afin d’éliminer les chevauchements de réglementation.
« Nous allons réduire la bureaucratie et la charge administrative de nos industries », a-t-elle déclaré.
Les organisations de la société civile ont exhorté l’UE à rester ferme. Une coalition Les ONG ont récemment alerté le président de la Commission européenne s’est déclaré « intimidé par des gens comme Elon Musk et Trump pour affaiblir son application des lois DSA et DMA », faisant référence au cadre réglementaire technologique plus large de l’UE.
Alors que les politiciens échangent des piques de part et d’autre de l’Atlantique, la réalité semble bien différente sur le terrain, où les entreprises réfléchissent déjà à la manière de suivre l’AI Act.
« Peu importe où se trouve l’entreprise, ce qui compte, c’est où se trouvent les produits, les services et les consommateurs », a déclaré Rayid Ghani, professeur au Heinz College de l’université Carnegie Mellon. « Si ces produits touchent des citoyens ou des résidents de l’UE de quelque manière que ce soit, cela s’applique à eux. Les entreprises le savent très bien. »
La première échéance majeure, qui arrive le 2 février, exige Connaissances en IA parmi le personnel travailler sur des produits d’IA. Bien que Ghani ait affirmé que cette exigence initiale ne changera peut-être pas radicalement la manque de programmes de formation établis par les entreprises pour créer des produits — en partie en raison d’un manque de programmes de formation établis — les entreprises se préparent déjà à des exigences plus substantielles à venir en 2027. Beaucoup ont de l’expérience de ce type de préparation réglementaire après l’entrée en vigueur du RGPD de l’UE en 2018.
« Ils font exactement le même type de choses que pour le RGPD », a déclaré Ghani. « Ils font l’inventaire des systèmes d’IA qu’ils ont mis en place, classent chaque élément par niveau de risque et déterminent comment ils vont surveiller et garantir la conformité. »
Pendant ce temps, quelle que soit la position de l’administration Trump, les États américains n’attendent pas une action fédérale.
« Les États examinent les précédents », a déclaré M. Ghani. « Ils examinent la loi européenne sur l’IA, car c’était la première chose, mais ils examinent également des éléments tels que le cadre de gestion des risques liés à l’IA et le décret exécutif de Biden. »
Plus de une douzaine d’États — notamment la Californie, le Texas, la Virginie et New York — envisagent ou mettent en œuvre des lois qui reflètent des aspects clés de la loi de l’UE sur l’IA, notamment en matière de discrimination algorithme dans les systèmes de décision automatisés. Le Colorado est devenu le premier État à adopter une législation complète sur l’IA l’année dernière, et d’autres suivent leur exemple avec des projets de loi qui exigent des plans de gestion des risques et des évaluations d’impact pour les systèmes d’IA utilisés dans des contextes « à haut risque » comme l’emploi, l’éducation et les services financiers.
Même si la réglementation complète de l’UE n’entrera pas en vigueur avant 2027, ce patchwork de lois étatiques pourrait remodeler le paysage américain de l’IA bien plus tôt. Et la Silicon Valley pourrait avoir plus de mal à mener de multiples batailles dans son arrière-cour que de simplement s’attaquer à Bruxelles.
« Chaque État essaie de déterminer ce qu’il doit faire, quelles mesures sont horizontales, quelles mesures sont verticales, lesquelles pourront être adoptées », a déclaré Ghani. « Surtout maintenant qu’ils se rendent compte que les choses ne vont pas bouger au niveau fédéral. »
—Jackie Snow, rédactrice collaboratrice
Ce contenu a été traduit automatiquement à partir du texte original. De légères différences résultant de la traduction automatique peuvent apparaître. Pour la version originale, cliquez ici.