La loi de l’Union européenne visant à réglementer le développement, l’utilisation et l’application de l’intelligence artificielle est désormais en vigueur.
Le Loi sur l’IA est la première grande loi sur l’IA au monde, et a été donné le feu vert final par les États membres du bloc, les législateurs et l’organe exécutif de l’Union, la Commission européenne, en mai. La loi harmonise les règles sur l’utilisation et le développement de l’IA sur le marché unique de l’UE.
« Cette loi historique, la première du genre au monde, répond à un défi technologique mondial qui crée également des opportunités pour nos sociétés et nos économies », a déclaré Mathieu Michel, secrétaire d’État belge chargé de la numérisation. « Avec l’AI Act, l’Europe souligne l’importance de la confiance, de la transparence et de la responsabilité dans le traitement des nouvelles technologies, tout en garantissant que cette technologie en évolution rapide puisse prospérer et stimuler l’innovation européenne. »
Bien que l’AI Act soit une législation européenne, il aura un impact majeur sur les entreprises technologiques mondiales, en particulier aux États-Unis. Cependant, la plupart des dispositions de la loi n’entreront pas en vigueur avant 2026, et les entreprises ont plusieurs mois pour se mettre en conformité.
Voici ce que vous devez savoir sur la loi historique sur l’IA.
À quoi ressemble l’AI Act ?
L’AI Act a été proposé pour la première fois par la Commission européenne en 2020 avec l’objectif de garantir que les systèmes d’IA sont utilisés et développés dans l’UE sont sûrs et fiables. Il vise également à garantir que les systèmes d’IA respectent les lois existantes sur les droits fondamentaux des citoyens de l’UE et à stimuler l’investissement et l’innovation de l’IA dans le bloc.
La loi suit une approche « fondée sur les risques » pour réglementer l’IA, ce qui signifie que plus le risque de préjudice est élevé, plus la règle est stricte. Les systèmes d’IA classés dans la catégorie « risque limité » doivent uniquement être transparents, tandis que ceux de la catégorie « risque élevé » doivent respecter certaines exigences et obligations pour être autorisés sur le marché de l’UE. Ces obligations comprennent des mesures d’évaluation et d’atténuation des risques, ainsi que des ensembles de données de haute qualité qui minimisent les biais. Les systèmes d’IA à haut risque comprennent les dispositifs médicaux et les systèmes d’identification biométrique.
Pendant ce temps, les systèmes d’IA pouvant être utilisés pour la manipulation cognitivo-comportementale et la notation sociale sont interdits dans l’Union européenne. Les systèmes d’IA qui dépendent de données biométriques, telles que la race et l’orientation sexuelle, pour la police prédictive sont également interdits.
Quelle est la place de l’IA générative dans tout cela ?
En vertu de la loi, IA générative Les modèles sont considérés comme de l’IA à usage général, ou des modèles capables d’accomplir des tâches à un niveau proche de celui de l’humain. Les modèles d’IA à usage général sont considérés comme ne présentant pas de risques systémiques et ayant des exigences et obligations limitées, telles que la transparence sur la manière dont les modèles sont formés.
La loi sur l’IA définit les modèles d’IA à usage général comme : « capables de générer du texte, des images et d’autres contenus ». Alors que les modèles à usage général, tels que ChatGPT d’OpenAI et Gemini de Google« présentent des opportunités d’innovation uniques », mais présentent également des « défis pour les artistes, les auteurs et les autres créateurs, ainsi que pour la manière dont leur contenu créatif est créé, distribué, utilisé et consommé ».
Par conséquent, ces modèles sont soumis à des exigences strictes en matière de droit d’auteur, de tests de routine et de cybersécurité de l’UE.
Pendant ce temps, l’IA open source, telle que Modèles de Lama de Meta, relève également de la réglementation avec quelques exceptions pour les développeurs qui font paramètres accessible au public et autoriser « l’accès, l’utilisation, la modification et la distribution du modèle ».
Quel impact cela aura-t-il sur les entreprises technologiques américaines ?
La plupart des systèmes d’IA avancés qui relèvent de l’AI Act sont développés par des entreprises technologiques aux États-Unis, notamment Apple, Google et Meta. Cependant, la loi ira probablement au-delà des entreprises technologiques qui créent et développent l’IA, et aura un impact sur les entreprises qui utilisent cette technologie ou développent leurs propres systèmes.
En juillet, Meta a annoncé qu’elle avait décidé de ne pas publier ses modèles d’IA multimodaux à venir et futurs dans l’UE « en raison de la nature imprévisible de l’environnement réglementaire européen ». La décision de l’entreprise fait suite à celle d’Apple, qui a déclaré en juin qu’elle le ferait Il est peu probable que l’entreprise déploie sa nouvelle fonctionnalité Apple Intelligence et d’autres fonctionnalités d’IA dans le bloc en raison du Digital Markets Act. Même si les modèles multimodaux de Meta seront sous licence ouverte, les entreprises en Europe ne pourront pas les utiliser au sujet de la décision de l’entreprise, a rapporté Axios. Et les entreprises situées en dehors du bloc pourraient être empêchées de proposer des produits et services sur le continent qui utilisent les modèles de Meta. Cependant, Meta dispose d’une version plus grande, uniquement en texte de son modèle Llama 3 qui sera disponible dans l’UE lors de sa sortie, a indiqué la société à Axios.
En juin, Meta a déclaré que cela serait retarder la formation c’est grands modèles de langage sur les données publiques des utilisateurs de Facebook et d’Instagram dans l’Union européenne après avoir fait face à la résistance de la Commission irlandaise de protection des données (DPC).
Quelles sont les sanctions en cas de non-respect des règles ?
Si une entreprise enfreint la loi sur l’IA, elle s’expose à une amende correspondant soit à un pourcentage de son chiffre d’affaires annuel mondial de l’exercice précédent, soit à un montant prédéterminé, selon le montant le plus élevé. Les amendes peuvent aller de 35 millions d’euros (38 millions de dollars) ou 7 % du chiffre d’affaires mondial à 7,5 millions d’euros (8,1 millions de dollars) ou 1 % du chiffre d’affaires.
Les amendes sont proportionnelles pour les petites et moyennes entreprises et les startups.
Ce contenu a été traduit automatiquement à partir du texte original. De légères différences résultant de la traduction automatique peuvent apparaître. Pour la version originale, cliquez ici.