L’AI Act, ou comment encadrer les systèmes d’IA en Europe
Depuis que les intelligences artificielles (IA) génératives, telles que ChatGPT pour le texte ou Stable Diffusion pour les images, sont entrées dans nos vies, elles ne laissent personne indifférent et suscitent fascination et crainte. Une machine peut en effet accomplir certaines tâches mieux qu’un humain, mais aussi commettre des erreurs. Entre les mains d’acteurs malintentionnés, une IA peut aussi servir à réaliser des deepfakes (contenus trompeurs) ou à influencer un résultat électoral.
Si laisser une machine résumer un texte semble peu risqué, la prise de décision automatisée par IA dans des contextes plus ou moins sensibles nécessite d’évaluer les risques et de les encadrer. Alors que le secteur de l’IA connaît une expansion fulgurante, la question de la réglementation de l’IA devient un sujet de préoccupation majeur pour les États. C’est donc dans ce contexte de course à l’encadrement que l’Union européenne (UE) entend promouvoir sa vision de la réglementation sur l’IA avec l’AI Act.