Accueil / Politique / L’AI Act européen : calendrier ajusté et interdiction des deepfakes sexuels en débat

L’AI Act européen : calendrier ajusté et interdiction des deepfakes sexuels en débat

a man in a blue jacket standing in front of a yellow and blue wall

L’Union européenne s’apprête à adopter l’AI Act, une législation pionnière visant à encadrer le développement et l’utilisation de l’intelligence artificielle. Cependant, des divergences persistent entre les États membres concernant certains aspects cruciaux du texte. Les eurodéputés, soucieux de trouver un équilibre entre innovation et protection des citoyens, ont proposé des amendements visant à ajuster le calendrier d’application et à renforcer les interdictions, notamment concernant les deepfakes à caractère sexuel.

Un calendrier d’application révisé pour l’AI Act

L’AI Act, dont l’accord politique a été trouvé en décembre 2023, devait entrer en vigueur progressivement. Toutefois, plusieurs pays membres souhaitent un étalement plus conséquent des délais pour la mise en conformité de certaines obligations. L’objectif est de laisser plus de temps aux entreprises, particulièrement aux PME, pour s’adapter aux nouvelles règles, sans freiner leur compétitivité. Les propositions d’amendements visent donc à repousser des échéances clés, notamment celles concernant les systèmes d’IA à haut risque. Cette flexibilité pourrait permettre une adoption plus sereine et plus efficace du texte, tout en évitant de pénaliser l’écosystème technologique européen.

L’interdiction des deepfakes sexuels renforcée

Un point de discorde majeur concerne l’utilisation de l’IA pour générer des contenus trompeurs, en particulier les deepfakes à caractère sexuel. Ces contenus, souvent créés sans le consentement des personnes représentées, portent une atteinte grave à la vie privée et à la dignité humaine. Les eurodéputés ont réaffirmé leur volonté d’interdire strictement la création et la diffusion de tels contenus par des systèmes d’IA. Cette position vise à envoyer un message fort contre les abus et à protéger les victimes, tout en reconnaissant la difficulté technique de distinguer systématiquement les contenus réels des contenus synthétiques. La législation devra donc trouver des mécanismes efficaces pour identifier et sanctionner ces pratiques illicites.

Vers une IA responsable et innovante

Au-delà de ces points spécifiques, l’AI Act cherche à établir un cadre juridique clair pour l’IA, en classifiant les systèmes selon leur niveau de risque. Les applications jugées à haut risque, comme celles utilisées dans les domaines de la santé, de la justice ou de l’éducation, feront l’objet d’exigences plus strictes en matière de transparence, de supervision humaine et de robustesse. Les systèmes à risque limité, tels que les chatbots, devront informer les utilisateurs lorsqu’ils interagissent avec une IA. Quant aux systèmes à risque négligeable, ils seront peu ou pas réglementés. L’ambition de l’UE est de devenir un leader mondial de l’IA de confiance, capable de concilier progrès technologique et respect des droits fondamentaux.

Les défis de la mise en œuvre

Si les intentions derrière l’AI Act sont louables, sa mise en œuvre soulève d’importants défis. L’identification et la classification des systèmes d’IA, la définition précise des risques, et la capacité à faire respecter la réglementation dans un domaine en constante évolution sont autant d’enjeux à relever. Les négociations entre États membres et Parlement européen se poursuivent pour parvenir à un texte final équilibré, qui favorise l’innovation tout en garantissant la sécurité et les droits des citoyens européens. L’issue de ces discussions déterminera la trajectoire de l’IA en Europe pour les années à venir.

Répondre

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Oh bonjour 👋
Ravi de vous rencontrer.

Inscrivez-vous pour recevoir chaque jour les dernières actualités dans votre boîte de réception.

Nous ne spammons pas ! Consultez notre politique de confidentialité pour plus d’informations