ia act

IA Act : deuxième phase de mise en œuvre 

Malgré les pressions du président américain et des géants de la tech, la Commission européenne maintient son calendrier de mise en place progressive de l’IA Act. Le deuxième volet est donc entré en vigueur depuis le 2 août : il comporte la désignation des autorités compétentes pour chacun des états membres de l’UE, ainsi que de nouvelles règles concernant les modèles d’IA à usage général1.

L’IA Act, pour quoi faire ?

Adopté le 13 mars 2024, l’IA Act constitue à ce jour l’un des plus ambitieux ensemble de règles contraignantes en matière d’IA. L’exécutif européen souhaite grâce à ce texte protéger les citoyens contre les dérives de l’IA, sans pour autant brider l’innovation. Un contrepoids clair au rouleau-compresseur américain, alors que le 23 juillet, Donald Trump lançait un nouveau plan d’accélération et de dérégulation de l’IA.

En Europe, le premier volet de l’IA Act est entré en vigueur en février dernier : il Interdit tout système d’IA présentant des risques jugés inacceptables. Il s’agit des outils visant à manipuler l’opinion publique ou à abuser des personnes vulnérables, mais aussi de tout système de classification selon les opinions politiques, religieuses, orientation sexuelle ou autre caractéristique sensible. Enfin, ce règlement proscrit la reconnaissance faciale et biométrique sans dérogation.

Quelles sont les nouvelles règles depuis le 2 août ?

Le deuxième volet de la réglementation européenne vise les modèles d’IA à usage général, autrement dit les modèles de génération de texte et d’images (ChatGPT, Gemini, Midjourney…). Leurs concepteurs doivent désormais fournir aux autorités une documentation technique détaillée sur l’architecture de leurs programmes comportant l’analyse des risques et les mesures mises en place pour y faire face. De plus, ils devront publier un résumé des données utilisées pour entraîner le modèle, notamment les contenus protégés par le droit d’auteur.

Un code de bonnes pratiques a été publié en juillet, afin d’aider les entreprises concernées dans leur mise aux normes. Google, Open AI et Mistral ont annoncé qu’ils signeraient ce code, contrairement à Meta, dont le porte-parole a jugé que « l’Europe fait fausse route en matière d’intelligence artificielle ». 

La DGCCRF, la CNIL et le défenseur des droits seront les autorités compétentes en France

A l’échelle de l’UE, c’est le Comité européen de l’intelligence artificielle qui supervise l’application uniforme du règlement, coordonne les autorités nationales et publie des lignes directrices. 

De plus, chaque Etat membre doit désigner les autorités nationales compétentes chargées de superviser la bonne application de l’IA Act. Certains Etats tardent à annoncer leur choix mais en France, on connait les organismes qui seront chargés du contrôle, du traitement des plaintes et de l’applications des éventuelles sanctions : la DGCCRF, la CNIL et le défenseur des droits. Comme pour le RGPD, la mise en œuvre est progressive. Avant les sanctions, les autorités privilégieront dans un premier temps l’information et l’accompagnement à la mise en conformité.

Pour tester votre utilisation actuelle de l’IA et bénéficier de conseils : 

Rendez-vous sur le vérificateur de conformité EU AI Act Compliance Checker | Loi européenne sur l’intelligence artificielle

Hélène Buisson – hbsolutionscomm.com

1 Un système d’IA à usage général ou GPAI peut être utilisé et adapté à un large éventail d’applications pour lesquelles il n’a pas été conçu intentionnellement et spécifiquement. Cela inclut notamment les grands modèles de langage (LLMs), tels que ChatGPT ou Claude et les modèles de génération d’images audio ou vidéo, comme DALL-E ou Midjourney.

Retour en haut