Petit pastiche d’une citation de Georges Clemenceau:
L’Europe est un continent extrêmement fertile : on y plante des fonctionnaires non élus et il y pousse des règlements abscons !
Discussion :
Petit pastiche d’une citation de Georges Clemenceau:
L’Europe est un continent extrêmement fertile : on y plante des fonctionnaires non élus et il y pousse des règlements abscons !

Ridicule.La Commission se prépare également à relancer ses investissements dans l'IA, avec une injection d'un milliard d'euros en 2024 et jusqu'à 20 milliards d'euros d'ici 2030.
Les grandes enseignes de la technologie cherchent à affaiblir la loi européenne sur l'IA,
arguant que des exigences trop lourdes en matière de transparence et de documentation pourraient ralentir le développement de nouvelles technologies
Depuis l’adoption de la loi sur l’intelligence artificielle (IA) par l’Union européenne, les plus grandes entreprises technologiques du monde ont intensifié leurs efforts pour influencer et atténuer les réglementations strictes prévues par cette législation historique : Amazon, Google, Meta et d'autres craignent que des réglementations trop strictes n’entravent l’innovation et n’entraînent des amendes de plusieurs milliards de dollars. Les entreprises estiment que des exigences trop lourdes en matière de transparence et de documentation pourraient ralentir le développement de nouvelles technologies et augmenter les coûts de conformité.
Des entreprises telles que Stability AI et OpenAI ont été confrontées à la question de savoir si l'utilisation de livres à succès ou d'archives photographiques pour entraîner leurs modèles sans l'autorisation de leurs créateurs constituait une violation du droit d'auteur.
La rapidité spectaculaire du développement de l'intelligence artificielle au cours des deux dernières années a attiré l'attention du public et suscité des débats autour d'une nouvelle révolution technologique. La promesse de l'intelligence artificielle à l'humanité est qu'elle peut nous rendre plus efficaces - et donc nous permettre de consacrer nos esprits avancés à des activités plus importantes.
Pourtant, il y a de nombreuses raisons de ne pas laisser cette version idéalisée du développement de l'IA s'installer trop longtemps dans notre esprit. Des universitaires, des scientifiques et même les concepteurs de l'IA eux-mêmes ont mis en garde contre les risques considérables que son développement rapide fait courir à l'humanité. À mesure que nous créons de nouvelles formes d'IA et que nous les alimentons avec des quantités de données de plus en plus importantes, leurs capacités sont susceptibles de s'affiner, et elles pourraient acquérir la capacité « d'apprendre », en ingérant des données pour se former elles-mêmes, ainsi qu'en créant potentiellement leurs propres techniques de manipulation à utiliser contre les humains.
L'intelligence artificielle n'a pas besoin d'être sensible pour représenter un risque pour l'humanité. Sa maîtrise du langage, qui s'est produite bien plus rapidement que prévu, suffit à polariser nos sociétés grâce à sa capacité à manipuler les informations que nous absorbons en ligne. Ne pas savoir si une image est réelle ou générée par l'IA, ou si le discours d'un homme politique est un deepfake plutôt qu'une vidéo authentique, pourrait avoir d'immenses conséquences sur ce que les gens croient, sur les relations que nous construisons les uns avec les autres et créer des compréhensions radicalement différentes du monde qui nous entoure.
Face à ces perspectives effrayantes, l'une des réponses actuellement sur la table est l'Artificial Intelligence Act de l'UE. La Commission européenne a initialement publié la proposition de loi sur l'intelligence artificielle (loi sur l'IA) en 2021, mais l'introduction du ChatGPT a semblé renforcer l'attention et l'urgence de sa mise en place. Ainsi, aux premières heures du samedi 9 décembre 2023, les institutions de l'UE ont trouvé un accord, finalisant ainsi la loi sur l'IA après trente-six longues heures de négociations.
La loi sur l'IA est un texte législatif historique qui devrait servir de référence mondiale pendant des années, principalement grâce à un cadre réglementaire adaptable conçu pour être modifié au fur et à mesure que la technologie progresse. Sa flexibilité n'est pas le seul aspect qui fait de la loi sur l'IA un framework intéressant (dont s'inspire déjà d'ailleurs la Californie) : la législation est conçue autour de l'utilisation de la technologie plutôt que de réglementer la technologie elle-même.
Cela signifie que des applications spécifiques, telles que l'utilisation de l'identification biométrique à distance par les forces de l'ordre, seront fortement restreintes, tout en permettant la poursuite de la recherche et du développement dans le domaine de l'IA. Pour ce faire, elle doit toutefois être en mesure d'équilibrer la réglementation et l'innovation, tout en laissant l'UE ouverte à la coopération avec les pays tiers.
La loi européenne sur l'intelligence artificielle est entrée en vigueur ce jeudi 1er août et s'appliquera à tous les systèmes d'intelligence artificielle (IA) déjà en place ou en cours de développement. Cette loi est largement considérée comme la première législation au monde qui tente de réglementer l'intelligence artificielle en fonction des risques qu'elle présente.
Pourquoi cette loi est-elle cruciale ?
La loi sur l’IA vise à encadrer l’utilisation des systèmes d’IA, en particulier ceux à usage général comme ChatGPT d’OpenAI, afin de prévenir les abus et de protéger les droits des citoyens européens. Elle impose aux entreprises de fournir des résumés détaillés des données utilisées pour entraîner leurs modèles, ce qui pourrait permettre aux créateurs de contenu de demander des compensations si leurs œuvres sont utilisées sans autorisation. De plus, la loi exige que les systèmes d’IA à haut risque soient soumis à des évaluations rigoureuses avant leur mise sur le marché, garantissant ainsi leur sécurité et leur fiabilité.
Les préoccupations des géants de la technologie
Après des mois d'intenses négociations entre différents groupes politiques, les législateurs de l'UE ont adopté la loi sur l'IA, premier ensemble complet de règles régissant cette technologie.
Toutefois, tant que les codes de pratique qui accompagnent la loi n'auront pas été finalisés, on ne sait pas avec quelle rigueur les règles relatives aux systèmes d'IA « à usage général », tels que le ChatGPT d'OpenAI, seront appliquées, ni combien de poursuites en matière de droits d'auteur et d'amendes de plusieurs milliards de dollars les entreprises risquent d'encourir.
« Le code de bonnes pratiques est crucial. Si nous y parvenons, nous pourrons continuer à innover », a déclaré Boniface de Champris, responsable politique de l'organisation commerciale CCIA Europe, qui compte parmi ses membres Amazon, Google et Meta. « S'il est trop étroit ou trop spécifique, cela deviendra très difficile », a-t-il ajouté.
L'UE a invité des entreprises, des universitaires et d'autres personnes à participer à la rédaction du code de bonnes pratiques, et a reçu près de 1 000 candidatures, un nombre inhabituellement élevé, selon certaines sources.
Le code de bonnes pratiques en matière d'IA ne sera pas juridiquement contraignant lorsqu'il entrera en vigueur à la fin de l'année prochaine, mais il fournira aux entreprises une liste de contrôle qu'elles pourront utiliser pour prouver qu'elles respectent la loi.
Une entreprise qui prétendrait respecter la loi tout en ignorant le code pourrait faire l'objet d'une action en justice.
Les enjeux de la transparence et de la protection des données
Un des points de friction majeurs concerne la transparence des données. Des entreprises telles que Stability AI et OpenAI ont été critiquées pour leur manque de clarté sur les données utilisées pour entraîner leurs modèles ; il a été plusieurs fois question de savoir si l'utilisation de livres à succès ou d'archives photographiques pour entraîner leurs modèles sans l'autorisation de leurs créateurs constituait une violation du droit d'auteur.
En vertu de la loi sur l'IA, les entreprises seront tenues de fournir des « résumés détaillés » des données utilisées pour entraîner leurs modèles. En théorie, un créateur de contenu qui découvre que son travail a été utilisé pour entraîner un modèle d'IA peut être en mesure de demander une indemnisation, bien que cette possibilité soit en cours d'examen par les tribunaux.
Certains chefs d'entreprise ont déclaré que les résumés requis devaient contenir peu de détails afin de protéger les secrets commerciaux, tandis que d'autres affirment que les détenteurs de droits d'auteur ont le droit de savoir si leur contenu a été utilisé sans autorisation.
OpenAI, qui a été critiquée pour son refus de répondre aux questions concernant les données utilisées pour former ses modèles, a également demandé à faire partie des groupes de travail, selon une personne familière avec le sujet, qui a refusé d'être nommée. Google a également soumis une candidature. De son côté, Amazon a déclaré qu'elle espérait « apporter son expertise et veiller à ce que le code de bonnes pratiques soit couronné de succès ».
Maximilian Gahntz, responsable de la politique en matière d'IA à la Fondation Mozilla, l'organisation à but non lucratif à l'origine du navigateur web Firefox, s'est dit préoccupé par le fait que les entreprises « font tout pour éviter la transparence ».
« La loi sur l'IA représente la meilleure occasion de mettre en lumière cet aspect crucial et d'éclairer au moins une partie de la boîte noire », a-t-il déclaré.
Les implications pour l’innovation et la compétitivité
Les critiques de la loi soutiennent que des réglementations trop strictes pourraient freiner l’innovation en Europe et rendre le continent moins compétitif par rapport à d’autres régions du monde. Ils craignent que les startups et les petites entreprises, qui n’ont pas les mêmes ressources que les géants de la technologie, soient particulièrement affectées par les coûts de conformité. Cependant, les partisans de la loi estiment que des règles claires et strictes sont nécessaires pour garantir que l’IA soit développée de manière éthique et responsable.
Certains acteurs du monde des affaires ont reproché à l'UE de donner la priorité à la réglementation des technologies plutôt qu'à l'innovation, et les personnes chargées de rédiger le texte du code de bonnes pratiques s'efforceront de parvenir à un compromis. Il y a quelques jours, l'ancien directeur de la Banque centrale européenne, Mario Draghi, a déclaré que l'Union européenne avait besoin d'une politique industrielle mieux coordonnée, d'un processus décisionnel plus rapide et d'investissements massifs pour ne pas se laisser distancer par la Chine et les États-Unis.
Dans un contexte de protectionnisme croissant au sein de l'UE, les entreprises technologiques locales espèrent que des exceptions seront introduites dans la loi sur l'IA au profit des jeunes entreprises européennes. « Nous avons insisté sur le fait que ces obligations devaient être gérables et, si possible, adaptées aux startups », a déclaré Maxime Ricard, responsable politique chez Allied for Startups, un réseau d'organisations commerciales représentant les petites entreprises technologiques.
Une fois le code publié au début de l'année prochaine, les entreprises technologiques auront jusqu'au mois d'août 2025 pour que leurs efforts de mise en conformité soient évalués en fonction de ce code.
Des organisations à but non lucratif, dont Access Now, le Future of Life Institute et Mozilla, ont également demandé à participer à la rédaction du code. Gahntz a déclaré : « Alors que nous entrons dans la phase où de nombreuses obligations de la loi sur l'IA sont énoncées plus en détail, nous devons veiller à ne pas permettre aux grands acteurs de l'IA d'édulcorer d'importants mandats de transparence. »
Conclusion
La bataille pour influencer la loi européenne sur l’IA est loin d’être terminée. Les géants de la technologie continuent de faire pression pour des réglementations plus souples, tandis que les législateurs européens cherchent à trouver un équilibre entre innovation et protection des droits des citoyens. La manière dont cette loi sera finalement mise en œuvre pourrait avoir des répercussions significatives sur l’avenir de l’IA en Europe et dans le monde entier.
Source : Reuters
Et vous ?
Pensez-vous que les réglementations actuelles sur l’IA sont suffisantes pour protéger les droits des citoyens ? Pourquoi ou pourquoi pas ?
Comment les entreprises technologiques peuvent-elles équilibrer innovation et respect des réglementations ?
Quels sont, selon vous, les risques potentiels d’une réglementation trop stricte sur l’IA ?
Croyez-vous que la transparence des données utilisées pour entraîner les modèles d’IA est essentielle ? Pourquoi ?
Quels avantages et inconvénients voyez-vous dans l’obligation pour les entreprises de fournir des résumés détaillés des données d’entraînement ?
Comment les législateurs peuvent-ils s’assurer que les réglementations sur l’IA ne freinent pas l’innovation tout en protégeant les droits des individus ?
Pensez-vous que les géants de la technologie ont trop d’influence sur les politiques publiques ? Pourquoi ou pourquoi pas ?
Quels seraient les impacts d’une réglementation européenne stricte sur l’IA sur les petites entreprises et les startups ?
Comment voyez-vous l’avenir de l’IA en Europe avec la mise en œuvre de cette loi ?
Quelles mesures supplémentaires proposeriez-vous pour améliorer la loi sur l’IA ?
Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités
C'est évident. Ne serait-ce que pour savoir si les données utilisées sont dignes de confiance ou risque d'être basées sur du grand n'importe quoi. Imaginons un AI entrainée à partir de TikTok et/ou X (twitter) !
Ensuite, il n'y a pas de raison que le droit d'auteurs ne soit pas respecté par ces entreprises.
Je pense qu'il est indispensable que les sociétés qui déploient ces AI soient pénalement responsables des résultats fournis par leurs outils. Ex du journaliste se voyant accusé à des affaires criminelles qu'il a couvert dans la cadre de son travail.
Indispensable ? Il est indispensable qu'il ne soit pas responsable oui. Pour la démocratie mais aussi par simple jugeotte.
Smith & Wesson n'assiste pas à tout les procès de meurtre commis avec une arme fabriqué dans une de leur usine. Les fournisseurs d'accès à internet ne sont pas aux procès des pédophiles qui ont utilisés leurs services de communication et des résultats de référencement. Le pdg de nokia n'assiste pas les dealer qui ont vendu de la came avec un téléphone portable.
Il est indispensable que la responsabilité individuelle soit maintenue et qu'on ne puisse pas accuser les autres quand on mange un sachet de lessive parce qu'on a vu un challenge sur tiktok. Et ainsi de suite.
L'IA ne change rien au fait que les individus sont responsables de leurs actes, qu'ils mentent, désinforment, tue, vole ou qu'ils trafique ! Pas la peine de chercher de nouveau responsable comme si il s'agissait des nouveaux grands prêtre de la société.
Ensuite la loi ne doit pas permettre aux gens d'être bête. L'IA non plus. Si je te dis de sauter du pont et que tu le fais en principe j'ai rien fait de mal sauf si je t'ai harcelé/menacé/manipulé pour que tu le fasses.
J'enlève l'exemple du journalisme car écrire/sourcer/autres des articles avec l'IA c'est pas du journalisme à mon sens. De toute façon les journalistes sont déjà mis en sourdine par la censure collective et étatique pas besoin de l'IA. J'ai plutôt le sentiment que l'IA va nous servir de la belle désinformation et va être mise massivement au service du contrôle social.
Tout le monde sera charlie, vacciné, pro Ukraine, pour les hausses d'impôts et l'émigration et n'oubliera bien sûr jamais Gaza !
Je pense que tu n'as pas compris ce que j'ai dit.
Je vais prendre deux exemples différents pour éclaircir mes propos.
Cas 1 : Une personne demande à un logiciel IA de créer des photos d'une personnalité connue faisant quelque chose d’illégale. L'IA réalise ce qui est demandé et la personne le publie en faisant croire que c'est une vraie info.
Dans ce cas, la personne est responsable et la société conceptrice et productrice de l'IA n'a rien à se reprocher.
Cas 2 : Une personne demande des informations concernant une autre personne a un logiciel d'IA. L'IA renvoie des données fausses et préjudiciables sur cette personne. Le demandeur publie ces infos renvoyées pas l'IA. Alors, pour moi, l'IA est responsable, et donc la société conceptrice et productrice de l'IA est responsable.
Si je reprends ton exemple sur Smith&Wesson, si l'arme explose blessant son propriétaire et les personnes qui sont autour, qui est responsable ?
Un nouvel outil de contrôle de l'UE révèle les principales lacunes de conformité des grands modèles d'IA,
y compris ceux d'OpenAI et Meta, qui ne respectent pas les normes de l'Union européenne
Un nouvel outil de contrôle de l'UE, développé par LatticeFlow AI et des instituts de recherche, a révélé que plusieurs modèles d'IA, y compris ceux d'OpenAI et Meta, ne respectent pas les normes de conformité de l'Union européenne. Ces normes concernent la cybersécurité et la lutte contre la discrimination. L'outil évalue les modèles d'IA sur divers critères, mettant en avant les domaines à améliorer pour se conformer à la future législation européenne sur l'IA, qui prévoit des sanctions importantes en cas de non-conformité.
« La Commission se félicite de cette étude et de la plateforme d'évaluation des modèles d'IA, qui constituent une première étape dans la traduction de la loi européenne sur l'IA en exigences techniques, aidant ainsi les fournisseurs de modèles d'IA à mettre en œuvre la loi sur l'IA », Thomas Regnier, porte-parole, Commission européenne.
Le règlement sur l'IA de l'UE, entré en vigueur le 1er août 2024, vise à promouvoir des systèmes d'IA sûrs et fiables, tout en protégeant les droits fondamentaux des citoyens européens.🌍🇪🇺 Groundbreaking news! We are launching COMPL-AI (https://t.co/eBp8OFyk8L), the first open source EU AI Act Compliance Framework for Generative AI, together with collaborators from @ETH_en and LatticeFlow AI! We are delighted that COMPL-AI is welcomed by the European AI… pic.twitter.com/DM6ckxE9kE
— INSAIT Institute (@INSAITinstitute) October 16, 2024
Développé par la startup suisse LatticeFlow AI en collaboration avec deux instituts de recherche, l'ETH Zurich et l'INSAIT bulgare, le framework évalue des modèles d'IA générative conçus par de grandes entreprises technologiques et attribue aux modèles d'IA une note allant de 0 à 1 dans plusieurs domaines, incluant la robustesse technique et la sécurité. L'intensification des discussions autour de la réglementation de l'IA a été catalysée par le lancement de ChatGPT en 2022, incitant les législateurs à établir des règles spécifiques pour les systèmes d'IA à usage général. L'outil attribue des scores entre 0 et 1, évaluant des critères tels que la robustesse technique et la sécurité. Bien que la majorité des modèles aient obtenu des notes supérieures à 0,75, des lacunes importantes, notamment en matière de biais et de sécurité, ont été identifiées.
Les entreprises risquent des amendes pouvant atteindre 35 millions d'euros en cas de non-conformité. Par exemple, le GPT-3.5 Turbo d'OpenAI a reçu un score de 0,46, mettant en lumière des biais discriminatoires. Certaines failles de cybersécurité, comme le détournement d'invite, ont également été observées avec des scores faibles pour plusieurs modèles. Le modèle Claude 3 Opus d'Anthropic a obtenu le meilleur score, 0,89. Pour aider les développeurs, LatticeFlow met cet outil à disposition gratuitement. Petar Tsankov, PDG de LatticeFlow, a souligné que les résultats, bien que positifs, révèlent des lacunes à corriger pour respecter les exigences réglementaires.
La Commission européenne considère cet outil comme une première étape vers l'application des normes de conformité technique. Ce test sera une ressource essentielle pour les entreprises s'alignant sur les réglementations, qui devraient être pleinement mises en œuvre d'ici 2025.
À la fin de l'année précédente, l'UE a adopté une législation sur l'IA, marquant un tournant pour l'utilisation de cette technologie. Cependant, John Loeber, co-fondateur de Limit, avertit des conséquences potentielles de cette loi. Il souligne qu'elle s'applique aussi à des outils traditionnels comme la reconnaissance faciale et à des techniques simples comme la régression linéaire.
L'AI Act établit un cadre réglementaire mondial pour profiter des avantages de l'IA tout en limitant ses risques, comme l'automatisation des emplois et la désinformation. Bien que la loi doive encore être finalisée, les grands principes sont déjà définis.
Les décideurs européens se concentrent sur les usages les plus risqués de l'IA, notamment pour les forces de l'ordre et les services essentiels. Les entreprises développant des systèmes d'IA avancés devront respecter de nouvelles exigences de transparence. L'utilisation de la reconnaissance faciale par les gouvernements sera strictement encadrée, avec des amendes pouvant atteindre 7 % du chiffre d'affaires mondial en cas de non-respect des règles. Loeber s'inquiète que cette législation nuise à l'innovation en Europe.
Dans ses critiques, il évoque une réglementation trop détaillée, des difficultés de conformité et un potentiel effet paralysant sur l'innovation. Selon lui, cette approche pourrait freiner le progrès technologique en Europe plutôt que de l'encourager.
L'importance d'une réglementation adaptable pour l'IA
L'émergence de ce framework de contrôle pour l'intelligence artificielle marque une avancée importante vers une régulation nécessaire dans un domaine en pleine expansion. Les défis associés à l'IA, notamment les questions de biais, de discrimination et de cybersécurité, sont de plus en plus pressants. Cet outil souligne la nécessité d'une surveillance stricte et d'une responsabilité accrue des développeurs. Cependant, plusieurs points méritent une attention particulière :
Flexibilité des normes : La réglementation doit être suffisamment adaptable pour suivre l'évolution rapide des technologies. Des exigences trop rigides pourraient nuire à l'innovation et à la recherche, alors qu'une approche plus nuancée pourrait favoriser un développement responsable de l'IA.
Gestion des biais : Les biais présents dans les modèles d'IA sont un reflet des données sur lesquelles ils sont entraînés. La responsabilité ne doit pas reposer uniquement sur les développeurs, mais également sur ceux qui fournissent les données. Une réglementation efficace doit inclure des exigences strictes concernant la qualité et la diversité des données utilisées.
Sécurité des systèmes : Les vulnérabilités en matière de cybersécurité, comme le détournement d'invite, mettent en évidence un besoin urgent d'améliorer la sécurité des systèmes d'IA. Les entreprises doivent investir dans des pratiques de développement sécurisées pour minimiser les risques.
Impact sur l'innovation : Bien que des sanctions financières puissent inciter à une meilleure conformité, elles pourraient également décourager les start-ups et les petites entreprises, qui n'ont pas toujours les ressources nécessaires pour s'adapter rapidement. Un équilibre entre régulations et incitations est essentiel pour encourager l'innovation tout en protégeant les utilisateurs.
Importance de la collaboration : La réussite de cette régulation repose sur une collaboration étroite entre les entreprises, les chercheurs et les autorités réglementaires. Une transparence accrue sur les méthodes de test et les résultats peut renforcer la confiance du public dans l'IA.
Cet outil de contrôle représente un progrès significatif pour garantir la conformité des modèles d'IA aux normes européennes. Toutefois, pour qu'il soit réellement efficace, il est crucial d'aborder les défis de manière critique et constructive, afin d'établir un cadre réglementaire qui protège les utilisateurs tout en favorisant l'innovation et le développement technologique.
Source : ETH Zurich, INSAIT, and LatticeFlow AI
Et vous ?
Quel est votre avis sur le sujet ?
Quelles pourraient être les conséquences de ces évaluations sur l'innovation et le développement de nouveaux modèles d'IA en Europe ?
Quel rôle les utilisateurs finaux jouent-ils dans la conformité des modèles d'IA, et comment peuvent-ils être informés des résultats des évaluations ?
Selon vous, qui est tenu responsable en cas de non-conformité des modèles d'IA identifiés par l'outil : les développeurs, les entreprises qui les utilisent ou les deux ?
Voir aussi :
AI Act : les nouvelles règles européennes en matière d'intelligence artificielle entrent en vigueur, l'objectif déclaré est d'encourager le développement et l'adoption de systèmes IA sûrs et fiables en UE
Les législateurs de l'UE progressent dans leurs négociations cruciales sur les nouvelles règles en matière d'IA
Loi sur l'IA : un frein à l'innovation européenne ? Oui, selon John Loeber, qui souligne les limites de la loi et estime que son impact pourrait être dangereux pour les Européens à long terme
Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités
Sans conformité,impossible d'aboutir a de grand projets

L'enfer normatif européens a déjà réussi à laminer l'industrie et l'agriculture voilà qu'il s'attaque maintenant à la tech (dont l'IA).
Pour commencer à "Entreprendre" il faut désormais avoir les moyens de se doter d'une armée de juriste et d'avocat, sans parler des taxes et impôts. Étouffant !
Je comprend pas qu'on ne commence pas à faire de la prévention dans les écoles concernant l'IA ? (Une IA peut raconter n'importe quoi, et ça sera toujours le cas !)
Introduire les élèves dès le plus jeune âge à l'esprit critique et à la compréhension de ce qu'est l'IA n'est-il pas la meilleur solution ?
L’AI Act est en place : les systèmes d'IA présentant un « risque inacceptable » sont désormais interdits dans l'UE,
mais la Commission accuse des retards dans la définition des règles qui l'encadre
Le 1er aout 2024, la réglementation européenne sur l'intelligence artificielle (l'AI Act) est entrée en vigueur, marquant le début d'une série de dates et d'échéances au cours des mois et des années à venir, afin de préparer les entreprises qui utilisent l'IA à se familiariser avec la nouvelle législation et à s'y conformer. Et la première échéance est arrivée : depuis le 2 février, il est interdit les pratiques menaçant les droits humains et présentant un « risque inacceptable », telles que la reconnaissance faciale à distance en temps réel, les systèmes de notation sociale, l’identification biométrique en temps réel et la détection des émotions sur le lieu de travail, dans l’Espace économique européen (EEE). Mais le texte laisse toutefois de nombreuses questions en suspens quant à la manière dont il devrait être appliqué, rendant les lignes directrices attendues cruciales pour sa mise en œuvre.
Depuis dimanche, les régulateurs de l'Union européenne peuvent interdire l'utilisation de systèmes d'IA qu'ils considèrent comme présentant un « risque inacceptable » ou un préjudice. Les détails sont énoncés à l'article 5, mais d'une manière générale, la loi est conçue pour couvrir une myriade de cas d'utilisation où l'IA peut apparaître et interagir avec les individus, depuis les applications grand public jusqu'aux environnements physiques.
Selon l'approche de l'Union européenne, il existe quatre niveaux de risque :
- le risque minimal (par exemple, les filtres anti-spam) ne fera l'objet d'aucune surveillance réglementaire ;
- le risque limité, qui comprend les robots de conversation du service clientèle, fera l'objet d'une surveillance réglementaire légère ;
- le risque élevé - l'IA pour les recommandations en matière de soins de santé en est un exemple - fera l'objet d'une surveillance réglementaire stricte ; et
- les applications présentant un risque inacceptable - qui font l'objet des exigences de conformité de ce mois-ci - seront entièrement interdites.
Parmi les activités inacceptables, on peut citer
- L'IA utilisée pour l'évaluation sociale (par exemple, l'établissement de profils de risque sur la base du comportement d'une personne).
- L'IA qui manipule les décisions d'une personne de manière subliminale ou trompeuse.
- L'IA qui exploite des vulnérabilités telles que l'âge, le handicap ou le statut socio-économique.
- L'IA qui tente de prédire les personnes qui commettent des crimes sur la base de leur apparence.
- L'IA qui utilise la biométrie pour déduire les caractéristiques d'une personne, comme son orientation sexuelle.
- L'IA qui collecte des données biométriques « en temps réel » dans des lieux publics à des fins de répression.
- L'IA qui tente de déduire les émotions des personnes au travail ou à l'école.
- L'IA qui crée - ou développe - des bases de données de reconnaissance faciale en récupérant des images en ligne ou provenant de caméras de sécurité.
Les entreprises qui utilisent l'une des applications d'IA susmentionnées dans l'UE seront soumises à des amendes, quel que soit le lieu de leur siège social. Elles pourraient devoir payer jusqu'à 35 millions d'euros ou 7 % de leur chiffre d'affaires annuel de l'exercice précédent, le montant le plus élevé étant retenu.
Engagements préliminaires
L'échéance du 2 février est en quelque sorte une formalité.
En septembre dernier, plus de 100 entreprises ont signé le Pacte européen sur l'IA, un engagement volontaire à commencer à appliquer les principes de la loi sur l'IA avant son entrée en vigueur. Dans le cadre de ce pacte, les signataires (dont Amazon, Google et OpenAI) se sont engagés à identifier les systèmes d'IA susceptibles d'être classés comme présentant un risque élevé en vertu de la loi sur l'IA.
Certains géants de la technologie, notamment Meta et Apple, n'ont pas adhéré au pacte. La startup française Mistral, l'un des plus féroces détracteurs de la loi sur l'IA, a également choisi de ne pas signer le pacte.
Cela ne veut pas dire qu'Apple, Meta, Mistral ou d'autres qui n'ont pas accepté le pacte ne respecteront pas leurs obligations, notamment l'interdiction des systèmes présentant des risques inacceptables. Rob Sumroy, responsable de la technologie au cabinet d'avocats britannique Slaughter and May, a souligné que, compte tenu de la nature des cas d'utilisation interdits, la plupart des entreprises ne s'engageront de toute façon pas dans ces pratiques.
« Pour les organisations, l'une des principales préoccupations liées à la loi européenne sur l'IA est de savoir si des lignes directrices, des normes et des codes de conduite clairs arriveront à temps et, surtout, s'ils fourniront aux organisations des informations claires sur le respect de la loi », a déclaré Sumroy. « Toutefois, les groupes de travail respectent jusqu'à présent les délais fixés pour le code de conduite destiné aux développeurs ».
Toujours pas de lignes directrices
Pourtant, quelques jours de l'entrée en vigueur de ces interdictions, la Commission européenne n'avait toujours pas encore publié ses lignes directrices pour la mise en œuvre de l'AI Act. Cette absence de directives précises suscite des inquiétudes parmi les parties prenantes, qui craignent des incertitudes quant à l'application concrète du règlement.
Des associations comme Access Now, Amnesty International et European Digital Rights demandaient à la Commission de mettre « les droits de l’homme et la justice au cœur des prochaines lignes directrices ».
Access Now par exemple a noté :
« Étant donné que la version finale de la loi sur l'IA présente de graves lacunes en matière de protection des droits fondamentaux, en particulier dans les domaines de la police et de la migration, il est important que les lignes directrices précisent que les droits fondamentaux constituent la base centrale de l'application de la loi sur l'IA.
« Plus précisément, nous demandons à l'Office AI de veiller à ce que les prochaines lignes directrices sur les interdictions de la loi sur l'IA et la définition du système d'IA incluent les éléments suivants comme base nécessaire à une application fondée sur les droits fondamentaux :
- Préciser que les systèmes comparativement "simples" entrent explicitement dans le champ d'application de la définition des systèmes d'IA : ces systèmes ne doivent pas être considérés comme n'entrant pas dans le champ d'application de la loi sur l'IA au seul motif qu'ils utilisent des algorithmes moins complexes. Nous craignons que les développeurs n'exploitent la définition de l'IA et la classification des systèmes d'IA à haut risque pour contourner les obligations de la loi sur l'IA. Par exemple, la transformation d'un système d'IA en un système fondé sur des règles pourrait contourner les dispositions de la loi sur l'IA, tout en conservant la même fonctionnalité et en présentant les mêmes risques. C'est pourquoi la réglementation doit se concentrer sur les dommages potentiels, et pas seulement sur les méthodes techniques. Le scandale néerlandais SyRI est un exemple clair d'un système qui semblait simple et explicable, mais qui a eu des conséquences dévastatrices sur les droits et la vie des personnes, en particulier les personnes racialisées et celles issues de l'immigration.
- Les interdictions de systèmes présentant un risque « inacceptable » pour les droits fondamentaux sont clarifiées afin d'empêcher la militarisation de la technologie contre les groupes marginalisés et l'utilisation illégale de la surveillance biométrique de masse.
- En ce qui concerne l'interaction avec d'autres textes législatifs de l'Union, les lignes directrices doivent garantir que la législation sur les droits de l'homme, en particulier la Charte des droits fondamentaux de l'UE, constitue la base directrice centrale de la mise en œuvre et que tous les systèmes d'IA doivent être envisagés dans le contexte plus large de la discrimination, du racisme et des préjugés. Pour cette raison, les lignes directrices doivent souligner que l'objectif des interdictions est de servir un but préventif et doit donc être interprété au sens large dans le contexte de la prévention des dommages.
Exceptions possibles
Il existe des exceptions à plusieurs des interdictions prévues par la loi sur l'IA.
Par exemple, la loi autorise les forces de l'ordre à utiliser certains systèmes de collecte de données biométriques dans les lieux publics si ces systèmes permettent d'effectuer une « recherche ciblée », par exemple d'une victime d'enlèvement, ou de prévenir une menace « spécifique, substantielle et imminente » pour la vie. Cette dérogation requiert l'autorisation de l'organe directeur approprié, et la loi souligne que les forces de l'ordre ne peuvent pas prendre une décision qui « produit un effet juridique défavorable » sur une personne en se fondant uniquement sur les résultats de ces systèmes.
La loi prévoit également des exceptions pour les systèmes qui déduisent les émotions sur le lieu de travail et dans les écoles lorsqu'il existe une justification « médicale ou de sécurité », comme les systèmes conçus pour un usage thérapeutique.
La Commission européenne, l'organe exécutif de l'UE, a déclaré qu'elle publierait des lignes directrices supplémentaires au « début de 2025 », à la suite d'une consultation avec les parties prenantes en novembre. Toutefois, ces lignes directrices n'ont pas encore été publiées.
Selon Sumroy, on ne sait pas non plus comment d'autres lois en vigueur pourraient interagir avec les interdictions et les dispositions connexes de la loi sur l'IA. La clarté pourrait n'arriver que plus tard dans l'année, à l'approche de la période d'application de la loi.
« Il est important que les organisations se souviennent que la réglementation en matière d'IA n'existe pas de manière isolée », a déclaré Sumroy. « D'autres cadres juridiques, tels que le RGPD, le NIS2 et le DORA, interagiront avec la loi sur l'IA, créant des défis potentiels - en particulier en ce qui concerne les exigences de notification d'incidents qui se chevauchent. Il sera tout aussi crucial de comprendre comment ces lois s'articulent entre elles que de comprendre la loi sur l'IA elle-même. »
Le cas particulier des IA à usage général
Les modèles d’IA généralistes (ex. GPT, Mistral, Claude) font l’objet d’un encadrement distinct. Lorsqu’ils atteignent un certain seuil de puissance, ils peuvent être considérés comme à risque systémique, ce qui implique des obligations renforcées en matière :
- de transparence et de documentation ;
- de gestion des biais et des risques ;
- de cybersécurité pour prévenir les usages malveillants.
Aussi, les principaux aspects du texte ne seront appliqués qu'à une date ultérieure : le 1er août pour les modèles d'IA « généralistes », tels que les grands modèles de génération de texte ou d'image qui sont utilisés dans le cadre des applications professionnelles ou des assistants comme ChatGPT (OpenAI), Gemini (Google) ou Le Chat (Mistral). Ils seront soumis à des exigences de transparence concernant leur documentation technique et leurs données d'apprentissage. Les modèles les plus importants seront également soumis à des vérifications de sécurité concernant notamment les risques cybernétiques. Il faudra également que les États membres aient nommé leur autorité compétente.
Le cas des IA à « risque élevé » interviendra plus tard
Le gouvernement rappelle que les systèmes d’IA du niveau juste du dessous, c’est-à-dire ceux classés comme à « haut-risque », sont ceux déjà couverts :
La CNIL expliquait l’année dernière qu’il s’agit de « la première législation générale (ou exhaustive) au monde sur l’intelligence artificielle », dont le but est « d'encadrer le développement, la mise sur le marché et l’utilisation de systèmes d'intelligence artificielle (IA), qui peuvent poser des risques pour la santé, la sécurité ou les droits fondamentaux ».Envoyé par Gouvernement
Mais de nouvelles applications seront ajoutées avec l’AI Act : « l’éducation et la formation professionnelle, l’accès aux services privés essentiels (crédit bancaire, assurance) et aux prestations publics essentiels (santé, appels d'urgence, justice) ». L’entrée en vigueur se fera à partie du 2 août 2026. Avant cette date, en août 2025, de nouvelles règles pour les modèles d’IA à usage général entreront en vigueur.
Sources : Pacte sur l'IA, Commission européenne, Access Now, gouvernement français, règlement sur la résilience opérationnelle numérique (DORA), directive NIS 2
Et vous ?
L’interdiction des IA à "risque inacceptable" est-elle suffisante pour protéger les citoyens ou faut-il aller plus loin ?
Quelles pourraient être les conséquences négatives de cette interdiction sur l’innovation et la compétitivité des entreprises européennes ?
Cette régulation pourrait-elle freiner le développement des start-ups européennes face aux géants de l’IA aux États-Unis et en Chine ?
Pensez-vous que l’interdiction de la reconnaissance faciale en temps réel protège suffisamment la vie privée, ou faut-il des mesures encore plus strictes ?
La notation sociale est interdite, mais d’autres formes de classement algorithmique persistent (notation des consommateurs, scoring de crédit). Où doit-on placer la limite ?
L’identification des émotions par IA est bannie dans certains contextes. Cette interdiction vous semble-t-elle justifiée ou y a-t-il des usages positifs à envisager ?
Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités
Pendant que les autres avancent sur IA, la bureaucratie de l’UERSS pond des règlements, des mouchards pour les poubelles, des bouchons rattachés aux bouteilles. Pas étonnant que ces bouffons soient à la ramasse technologiquement et économiquement.
Pendant que les autres avancent sur IA, la bureaucratie de l’UERSS pond des règlements, des mouchards pour les poubelles, des bouchons rattachés aux bouteilles. Pas étonnant que ces bouffons soient à la ramasse technologiquement et économiquement.
Ce commentaire est déplacé et limite dangereux.
Il n'est que le rabâchage racoleur de quelques un qui renie l'idée de souveraineté d'un état.
Je m'explique.
Oui il existe des règlementations débiles qui devrait etre supprimé, d'autre mal foutu (DPE), et certaine vicieuse contre lequel il faut luter. (DSA)
Question, est ce que créer un drone robot tueur alimenté à l'ia pour dézinguer par le sang une suspicion d'infraction est ce que vous appelez le progrès ?
Ou bien le progrès c'est d'établir des règles du jeu claire connu dès le départ permettant un environnement seins ?
Ce type de commentaire émane de meme groupe qui chiale quand google à un monopole, mais dès que l'on défini des règles chiale par ce que le droit existe.
Le progrès c'est le droit, le respect, le reste n'est qu'agitation.
Les américains n'ont que pour longueur d'avance la capacité isolante de bruler le dollar qu'il imprime.
L'innovation dans chat gpt est très limité, la réalité ils n'ont rien inventé rien. il sont juste limité à la seul quantité de données qu'ils sont capable de dérober. Pensez vous pouvoir vivre au far west seul en vous pensant tout puissant avec un flingue pour tirer sur tout ce qui bouge, ou seriez vous assez lâche pour vous cacher derrière un état de droit quand les brigands viendrons toquer à votre porte ?
La bulle IA éclatera lorsque les ricains ne pourront dérober plus de donnée sans représailles.
Vouloir la dérégulation c'est plaider pour le loup qui viendra vous bouffer tout cru.
La guillotine c'était de l'innovation, on en a fait un sport spectacle.
Une ia "petite amie" qui vous manipulera malgré vous sur l'achat de produit publicité, est ce du progrès ? ou un insolant holdup des personnes au profit de multinational que vous aimez tant dénoncer ?
La régulation ia à le bon coté de donner un coup de frein à la censure européen, c'est un coup de poignard au DSA de votre amie T.Breton mais vous n'êtes même pas capable d'être lucide sur vos propres combat car vous bêlé en masse ce que les bots vous donne en pâture. c'est affligeant et pathétique.
Vous répété le discours servie par les réseaux sociaux dont leur IA choisissent ce que vous devez pensez.
L'UE n'a pas inventé l'USBC, l'ue n'a pas inventé la nouvelle génération de bouchon. L'UE n'innove pas est à la pathologie de pondre des normes.
Mais en quoi vouloir faire sauter le peux de protection que la tech française tante de poser pour luter contre la concurrence féroce des US sur notre territoire vous avance t'elle ?
Qui vous a donnée cette idée de comparaison de l'ia américain au bouchon de bouteille dont on se fou royalement ?
Qui s'amuse a comparer un bordeau à la bière bluelight ?
Donald Trump fait pression sur l'Europe pour qu'elle rejette le code de pratique de l'IA, qui renforce les règles sur la transparence, la gestion des risques et le respect du copyright des systèmes d'IA
Le président américain Donald Trump fait monter la pression sur l'Union européenne (UE) pour qu'elle revienne sur son futur code de pratique de l'intelligence artificielle (IA), qui vise à renforcer les règles relatives à la transparence, à la gestion des risques et au respect des droits d'auteur pour les systèmes d'IA avancés.
Alors que l'UE fait progresser son approche réglementaire de l'IA, les bases ont été posées avec l'entrée en vigueur des nouvelles règles européennes en matière d'IA, le 1er août 2024. Conçues pour promouvoir le développement et le déploiement de systèmes d'IA sûrs et fiables, la législation cherche à équilibrer l'innovation avec la protection des droits fondamentaux des citoyens, visant à stimuler les investissements publics et privés dans l'IA à travers le marché unique de l'UE.
S'appuyant sur ce cadre, la première étape importante a été franchie le 2 février 2025, lorsque l'UE a officiellement interdit les systèmes d'IA présentant un « risque inacceptable » dans l'Espace économique européen. L'interdiction concerne notamment les systèmes permettant la reconnaissance faciale à distance en temps réel, la notation sociale, l’identification biométrique en temps réel et la détection des émotions sur le lieu de travail.
Dans un nouveau rebondissement, la mission américaine auprès de l'UE a envoyé une lettre à la Commission européenne et à plusieurs gouvernements européens, s'opposant à la version actuelle du code de pratique volontaire, selon un rapport de Bloomberg citant des sources familières du sujet.
Bien qu'il ne soit pas juridiquement contraignant, le code est conçu pour aider les entreprises à s'aligner sur la loi européenne sur l'IA, qui prévoit des sanctions pouvant aller jusqu'à 7 % du chiffre d'affaires annuel mondial d'une entreprise en cas d'infraction.
Les critiques affirment toutefois que les nouvelles lignes directrices vont au-delà de la loi initiale et imposent des charges excessives aux promoteurs.
Tensions entre les États-Unis et l'UE
Cette dernière mesure a mis en lumière les tensions croissantes entre les États-Unis et l'Union européenne au sujet de la réglementation numérique.
Donald Trump, qui s'est constamment insurgé contre les politiques technologiques de l'UE, les a décrites comme une forme de « taxation économique » des entreprises américaines.
En janvier, lors du Forum économique mondial de Davos, il a accusé l'Union européenne de cibler injustement les entreprises américaines.
Par ailleurs, des législateurs américains tels que Jim Jordan, président du comité judiciaire de la Chambre des représentants, se sont inquiétés du fait que les politiques de l'UE puissent également avoir une incidence sur la liberté d'expression des Américains.
Les géants de la technologie ne sont pas en reste. Le responsable des affaires internationales de Meta, Joel Kaplan, a récemment qualifié le code proposé d'« irréalisable » et a indiqué que l'entreprise ne le signerait pas sous sa forme actuelle.
Alphabet a également critiqué certaines parties du règlement, en particulier les clauses relatives à l'application des droits d'auteur et aux tests externes des modèles.
Ce qu'il faut savoir
Le projet de code, en cours de finalisation par un ensemble d'entreprises technologiques, de groupes de la société civile et de détenteurs de droits d'auteur, devrait être dévoilé le mois prochain.
Ce projet intervient alors que les tensions s'exacerbent. En début de semaine, la Commission européenne a infligé à Apple et Meta des amendes d'un montant total de 700 millions d'euros (798 millions de dollars) pour infraction à la législation antitrust.
L'Union européenne a infligé ses premières amendes importantes dans le cadre de la nouvelle loi sur les marchés numériques (DMA), condamnant Apple à une pénalité de 500 millions d'euros et Meta à une pénalité de 200 millions d'euros.
En réponse, Apple a accusé la Commission européenne de traitement inéquitable.
« Ces décisions sont mauvaises pour la vie privée et la sécurité de nos utilisateurs, mauvaises pour les produits, et nous obligent à donner notre technologie gratuitement », a déclaré Apple.
Le géant de la technologie a fait valoir que l'UE s'en prenait injustement aux entreprises américaines prospères, tout en laissant les entreprises européennes et chinoises opérer selon des règles différentes.
Meta, qui possède Facebook et Instagram, a également critiqué la décision, affirmant qu'elle était contrainte de revoir son modèle économique. La société avait introduit une option « pay-or-consent » fin 2023, permettant aux utilisateurs de choisir entre une expérience gratuite, financée par la publicité (avec suivi) ou une version payante sans publicité.
La récente initiative de l'administration Trump intervient alors que l'Europe craint de plus en plus d'être distancée dans la course mondiale à l'IA. Un rapport parlementaire français a en effet averti que les progrès de l'Europe en matière d'IA sont « insuffisants » pour concurrencer les États-Unis et la Chine. Le rapport a souligné le « pouvoir hégémonique » des États-Unis dans le domaine de l'IA et les risques stratégiques que cela fait peser sur le bloc.
Source : Rapport de Bloomberg
Et vous ?
Quel est votre avis sur le sujet ?
Trouvez-vous cette initiative de l'administration Trump crédible ou pertinente ?
Voir aussi :
L'UE déclare qu'elle appliquera ses règles numériques quels que soient le PDG et le lieu d'implantation de l'entreprise, mais l'administration Trump affirme que les règles de l'UE étouffent l'innovation
Forum Économique Mondial : Donald Trump reproche aux régulateurs de l'UE de cibler Apple, Google et Meta. Des propos marquant le début de l'affrontement entre Trump et l'UE sur la technologie
Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités
Je peux comprendre certaines préoccupation en Europe, mais concernant le copyright ... On est vraiment sur abus des "ayant tout les droits".
Ils ont le pouvoir de faire disparaitre des moteurs de recherche des sites, de donneur d'ordre pour la censure DNS, et ont même leur propre agence gouvernementale (ARCOM, ex-HADOPI).
Et en plus de cela, maintenant, il voudrait que les IA qui apprennent (et ne copient pas, je le rappel !) devrait se voir soumise à des règles abusives sur la COPIE !
Rien que pour ces abus, il faudrait que ces lois européennes sautent. On ne peut pas accepter que certaines entreprises aient des privilèges que les citoyens n'ont pas.
La Commission européenne a reçu la version finale du code de bonnes pratiques pour l'IA à usage général, conçu pour aider l'industrie à se conformer aux règles de la nouvelle loi sur l'IA à usage général.
La Commission européenne a reçu la version finale du code de bonnes pratiques pour l'IA à usage général. Le code est conçu pour aider l'industrie à se conformer aux règles de la loi sur l'IA relatives à l'IA à usage général, qui entreront en vigueur le 2 août 2025. L'objectif est de garantir que les modèles d'IA à usage général mis sur le marché européen - y compris les plus puissants - sont sûrs et transparents.
Le 1er août 2024, le règlement sur l’intelligence artificielle (IA) de l’Union européenne est entré en vigueur. Cette législation vise à encourager le développement et l’adoption de systèmes d’IA sûrs et fiables sur le marché unique de l’UE, tant par les acteurs privés que publics. Elle s’efforce également de garantir le respect des droits fondamentaux des citoyens de l’UE tout en stimulant les investissements et l’innovation dans le domaine de l’intelligence artificielle en Europe.
Récemment, la Commission européenne a reçu la version finale du code de bonnes pratiques pour l'IA à usage général, un outil volontaire élaboré par 13 experts indépendants, avec la contribution de plus de 1 000 parties prenantes, dont des fournisseurs de modèles, des petites et moyennes entreprises, des universitaires, des experts en sécurité de l'IA, des détenteurs de droits et des organisations de la société civile.
Le code est conçu pour aider l'industrie à se conformer aux règles de la loi sur l'IA relatives à l'IA à usage général, qui entreront en vigueur le 2 août 2025. Ces règles seront appliquées par l'Office de l'IA de la Commission un an plus tard en ce qui concerne les nouveaux modèles et deux ans plus tard en ce qui concerne les modèles existants. L'objectif est de garantir que les modèles d'IA à usage général mis sur le marché européen - y compris les plus puissants - sont sûrs et transparents.
Le code se compose de trois chapitres : Transparence et Droits d'auteur, qui s'adressent tous deux à tous les fournisseurs de modèles d'IA à usage général, et Sûreté et sécurité, qui ne concernent qu'un nombre limité de fournisseurs des modèles les plus avancés.
Transparence, droits d'auteur, sûreté et sécurité
Étant donné que les modèles d'IA à usage général sont à la base de nombreux systèmes d'IA dans l'UE, la loi sur l'IA aide les fournisseurs à garantir une transparence suffisante. Cela permet aux fournisseurs d'intégrer ces modèles dans leurs produits. Le chapitre du code consacré à la transparence propose un formulaire de documentation de modèle facile à utiliser, qui permet aux fournisseurs de documenter facilement les informations nécessaires en un seul endroit.
Le chapitre du code consacré au droit d'auteur propose aux fournisseurs des solutions pratiques pour mettre en place une politique conforme à la législation de l'UE en matière de droit d'auteur.
Certains modèles d'IA à usage général pourraient comporter des risques systémiques, tels que des risques pour les droits fondamentaux et la sécurité, notamment l'abaissement des barrières pour le développement d'armes chimiques ou biologiques, ou des risques liés à la perte de contrôle sur le modèle. La loi sur l'IA impose aux fournisseurs de modèles d'évaluer et d'atténuer ces risques systémiques. Le chapitre sur la sûreté et la sécurité contient des pratiques de pointe pertinentes pour la gestion des risques systémiques.
Prochaines étapes
Une fois le code approuvé par les États membres et la Commission, les fournisseurs de modèles d'IA à usage général qui signeront volontairement le code pourront prouver qu'ils respectent les obligations de la loi sur l'IA en adhérant au code. Ce faisant, les signataires du code bénéficieront d'une charge administrative réduite et d'une sécurité juridique accrue par rapport aux fournisseurs qui prouvent leur conformité par d'autres moyens.
Le code sera complété par des lignes directrices de la Commission sur l'IA à usage général, qui seront publiées avant l'entrée en vigueur des obligations relatives à l'IA à usage général. Ces lignes directrices préciseront qui entre ou non dans le champ d'application des règles de la loi sur l'IA relatives à l'IA à des fins générales.
Fait intéressant, le président américain Donald Trump fait monter la pression sur l'Union européenne (UE) pour qu'elle revienne sur son futur code de pratique de l'intelligence artificielle (IA), qui vise à renforcer les règles relatives à la transparence, à la gestion des risques et au respect des droits d'auteur pour les systèmes d'IA avancés. En avril, la mission américaine auprès de l'UE a envoyé une lettre à la Commission européenne et à plusieurs gouvernements européens, s'opposant à la version actuelle du code de pratique volontaire.
Source : The General-Purpose AI Code of Practice
Et vous ?
Pensez-vous que ce code est crédible ou pertinent ?
Quel est votre avis sur le sujet ?
Voir aussi :
L'AI Act est en place : les systèmes d'IA présentant un « risque inacceptable » sont désormais interdits dans l'UE, mais la Commission accuse des retards dans la définition des règles qui l'encadre
L'UE promet d'investir 200 milliards de dollars dans le domaine de l'IA pour concurrencer les États-Unis et la Chine, mais cette enveloppe est inférieure aux 500 milliards du projet américain Stargate
L'UE déclare qu'elle appliquera ses règles numériques quels que soient le PDG et le lieu d'implantation de l'entreprise, mais l'administration Trump affirme que les règles de l'UE étouffent l'innovation
Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités
L'union Européenne vient de créer une nouvelle réglementation.
Reste au gouvernement à créer une nouvelle taxe et on aura le combo gagnant pour améliorer les choses![]()
Google a confirmé qu'il signerait le code de conduite général de l'UE en matière d'IA, après que Meta ait déclaré qu'il ne signerait pas ce code, qualifiant la mise en œuvre par l'UE d' "excessive".
Google a confirmé qu'il signerait le code de conduite général de l'Union européenne en matière d'IA, un cadre volontaire qui vise à aider les développeurs d'IA à mettre en œuvre des processus et des systèmes conformes à la loi sur l'IA de l'Union européenne. L'engagement de Google intervient quelques jours avant l'entrée en vigueur, le 2 août, des règles applicables aux fournisseurs de "modèles d'IA à usage général présentant un risque systémique". Il convient de noter que Meta a déclaré au début du mois qu'il ne signerait pas le code, qualifiant la mise en œuvre par l'UE de sa législation sur l'IA d' "excessive" et affirmant que l'Europe "s'engageait sur la mauvaise voie en matière d'IA".
Début juillet 2025, la Commission européenne a reçu la version finale du code de bonnes pratiques pour l'IA à usage général. Le code est conçu pour aider l'industrie à se conformer aux règles de la loi sur l'IA relatives à l'IA à usage général, qui entreront en vigueur le 2 août 2025. L'objectif est de garantir que les modèles d'IA à usage général mis sur le marché européen - y compris les plus puissants - sont sûrs et transparents.
Récemment, Google a confirmé qu'il signerait le code de conduite général de l'Union européenne en matière d'IA, un cadre volontaire qui vise à aider les développeurs d'IA à mettre en œuvre des processus et des systèmes conformes à la loi sur l'IA de l'Union européenne. En signant le code de bonnes pratiques de l'UE, les entreprises d'IA s'engageraient à respecter une série de lignes directrices, notamment fournir une documentation mise à jour sur leurs outils et services d'IA, ne pas former l'IA sur des contenus piratés et se conformer aux demandes des propriétaires de contenus de ne pas utiliser leurs œuvres dans leurs ensembles de données.
L'engagement de Google intervient quelques jours avant l'entrée en vigueur, le 2 août, des règles applicables aux fournisseurs de "modèles d'IA à usage général présentant un risque systémique". Les entreprises susceptibles d'être concernées par ces règles comprennent des grands noms tels qu'Anthropic, Google, Meta et OpenAI, ainsi que plusieurs autres grands modèles génératifs, qui disposeront de deux ans pour se conformer pleinement à la loi sur l'IA.
Kent Walker, président des affaires internationales chez Google, a reconnu que la version finale du code de bonnes pratiques était meilleure que celle initialement proposée par l'UE, mais il a tout de même émis des réserves concernant la loi sur l'IA et le code. "Nous restons préoccupés par le fait que la loi sur l'IA et le code risquent de ralentir le développement et le déploiement de l'IA en Europe. En particulier, les dérogations à la législation européenne sur le droit d'auteur, les mesures qui ralentissent les autorisations ou les exigences qui exposent les secrets commerciaux pourraient freiner le développement et le déploiement de modèles européens, nuisant ainsi à la compétitivité de l'Europe", a déclaré Walker.
Réglementation fondée sur les risques pour les applications d'IA, la loi historique de l'UE sur l'IA interdit certains cas d'utilisation présentant un "risque inacceptable", tels que la manipulation cognitive comportementale ou la notation sociale. Les règles définissent également un ensemble d'utilisations "à haut risque", notamment la biométrie et la reconnaissance faciale, ainsi que l'utilisation de l'IA dans des domaines tels que l'éducation et l'emploi. La loi exige également des développeurs qu'ils enregistrent les systèmes d'IA et respectent leurs obligations en matière de gestion des risques et de la qualité.
Voici notamment l'annonce de Google :
Il convient de noter que Meta a déclaré au début du mois qu'il ne signerait pas le code, qualifiant la mise en œuvre par l'UE de sa législation sur l'IA d' "excessive" et affirmant que l'Europe "s'engageait sur la mauvaise voie en matière d'IA". Pourtant, en aril, Meta a fait un nouveau pas en avant avec ses outils d'intelligence artificielle (IA) en Europe, en étendant la formation de l'IA aux publications partagées par les utilisateurs de l'Union européenne (UE).Nous signerons le Code de bonnes pratiques de l'UE en matière d'IA
Nous nous joindrons à plusieurs autres entreprises, notamment des fournisseurs de modèles américains, pour signer le Code de bonnes pratiques de l'Union européenne en matière d'IA à usage général. Nous le faisons dans l'espoir que ce code, tel qu'il sera appliqué, favorisera l'accès des citoyens et des entreprises européens à des outils d'IA sécurisés et de premier ordre dès qu'ils seront disponibles. Il est important que leur déploiement soit rapide et généralisé. L'Europe a beaucoup à y gagner, avec un potentiel de croissance économique de 8 % (1 400 milliards d'euros) par an d'ici 2034.
Bien que la version finale du code soit plus proche de soutenir les objectifs économiques et d'innovation de l'Europe que sa version initiale, et que nous apprécions l'opportunité qui nous a été donnée de soumettre nos commentaires, nous restons préoccupés par le fait que la loi et le code sur l'IA risquent de ralentir le développement et le déploiement de l'IA en Europe. En particulier, les dérogations à la législation européenne sur le droit d'auteur, les mesures qui ralentissent les autorisations ou les exigences qui exposent les secrets commerciaux pourraient freiner le développement et le déploiement de modèles européens, nuisant ainsi à la compétitivité de l'Europe.
Nous nous engageons à travailler avec le Bureau de l'IA pour garantir que le code soit proportionné et adapté à l'évolution rapide et dynamique de l'IA. Et nous nous exprimerons activement en faveur d'une approche pro-innovation qui conduise à des investissements et à des innovations futurs en Europe, bénéfiques pour tous.
L'initiative de Meta est d'autant plus importante que Meta a dû faire face à de nombreux retards et difficultés pour obtenir l'autorisation d'utiliser les données de l'UE, en vertu des règles plus strictes de la région en matière de protection de la vie privée. Mais il semble maintenant que Meta pourra aller de l'avant, bien qu'avec une certaine prudence, dans la perspective d'un déploiement plus large de l'IA en Europe.
Ce code européen ne fait pas l'unanimité, loin de là. Par exemple, en avril, le président américain Donald Trump a fait monter la pression sur l'Union européenne (UE) pour qu'elle revienne sur son futur code de pratique de l'intelligence artificielle (IA), qui vise à renforcer les règles relatives à la transparence, à la gestion des risques et au respect des droits d'auteur pour les systèmes d'IA avancés. La mission américaine auprès de l'UE a notamment envoyé une lettre à la Commission européenne et à plusieurs gouvernements européens, s'opposant à la version actuelle du code de pratique volontaire.
Source : Annonce de Google
Et vous ?
Pensez-vous que cette annonce est crédible ou pertinente ?
Quel est votre avis sur le sujet ?
Voir aussi :
L'AI Act est en place : les systèmes d'IA présentant un « risque inacceptable » sont désormais interdits dans l'UE, mais la Commission accuse des retards dans la définition des règles qui l'encadre
Des scientifiques d'OpenAI, de Google DeepMind, d'Anthropic et de Meta ont abandonné leur rivalité pour lancer un avertissement commun sur la sécurité de l'IA : notre capacité de contrôle pourrait disparaître
Les progrès de l'Europe en matière d'IA sont "insuffisants" pour concurrencer les États-Unis et la Chine. Un rapport souligne le "pouvoir hégémonique" des États-Unis en matière d'IA et les risques pour l'Europe
Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités
Dans un revirement surprenant, l'UE revient sur ses ambitions réglementaires en matière d'IA et reporte l'application de la loi sur l'IA à 2027, cédant ainsi aux pressions exercées par le lobbying des Big Tech
L'Union européenne (UE) édulcore sa loi sur l'IA et reporte son application complète à 2027 sous la pression des États-Unis, le lobbying des géants technologiques et les craintes en matière d'innovation. Ce changement pragmatique vise à stimuler la compétitivité, mais suscite des critiques pour avoir érodé les droits numériques. Il reflète les tensions transatlantiques plus larges dans la gouvernance mondiale de l'IA.
Depuis l’adoption de la loi sur l’intelligence artificielle (IA) par l’Union européenne, les plus grandes entreprises technologiques du monde ont intensifié leurs efforts pour influencer et atténuer les réglementations strictes prévues par cette législation historique : Amazon, Google, Meta et d'autres craignent que des réglementations trop strictes n’entravent l’innovation et n’entraînent des amendes de plusieurs milliards de dollars. Les entreprises estiment que des exigences trop lourdes en matière de transparence et de documentation pourraient ralentir le développement de nouvelles technologies et augmenter les coûts de conformité.
Il semble que ces efforts ont porté leurs fruits. Dans un revirement surprenant, l'Union européenne revient sur ses ambitieuses réglementations en matière d'IA, cédant aux pressions des géants de la technologie et aux changements géopolitiques. Quelques mois seulement après que la loi historique sur l'IA ait été saluée comme une norme mondiale pour la gouvernance de l'intelligence artificielle, la Commission européenne a proposé des reports et des assouplissements qui pourraient repousser son application complète à 2027. Cette décision, annoncée le 19 novembre 2025, reflète la crainte croissante que des règles strictes étouffent l'innovation et laissent l'Europe à la traîne derrière les États-Unis et la Chine dans la course à l'IA. Les détracteurs y voient une capitulation face aux géants technologiques américains, tandis que les partisans y voient un réajustement pragmatique.
La loi sur l'IA, dont l'entrée en vigueur était initialement prévue à partir de 2024, visait à classer les systèmes d'IA par niveau de risque, en imposant des exigences strictes aux applications « à haut risque » telles que la reconnaissance faciale et la notation de crédit. Mais selon les nouvelles propositions, les dispositions clés relatives à ces systèmes à haut risque seraient reportées de 16 mois, ce qui donnerait aux entreprises plus de temps pour se mettre en conformité. Cette décision intervient alors que les leaders du secteur se plaignent que la réglementation crée une bureaucratie excessive. Par exemple, Meta et Google ont exercé d'intenses pressions, avertissant que des règles trop restrictives pourraient pousser le développement de l'IA à l'étranger.
En toile de fond, l'inquiétude économique de l'Europe. Un rapport récent de l'ancien président de la Banque centrale européenne, Mario Draghi, a souligné que la croissance de la productivité de l'UE était au point mort par rapport à celle des États-Unis, en partie à cause d'une surcharge réglementaire. Le paquet « Digital Omnibus » de la Commission vise à simplifier non seulement la loi sur l'IA, mais aussi les lois sur la protection de la vie privée dans le cadre du règlement général sur la protection des données (RGPD), ce qui pourrait faciliter l'utilisation des données pour la formation de l'IA sans consentement explicite.
Cet assouplissement réglementaire coïncide avec une évolution de la dynamique transatlantique. Avec le retour de Donald Trump à la Maison Blanche en 2025, les responsables américains ont intensifié leurs critiques à l'égard des politiques technologiques européennes, qu'ils considèrent comme des obstacles à l'innovation américaine. Des sources proches des négociations diplomatiques indiquent que les pressions informelles exercées par Washington, notamment les menaces de répercussions commerciales, ont influencé la réflexion de Bruxelles. Les responsables de l'UE s'alignent de plus en plus sur les approches libérales des États-Unis afin d'éviter de s'aliéner des alliés clés dans un contexte de tensions mondiales.
Réactions de l'industrie et implications économiques
Les réactions reflètent la frustration du secteur face à la position initiale intransigeante de l'Europe. Sebastian Siemiatkowski de Klarna soulignent que les règles de l'UE ont déjà conduit des entreprises américaines à bloquer les outils d'IA en Europe, laissant le continent « à la traîne en matière d'innovation de pointe ». Un analyste souligne le refus du Royaume-Uni et des États-Unis de signer les cadres européens en matière d'IA, soulignant une divergence occidentale plus large.
Les défenseurs des consommateurs tirent toutefois la sonnette d'alarme. Max Schrems, le militant pour la protection de la vie privée à l'origine de noyb, a qualifié ces changements de « plus grande atteinte aux droits numériques des Européens depuis des années ». Des groupes tels que l'Organisation européenne des consommateurs avertissent que l'affaiblissement du RGPD pourrait exposer les données personnelles à l'exploitation, en particulier pour l'entraînement de modèles d'IA sur de vastes ensembles de données récupérées sur le web.
Les géants de la technologie ont accueilli favorablement ces propositions, bien que avec prudence. Des représentants d'entreprises telles qu'OpenAI ont exprimé leur soulagement, soulignant que le calendrier initial de la loi sur l'IA était « irréaliste » pour les opérations mondiales. Ce report laisse plus de temps pour se mettre en conformité, ce qui pourrait permettre d'économiser des milliards en coûts d'adaptation. Cependant, certains initiés murmurent que ce n'est qu'un début et que d'autres reculs pourraient suivre si l'Europe souhaite favoriser les champions locaux de l'IA.
Les petites start-ups européennes, quant à elles, sont divisées. Si certaines craignent que l'assouplissement des règles favorise les géants américains, d'autres y voient une opportunité de réduire les formalités administratives. Un rapport explique en détail comment le Digital Omnibus pourrait rationaliser les certifications en matière de cybersécurité, facilitant ainsi la croissance des entreprises de l'UE. Cela est crucial alors que l'Europe est confrontée à une fuite des talents ; les meilleurs chercheurs en IA affluent vers la Silicon Valley, attirés par des réglementations moins strictes et des financements abondants.
Sur le plan économique, les enjeux sont importants. L'économie numérique de l'UE contribue à plus de 10 % du PIB, mais sa croissance est à la traîne. Selon les données de la Commission européenne, la simplification des règles pourrait permettre aux entreprises d'économiser jusqu'à 11 milliards d'euros par an en coûts de mise en conformité. Le rapport de Draghi souligne l'urgence de la situation : l'écart de PIB entre l'Europe et les États-Unis s'est creusé en raison de la baisse de productivité, et ce sont les ménages qui en font les frais.
Le paysage général de la politique numérique
Au-delà de l'IA, les propositions abordent d'autres piliers de la stratégie numérique européenne. La loi sur les services numériques (DSA) et la loi sur les marchés numériques (DMA), conçues pour limiter la domination des géants de la technologie, pourraient voir leur application assouplie. Par exemple, la Commission envisage des exemptions pour les petites plateformes dans le cadre de la DSA, comme le souligne un article du Guardian qui accuse Bruxelles d'un « recul massif » des protections. Cela pourrait permettre aux entreprises d'innover plus facilement sans craindre de lourdes amendes pouvant atteindre 6 % de leur chiffre d'affaires mondial.
Les détracteurs soulignent les influences externes, notamment le mépris affiché par Elon Musk à l'égard des réglementations européennes. Un rapport déplore l'approche « tout réglementer » de l'Europe, qu'il oppose au dynamisme des États-Unis. En effet, les graphiques du FMI illustrent la domination des stablecoins en dollars américains et des modèles d'IA sino-américains sur la finance et la cognition mondiales, tandis que l'Europe est à la traîne dans la création de plateformes malgré une réglementation stricte.
Mais tout n'est pas concession. La Commission insiste pour maintenir des garanties fondamentales, telles que l'interdiction des IA manipulatrices comme les deepfakes lors des élections. Un haut fonctionnaire a nié toute capitulation face aux géants de la technologie, soulignant que les changements visent à « renforcer la compétitivité sans sacrifier les droits ». Cet équilibre est évident dans les recrutements en cours pour le Bureau européen de l'IA, qui recherche des experts juridiques et politiques pour façonner la mise en œuvre, comme l'indique le site web officiel de la loi sur l'IA.
Trajectoires futures et ramifications mondiales
Alors que ces propositions sont soumises au Parlement européen pour débat, les initiés prédisent des batailles acharnées. Les députés européens qui ont défendu la loi originale sur l'IA, comme ceux des Verts, ont exprimé leur regret face à ce recul. Ils affirment que le report des règles à haut risque jusqu'en 2027 sape l'intention de la loi de positionner l'Europe comme un leader en matière d'IA fiable.
À l'échelle mondiale, ce changement pourrait avoir des répercussions. Des pays comme le Canada et le Brésil, qui ont calqué leurs lois sur l'IA sur celles de l'UE, pourraient reconsidérer leur approche. Aux États-Unis, où la réglementation reste disparate, le recul de l'Europe pourrait encourager les appels en faveur d'une surveillance minimale, comme le montre un rapport sur « le mouvement pour la sécurité de l'IA qui subit un nouveau coup dur ».
Pour les initiés du secteur, la leçon est claire : la réglementation doit évoluer avec la technologie. Le cadre initial audacieux de l'Europe a suscité l'admiration, mais les réalités économiques et les pressions américaines l'obligent à s'adapter. Une réglementation excessive telle que la DSA pourrait « tuer l'innovation en matière d'IA ». Reste à voir si ce revirement revitalisera le secteur technologique européen ou érodera son avantage éthique, mais il marque un tournant décisif dans la gouvernance mondiale de l'IA.
Naviguer dans l'incertitude des relations transatlantiques dans le domaine technologique
À l'avenir, les relations transatlantiques seront essentielles. L'administration Trump donnant la priorité à la déréglementation, les discussions entre l'UE et les États-Unis sur le commerce numérique pourraient s'intensifier. Depuis avril, le président américain Donald Trump a fait monter la pression sur l'Union européenne (UE) pour qu'elle revienne sur son futur code de pratique de l'intelligence artificielle (IA), qui vise à renforcer les règles relatives à la transparence, à la gestion des risques et au respect des droits d'auteur pour les systèmes d'IA avancés.
Les propositions de la Commission cherchent un milieu, s'alignant davantage sur les points de vue américains tout en préservant les valeurs européennes. Les initiés soulignent qu'il ne s'agit pas d'une capitulation totale ; certains éléments, tels que le recrutement par le Bureau de l'IA d'un conseiller scientifique principal, témoignent d'un engagement continu en faveur de la surveillance. Les candidatures seront clôturées en décembre 2025, selon le site de l'UE, dans le but de développer une expertise en matière d'IA fiable.
En fin de compte, le recul réglementaire de l'Europe met en évidence la tension entre innovation et protection. À mesure que l'influence des géants technologiques s'accroît, le continent doit décider si céder aux pressions renforce sa position ou diminue sa souveraineté à l'ère numérique.
Source : Rapport sur la décision de l'UE
Et vous ?
Pensez-vous que ce rapport est crédible ou pertinent ?
Quel est votre avis sur le sujet ?
Voir aussi :
L'AI Act est en place : les systèmes d'IA présentant un « risque inacceptable » sont désormais interdits dans l'UE, mais la Commission accuse des retards dans la définition des règles qui l'encadre
Le décret de Trump visant à interdire les lois étatiques sur l'IA centralise le pouvoir réglementaire à Washington pour accélérer l'innovation, mais pourrait priver les citoyens de protections essentielles
La Commission européenne veut saboter les principes fondamentaux du RGPD malgré les vives critiques de la société civile, en publiant sa proposition de « règlement omnibus numérique », selon Noyb
Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités
Partager