IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #121
    Expert confirmé

    Homme Profil pro
    Directeur des systèmes d'information
    Inscrit en
    Avril 2002
    Messages
    2 883
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 65
    Localisation : Luxembourg

    Informations professionnelles :
    Activité : Directeur des systèmes d'information
    Secteur : Finance

    Informations forums :
    Inscription : Avril 2002
    Messages : 2 883
    Par défaut
    Citation Envoyé par Anselme45 Voir le message
    Pour s'en convaincre, il suffit de lire les news de ce site: La majorité des news traitent maintenant de l'IA... Apparemment les autres technologies numériques ne sont plus dignes d'intérêt
    C'est archifaux. Oui il y a sur developpez un tas de news sur l'IA mais c'est parfaitement normal, ça nous concerne, aussi bien les développeurs que les autres informaticiens.

    Il n'en reste pas moins que developpez est quasiment le seul et unique site francophone qui passe aussi un tas de news sur l'actualité de la programmation, les nouvelles versions des langages, les nouvelles sorties des EDI (Jetbrains, Microsoft, Embarcadero, ...) , etc. Et c'est surtout devenu le "Médiapart/Canard enchainé" de l'informatique avec toutes les news à scandales sur HP, Microsoft, Google, etc. Exemple l'énorme scandale sur les imprimantes HP avec des centaines de commentaires, et quel rapport avec l'IA ? aucun... D 'ailleurs toi même tu viens de répondre à un sujet à scandale n'ayant rien à voir avec l'IA, à savoir : Google peut garder votre téléphone si vous l’envoyez en réparation avec des pièces qui ne sont pas d’origine

    Regarde les rubriques programmation et EDI au lieu de dire n'importe quoi, et il y a toujours une colonne droite avec des tutoriels programmation et IT Pro, des articles gratuits alors que c'est devenu payant ailleurs (Udemy, Elephorm, etc). Developpez est devenu le meilleur site sur francophonie sur l'IA, mais il reste toujours le meilleur site pour les développeurs et même l'IT Pro, c'est bien simple il n'y en a pas d'autre de valables....

  2. #122
    Membre extrêmement actif Avatar de OrthodoxWindows
    Homme Profil pro
    Étudiant
    Inscrit en
    Novembre 2021
    Messages
    1 313
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Drôme (Rhône Alpes)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Novembre 2021
    Messages : 1 313
    Par défaut
    Citation Envoyé par Pierre Louis Chevalier Voir le message
    C'est archifaux. Oui il y a sur developpez un tas de news sur l'IA mais c'est parfaitement normal, ça nous concerne, aussi bien les développeurs que les autres informaticiens.

    Il n'en reste pas moins que developpez est quasiment le seul et unique site francophone qui passe aussi un tas de news sur l'actualité de la programmation, les nouvelles versions des langages, les nouvelles sorties des EDI (Jetbrains, Microsoft, Embarcadero, ...) , etc. Et c'est surtout devenu le "Médiapart/Canard enchainé" de l'informatique avec toutes les news à scandales sur HP, Microsoft, Google, etc. Exemple l'énorme scandale sur les imprimantes HP avec des centaines de commentaires, et quel rapport avec l'IA ? aucun... D 'ailleurs toi même tu viens de répondre à un sujet à scandale n'ayant rien à voir avec l'IA, à savoir : Google peut garder votre téléphone si vous l’envoyez en réparation avec des pièces qui ne sont pas d’origine

    Regarde les rubriques programmation et EDI au lieu de dire n'importe quoi, et il y a toujours une colonne droite avec des tutoriels programmation et IT Pro, des articles gratuits alors que c'est devenu payant ailleurs (Udemy, Elephorm, etc). Developpez est devenu le meilleur site sur francophonie sur l'IA, mais il reste toujours le meilleur site pour les développeurs et même l'IT Pro, c'est bien simple il n'y en a pas d'autre de valables....
    Je suis totalement d'accord. Il y a de nombreuses informations que je ne trouve que sur developpez. Je pense que c'est sur le meilleurs média francophone traitant du numérique. Un bon exemple est le traitement de l'horrible projet de loi chatcontrol, où dans la presse francophone, seul developpez semble prendre la mesure de ce que ce projet de loi représente.
    Je rêve de trouver des sources aussi qualitative sur d'autres sujets.

  3. #123
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 400
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 400
    Par défaut Ari Emanuel qualifie Sam Altman « d'escroc » à qui l'on ne peut pas faire confiance en matière d'IA
    Ari Emanuel qualifie le PDG d'OpenAI Sam Altman « d'escroc » à qui l'on ne peut pas faire confiance en matière d'IA,
    le magnat des médias appelle à la mise en place de garde-fous pour cette technologie

    Lors du festival Aspen Ideas, Ari Emanuel, PDG du conglomérat médiatique Endeavor, a exprimé son opinion tranchante sur Sam Altman, le PDG d’OpenAI. Selon lui, Altman est un « manipulateur » qui ne peut pas être digne de confiance en matière d’intelligence artificielle. Il a également appelé à la mise en place de garde-fous pour cette technologie.

    Ari Emanuel, PDG d'Endeavor, le conglomérat du sport et du divertissement, a qualifié Sam Altman, PDG d'OpenAI, « d'escroc » à qui l'on ne peut pas faire confiance en matière d'intelligence artificielle.

    Lors du festival d'idées d'Aspen vendredi, Tina Brown, rédactrice en chef fondatrice du Daily Beast, a demandé au géant des médias de partager ses réflexions sur l'intelligence artificielle et les assurances que des innovateurs tels qu'Altman donnent à propos de la technologie.

    Emanuel a d'abord pensé à Elon Musk, qu’il considère comme un « ami », notant qu'ils n'étaient pas d'accord sur de nombreux points, mais pas sur les risques de l'IA. « Si Elon Musk est inquiet, alors nous devrions l’être aussi », a-t-il déclaré. « Nous avons besoin de garde-fous. »

    En ce qui concerne Sam Altman, Emanuel a été moins indulgent. Il a critiqué la façon dont OpenAI, initialement une organisation à but non lucratif, est désormais devenue lucrative. Altman ne détient pas directement d’actions dans OpenAI, mais la structure de l’entreprise est inhabituelle : une partie à but lucratif est gérée par une organisation à but non lucratif. Cette structure visait à garantir que l’IA générale bénéficie à l’humanité avant de privilégier les profits. Cependant, ces derniers mois, l’engagement d’OpenAI envers cette mission a été remis en question.

    Deux jours avant l'intervention d'Emanuel au festival, Altman et le PDG d'Airbnb, Brian Chesky, étaient présents au même événement et ont déclaré que la mise au point d'une IA responsable nécessiterait la participation de la société.

    « Nous devons apprendre à créer des technologies sûres », a déclaré Altman. « Nous devons trouver comment construire des produits sûrs, et cela passe par un dialogue permanent avec la société ».

    Emanuel a déclaré que les personnes comme Altman sont probablement très intelligentes et qu'il ne veut pas étouffer l'innovation ; cependant, il ne croit pas que les innovateurs aient bien pesé les avantages de l'IA par rapport à ses inconvénients. « J'ai pensé à toute une série de choses qui sont mauvaises », a-t-il déclaré. « Vous me dites que vous avez fait le calcul et que les avantages l'emportent sur les inconvénients. Je ne crois pas ».

    Le PDG d'Endeavor a ajouté que la réglementation gouvernementale sera nécessaire à mesure que l'IA se développera.

    « Je ne veux pas non plus étouffer l'innovation, car je pense que nous avons besoin de l'IA. Mais nous devons l'encadrer », a-t-il déclaré. « Je sais que beaucoup de gens dans la Silicon Valley n'aiment pas que le gouvernement intervienne - et ce n'est pas comme si le gouvernement avait obtenu de bons résultats dans ce domaine - mais il s'agit d'une technologie assez dynamique qui nécessite une réflexion approfondie sur ce qui peut et ne peut pas se produire ».

    Il est clair qu’Ari Emanuel estime que la confiance envers les acteurs de l’IA doit être examinée de près, et que des mesures de régulation sont nécessaires pour garantir une utilisation responsable de cette technologie

    Nom : secretaire.png
Affichages : 5537
Taille : 442,4 Ko
    Le secrétaire général de l'ONU, Antonio Guterres

    L'ONU veut créer une agence mondiale pour réguler l'IA

    La prolifération de la haine et des mensonges sur les plateformes numériques et la menace que l'intelligence artificielle puisse devenir un « monstre » incontrôlé exigent une action mondiale coordonnée, à commencer par un code de conduite pour les gouvernements, les entreprises technologiques et les annonceurs qui promeut la vérité et protège les droits de l'homme, selon une déclaration du secrétaire général de l'ONU.

    Antonio Guterres a déclaré qu'il prévoyait de nommer un conseil consultatif scientifique et un conseil consultatif sur l'intelligence artificielle en septembre 2023 pour préparer les initiatives que l'ONU pourrait prendre. Il a déclaré qu'il réagirait favorablement à une nouvelle agence de l'ONU sur l'intelligence artificielle et a suggéré comme modèle l'Agence internationale de l'énergie atomique, qui est basée sur la connaissance et dispose de certains pouvoirs de réglementation.

    Guterres a déclaré lors d'une conférence de presse qu'il prévoyait de mener de larges consultations sur les principes du Code de conduite des Nations Unies pour l'intégrité de l'information sur les plateformes numériques, qu'il publiera avant le Sommet de l'avenir des Nations Unies de l'année prochaine.

    Il a exprimé l'espoir que le code sera largement soutenu, mais lorsqu'on lui a demandé si les gouvernements et les entreprises technologiques étaient disposés à prendre des mesures pour rendre l'espace numérique plus sûr, il a répondu : « C'est la question que je me pose ».

    « Nous avons affaire à une entreprise qui génère des profits énormes, et nous avons aussi affaire dans certaines situations à des gouvernements qui ne respectent pas entièrement les droits de l'homme, c'est donc une bataille constante - et dans cette bataille constante, nous devons mobiliser tous ceux qui sont attachés à l'intégrité de l'information sur les plateformes numériques », a-t-il déclaré.

    Heidi Beirich, cofondatrice du Projet mondial contre la haine et l'extrémisme, a convenu que même si c'est une étape positive que l'ONU appelle à des solutions internationales à ce problème mondial, son code de conduite ne sera probablement pas suffisant pour arrêter le torrent d'informations fausses et haineuses en ligne.

    « Le fait est que les codes volontaires, y compris les propres conditions de service des entreprises sur ces questions, n'ont pas réussi à les maîtriser », a déclaré Beirich. « Le problème pour l'ONU est qu'ils ne peuvent pas faire ce qu'il semble devoir faire pour régler ce problème, qui est essentiellement une législation ».

    Guterres a déclaré que de nombreuses initiatives étaient en cours, notamment une loi et un code de conduite dans l'Union européenne pour ses 27 pays membres et un sommet britannique sur la sécurité de l'IA à l'automne. D'autres gouvernements étudient également des formes de réglementation. Mais il a dit qu'il y a une opinion selon laquelle la réglementation n'est pas facile parce que les choses évoluent très rapidement, et qu'une approche globale est donc nécessaire.

    Guterres a déclaré qu'un problème clé est que le modèle commercial de l'entreprise technologique donne la priorité à l'engagement plutôt qu'à la confidentialité, à la vérité et aux droits de l'homme. Il a déclaré que les entreprises technologiques doivent comprendre que des profits massifs ne peuvent être créés « au détriment d'un modèle d'engagement qui passe avant toute autre considération ».

    Le chef de l'ONU a déclaré que le code de conduite ne sera pas une solution, « mais il sera mondial » et il permettra aux gouvernements, aux entreprises technologiques, aux annonceurs et autres « de s'engager sur ce qui doit être fait pour garantir ou au moins pour promouvoir sérieusement l'intégrité de l'information sur les plateformes numériques ».

    Source : Ari Emanuel

    Et vous ?

    La confiance envers les entreprises d’IA : pensez-vous que les entreprises travaillant sur l’intelligence artificielle devraient être davantage régulées pour garantir une utilisation responsable de cette technologie ? Pourquoi ou pourquoi pas ?
    Le rôle du gouvernement : Ari Emanuel a suggéré que le gouvernement devrait intervenir pour mettre en place des garde-fous sur l’IA. Êtes-vous d’accord avec cette idée ? Quel devrait être le rôle du gouvernement dans la régulation de l’IA ?
    Mission d’OpenAI : OpenAI avait initialement pour mission de développer une IA bénéfique pour l’humanité. Pensez-vous que cette mission est toujours respectée, ou l’entreprise a-t-elle perdu de vue cet objectif initial ?
    Transparence et responsabilité : comment les entreprises d’IA devraient-elles rendre compte de leurs actions et de leurs décisions ? Quelles mesures devraient-elles prendre pour garantir la transparence et la responsabilité ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  4. #124
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 400
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 400
    Par défaut Les nouvelles règles européennes en matière d'intelligence artificielle entrent en vigueur aujourd'hui
    AI Act : les nouvelles règles européennes en matière d'intelligence artificielle entrent en vigueur,
    l'objectif déclaré est d'encourager le développement et l'adoption de systèmes IA sûrs et fiables en UE

    Le 1er août 2024, le règlement sur l’intelligence artificielle (IA) de l’Union européenne est entré en vigueur. Cette législation vise à encourager le développement et l’adoption de systèmes d’IA sûrs et fiables sur le marché unique de l’UE, tant par les acteurs privés que publics. Elle s’efforce également de garantir le respect des droits fondamentaux des citoyens de l’UE tout en stimulant les investissements et l’innovation dans le domaine de l’intelligence artificielle en Europe.

    La rapidité spectaculaire du développement de l'intelligence artificielle au cours des deux dernières années a attiré l'attention du public et suscité des débats autour d'une nouvelle révolution technologique. La promesse de l'intelligence artificielle à l'humanité est qu'elle peut nous rendre plus efficaces - et donc nous permettre de consacrer nos esprits avancés à des activités plus importantes.

    Pourtant, il y a de nombreuses raisons de ne pas laisser cette version idéalisée du développement de l'IA s'installer trop longtemps dans notre esprit. Des universitaires, des scientifiques et même les concepteurs de l'IA eux-mêmes ont mis en garde contre les risques considérables que son développement rapide fait courir à l'humanité. À mesure que nous créons de nouvelles formes d'IA et que nous les alimentons avec des quantités de données de plus en plus importantes, leurs capacités sont susceptibles de s'affiner, et elles pourraient acquérir la capacité « d'apprendre », en ingérant des données pour se former elles-mêmes, ainsi qu'en créant potentiellement leurs propres techniques de manipulation à utiliser contre les humains.

    L'intelligence artificielle n'a pas besoin d'être sensible pour représenter un risque pour l'humanité. Sa maîtrise du langage, qui s'est produite bien plus rapidement que prévu, suffit à polariser nos sociétés grâce à sa capacité à manipuler les informations que nous absorbons en ligne. Ne pas savoir si une image est réelle ou générée par l'IA, ou si le discours d'un homme politique est un deepfake plutôt qu'une vidéo authentique, pourrait avoir d'immenses conséquences sur ce que les gens croient, sur les relations que nous construisons les uns avec les autres et créer des compréhensions radicalement différentes du monde qui nous entoure.

    Face à ces perspectives effrayantes, l'une des réponses actuellement sur la table est l'Artificial Intelligence Act de l'UE. La Commission européenne a initialement publié la proposition de loi sur l'intelligence artificielle (loi sur l'IA) en 2021, mais l'introduction du ChatGPT a semblé renforcer l'attention et l'urgence de sa mise en place. Ainsi, aux premières heures du samedi 9 décembre 2023, les institutions de l'UE ont trouvé un accord, finalisant ainsi la loi sur l'IA après trente-six longues heures de négociations.

    La loi sur l'IA est un texte législatif historique qui devrait servir de référence mondiale pendant des années, principalement grâce à un cadre réglementaire adaptable conçu pour être modifié au fur et à mesure que la technologie progresse. Sa flexibilité n'est pas le seul aspect qui fait de la loi sur l'IA un framework intéressant (dont s'inspire déjà d'ailleurs la Californie) : la législation est conçue autour de l'utilisation de la technologie plutôt que de réglementer la technologie elle-même.

    Cela signifie que des applications spécifiques, telles que l'utilisation de l'identification biométrique à distance par les forces de l'ordre, seront fortement restreintes, tout en permettant la poursuite de la recherche et du développement dans le domaine de l'IA. Pour ce faire, elle doit toutefois être en mesure d'équilibrer la réglementation et l'innovation, tout en laissant l'UE ouverte à la coopération avec les pays tiers.

    Nom : gen.png
Affichages : 8884
Taille : 199,1 Ko

    Vue d'ensemble

    La structure très axée sur le risque de cette législation a fait l'objet de critiques assez vives, en particulier de la part du monde des affaires. La plus importante est une lettre ouverte signée par 150 chefs d'entreprise qui craignent que la loi sur l'IA ne dissuade les startups et les entreprises européennes d'investir dans leurs propres systèmes d'IA ou de les développer.

    Si les entreprises d'IA décidaient de cesser leurs activités dans l'UE ou ne parvenaient pas à générer suffisamment d'investissements en raison d'un environnement réglementaire défavorable, la compétitivité internationale de l'UE par rapport à ses homologues américains et chinois pourrait s'en trouver sérieusement affectée. Le recours aux technologies étrangères est déjà une réalité au sein de l'UE. Cependant, l'UE tente désormais activement d'inverser cette situation par le biais de son discours sur la souveraineté numérique et le filtrage des investissements étrangers.

    Son argument est que les nouveaux développeurs seraient confrontés à des coûts d'entrée élevés sur le marché de l'IA en raison de tous les efforts à fournir pour se mettre en conformité. Un cadre législatif plus large serait préférable, d'autant plus que les applications modernes de l'IA sont très récentes et qu'elles évolueront rapidement dans les années, voire les mois, à venir. Les critiques soutiennent qu'un régime réglementaire strict désavantagerait l'UE et l'amènerait probablement à se laisser distancer davantage par les États-Unis et la Chine en termes de capacité technologique.

    L'entrée en vigueur de la loi européenne sur l'IA

    La loi européenne sur l'intelligence artificielle est entrée en vigueur ce jeudi et s'appliquera à tous les systèmes d'intelligence artificielle (IA) déjà en place ou en cours de développement. Cette loi est largement considérée comme la première législation au monde qui tente de réglementer l'intelligence artificielle en fonction des risques qu'elle présente.

    Les législateurs ont adopté la législation en mars, mais sa publication au Journal officiel de la Commission européenne en juillet a mis en branle le processus d'entrée en vigueur.

    La date du 1er août marque le début d'une série de dates et d'échéances au cours des mois et des années à venir, afin de préparer les entreprises qui utilisent l'IA à se familiariser avec la nouvelle législation et à s'y conformer.


    La loi sur l'IA évalue les entreprises en fonction des risques

    La loi européenne sur l'IA assigne ses règles à chaque entreprise utilisant des systèmes d'IA en fonction de quatre niveaux de risque, qui déterminent à leur tour les délais qui leur sont applicables. Les quatre types de risque sont les suivants : aucun risque, risque minimal, risque élevé et systèmes d'IA interdits.

    L'UE interdira totalement certaines pratiques à partir de février 2025. Il s'agit notamment de celles qui manipulent la prise de décision d'un utilisateur ou qui élargissent les bases de données de reconnaissance faciale par le biais du « scraping » sur internet.

    D'autres systèmes d'IA considérés comme présentant un risque élevé, tels que les IA qui collectent des données biométriques et les IA utilisées pour les infrastructures critiques ou les décisions en matière d'emploi, feront l'objet des réglementations les plus strictes.

    Ces entreprises devront notamment présenter leurs ensembles de données d'entraînement à l'IA et fournir la preuve d'une supervision humaine.

    Selon Thomas Regnier, porte-parole de la Commission européenne, environ 85 % des entreprises d'IA relèvent de la deuxième catégorie, celle du "risque minimal", qui ne nécessite que très peu de réglementation.

    Nom : ia.png
Affichages : 1419
Taille : 207,8 Ko

    Les entreprises auront besoin d'une période comprise entre 3 et 6 mois pour se conformer

    Heather Dawe, responsable de l'IA responsable au sein de la société de conseil UST, travaille déjà avec des clients internationaux pour mettre leur utilisation de l'IA en conformité avec la nouvelle loi. Les clients internationaux de Dawe sont « d'accord » avec les nouvelles exigences de la loi parce qu'ils reconnaissent la nécessité d'une réglementation de l'IA.

    Selon elle, la mise en conformité avec la nouvelle loi pourrait prendre entre trois et six mois, en fonction de la taille de l'entreprise et de l'importance du rôle de l'IA dans son flux de travail. « Il existe un ensemble de lignes directrices claires sur ce qu'il faut faire », a déclaré Dawe. « Toute complication est due au fait que le processus n'a pas été lancé assez rapidement ».

    Les entreprises pourraient envisager de mettre en place des conseils internes de gouvernance de l'IA, a poursuivi Dawe, avec des experts en droit, en technologie et en sécurité pour effectuer un audit complet des technologies utilisées et de la manière dont elles doivent adhérer à la nouvelle loi.

    Si une entreprise n'est pas en conformité avec la loi sur l'IA dans les délais impartis, elle risque une amende pouvant aller jusqu'à 7 % de son chiffre d'affaires annuel global, a rappelé Regnier, de la Commission.

    Comment la Commission se prépare

    L'Office de l'IA de la Commission supervisera le respect des règles relatives aux modèles d'IA à usage général. Soixante membres du personnel de la Commission seront réorientés vers ce bureau et 80 autres candidats externes seront recrutés au cours de l'année prochaine, a indiqué Regnier.

    Un conseil de l'IA composé de délégués de haut niveau des 27 États membres de l'UE a « posé les bases » de la mise en œuvre de la loi lors de sa première réunion en juin, selon un communiqué de presse. Le conseil travaillera avec l'office de l'IA pour s'assurer que l'application de la loi est harmonisée dans toute l'UE, a ajouté Regnier.

    Plus de 700 entreprises ont déclaré qu'elles signeraient un pacte sur l'IA, dans lequel elles s'engagent à se conformer rapidement à la loi.

    Les États membres de l'UE ont jusqu'au mois d'août prochain pour mettre en place les autorités nationales compétentes qui superviseront l'application des règles dans leur pays.

    La Commission se prépare également à relancer ses investissements dans l'IA, avec une injection d'un milliard d'euros en 2024 et jusqu'à 20 milliards d'euros d'ici 2030.

    « Ce que l'on entend partout, c'est que ce que fait l'UE est purement réglementaire (...) et que cela va bloquer l'innovation. Ce n'est pas vrai », a déclaré Regnier. « La législation n'est pas là pour empêcher les entreprises de lancer leurs systèmes, bien au contraire ». « Nous voulons qu'elles opèrent dans l'UE, mais nous voulons aussi protéger nos citoyens et nos entreprises ».

    Pour la Commission, l'un des principaux défis est de réglementer les futures technologies d'IA, a déclaré Regnier, mais il pense que le système basé sur le risque signifie qu'elle peut rapidement réglementer tout nouveau système.

    Points de vue des critiques et des partisans

    Les inquiétudes concernant la capacité d'innovation de l'Union européenne sont certainement justifiées. Les fonctionnaires européens mentionnent constamment le manque de grandes entreprises technologiques sur le continent et le « retard » par rapport à d'autres grands acteurs mondiaux.

    Le développement moderne et rapide de l'intelligence artificielle pourrait présenter un scénario différent. Contrairement au développement de l'internet au début des années 90 et à la croissance des plateformes en ligne dans les années 2000, l'UE réglemente alors que l'utilisation et l'importance de la technologie augmentent à l'échelle mondiale.

    Alors que le marché de l'IA commence à exploser et que les modèles se développent correctement, l'Union européenne a anticipé l'importance et le caractère révolutionnaire de ces nouvelles technologies. La réglementation vise à protéger contre les dommages potentiels, ce qui a sans doute été fait trop tard dans le cas de l'internet et de l'essor des grands réseaux de médias sociaux.

    La loi sur les services numériques et la loi sur les marchés numériques, adoptées en 2022, étaient des tentatives pour contrôler les entreprises de la Big Tech dont les pratiques algorithmiques et les modèles commerciaux préjudiciables étaient déjà profondément enracinés. Cette fois, l'UE a l'occasion de créer un environnement sain permettant aux entreprises d'innover et de se développer dans ce nouveau secteur.

    Sources : parlement européen (1, 2), Europe AI Office, conseil de l'UE, lettre ouverte

    Et vous ?

    Évaluation des risques : Les entreprises doivent évaluer les risques liés à leurs systèmes d’IA et prendre des mesures pour minimiser ces risques.
    Interdiction des systèmes dangereux : Certains systèmes d’IA, tels que la surveillance de masse, sont interdits en raison de leur impact potentiellement néfaste.
    Transparence et documentation : Les développeurs d’IA doivent fournir des informations claires sur le fonctionnement de leurs systèmes et documenter leurs décisions.
    Surveillance indépendante : Des organismes de surveillance indépendants seront chargés de veiller à la conformité avec la législation.
    Images attachées Images attachées
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  5. #125
    Membre chevronné Avatar de der§en
    Homme Profil pro
    Bretagne
    Inscrit en
    Septembre 2005
    Messages
    1 013
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Bretagne
    Secteur : Industrie

    Informations forums :
    Inscription : Septembre 2005
    Messages : 1 013
    Par défaut
    Petit pastiche d’une citation de Georges Clemenceau:

    L’Europe est un continent extrêmement fertile : on y plante des fonctionnaires non élus et il y pousse des règlements abscons !

  6. #126
    Invité
    Invité(e)
    Par défaut
    La Commission se prépare également à relancer ses investissements dans l'IA, avec une injection d'un milliard d'euros en 2024 et jusqu'à 20 milliards d'euros d'ici 2030.
    Ridicule.

  7. #127
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 400
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 400
    Par défaut Les grandes enseignes de la technologie cherchent à affaiblir la loi européenne sur l'IA
    Les grandes enseignes de la technologie cherchent à affaiblir la loi européenne sur l'IA,
    arguant que des exigences trop lourdes en matière de transparence et de documentation pourraient ralentir le développement de nouvelles technologies

    Depuis l’adoption de la loi sur l’intelligence artificielle (IA) par l’Union européenne, les plus grandes entreprises technologiques du monde ont intensifié leurs efforts pour influencer et atténuer les réglementations strictes prévues par cette législation historique : Amazon, Google, Meta et d'autres craignent que des réglementations trop strictes n’entravent l’innovation et n’entraînent des amendes de plusieurs milliards de dollars. Les entreprises estiment que des exigences trop lourdes en matière de transparence et de documentation pourraient ralentir le développement de nouvelles technologies et augmenter les coûts de conformité.

    Des entreprises telles que Stability AI et OpenAI ont été confrontées à la question de savoir si l'utilisation de livres à succès ou d'archives photographiques pour entraîner leurs modèles sans l'autorisation de leurs créateurs constituait une violation du droit d'auteur.


    La rapidité spectaculaire du développement de l'intelligence artificielle au cours des deux dernières années a attiré l'attention du public et suscité des débats autour d'une nouvelle révolution technologique. La promesse de l'intelligence artificielle à l'humanité est qu'elle peut nous rendre plus efficaces - et donc nous permettre de consacrer nos esprits avancés à des activités plus importantes.

    Pourtant, il y a de nombreuses raisons de ne pas laisser cette version idéalisée du développement de l'IA s'installer trop longtemps dans notre esprit. Des universitaires, des scientifiques et même les concepteurs de l'IA eux-mêmes ont mis en garde contre les risques considérables que son développement rapide fait courir à l'humanité. À mesure que nous créons de nouvelles formes d'IA et que nous les alimentons avec des quantités de données de plus en plus importantes, leurs capacités sont susceptibles de s'affiner, et elles pourraient acquérir la capacité « d'apprendre », en ingérant des données pour se former elles-mêmes, ainsi qu'en créant potentiellement leurs propres techniques de manipulation à utiliser contre les humains.

    L'intelligence artificielle n'a pas besoin d'être sensible pour représenter un risque pour l'humanité. Sa maîtrise du langage, qui s'est produite bien plus rapidement que prévu, suffit à polariser nos sociétés grâce à sa capacité à manipuler les informations que nous absorbons en ligne. Ne pas savoir si une image est réelle ou générée par l'IA, ou si le discours d'un homme politique est un deepfake plutôt qu'une vidéo authentique, pourrait avoir d'immenses conséquences sur ce que les gens croient, sur les relations que nous construisons les uns avec les autres et créer des compréhensions radicalement différentes du monde qui nous entoure.

    Face à ces perspectives effrayantes, l'une des réponses actuellement sur la table est l'Artificial Intelligence Act de l'UE. La Commission européenne a initialement publié la proposition de loi sur l'intelligence artificielle (loi sur l'IA) en 2021, mais l'introduction du ChatGPT a semblé renforcer l'attention et l'urgence de sa mise en place. Ainsi, aux premières heures du samedi 9 décembre 2023, les institutions de l'UE ont trouvé un accord, finalisant ainsi la loi sur l'IA après trente-six longues heures de négociations.

    La loi sur l'IA est un texte législatif historique qui devrait servir de référence mondiale pendant des années, principalement grâce à un cadre réglementaire adaptable conçu pour être modifié au fur et à mesure que la technologie progresse. Sa flexibilité n'est pas le seul aspect qui fait de la loi sur l'IA un framework intéressant (dont s'inspire déjà d'ailleurs la Californie) : la législation est conçue autour de l'utilisation de la technologie plutôt que de réglementer la technologie elle-même.

    Cela signifie que des applications spécifiques, telles que l'utilisation de l'identification biométrique à distance par les forces de l'ordre, seront fortement restreintes, tout en permettant la poursuite de la recherche et du développement dans le domaine de l'IA. Pour ce faire, elle doit toutefois être en mesure d'équilibrer la réglementation et l'innovation, tout en laissant l'UE ouverte à la coopération avec les pays tiers.

    La loi européenne sur l'intelligence artificielle est entrée en vigueur ce jeudi 1er août et s'appliquera à tous les systèmes d'intelligence artificielle (IA) déjà en place ou en cours de développement. Cette loi est largement considérée comme la première législation au monde qui tente de réglementer l'intelligence artificielle en fonction des risques qu'elle présente.

    Nom : public.png
Affichages : 4067
Taille : 199,8 Ko

    Pourquoi cette loi est-elle cruciale ?

    La loi sur l’IA vise à encadrer l’utilisation des systèmes d’IA, en particulier ceux à usage général comme ChatGPT d’OpenAI, afin de prévenir les abus et de protéger les droits des citoyens européens. Elle impose aux entreprises de fournir des résumés détaillés des données utilisées pour entraîner leurs modèles, ce qui pourrait permettre aux créateurs de contenu de demander des compensations si leurs œuvres sont utilisées sans autorisation. De plus, la loi exige que les systèmes d’IA à haut risque soient soumis à des évaluations rigoureuses avant leur mise sur le marché, garantissant ainsi leur sécurité et leur fiabilité.

    Les préoccupations des géants de la technologie

    Après des mois d'intenses négociations entre différents groupes politiques, les législateurs de l'UE ont adopté la loi sur l'IA, premier ensemble complet de règles régissant cette technologie.

    Toutefois, tant que les codes de pratique qui accompagnent la loi n'auront pas été finalisés, on ne sait pas avec quelle rigueur les règles relatives aux systèmes d'IA « à usage général », tels que le ChatGPT d'OpenAI, seront appliquées, ni combien de poursuites en matière de droits d'auteur et d'amendes de plusieurs milliards de dollars les entreprises risquent d'encourir.

    « Le code de bonnes pratiques est crucial. Si nous y parvenons, nous pourrons continuer à innover », a déclaré Boniface de Champris, responsable politique de l'organisation commerciale CCIA Europe, qui compte parmi ses membres Amazon, Google et Meta. « S'il est trop étroit ou trop spécifique, cela deviendra très difficile », a-t-il ajouté.

    L'UE a invité des entreprises, des universitaires et d'autres personnes à participer à la rédaction du code de bonnes pratiques, et a reçu près de 1 000 candidatures, un nombre inhabituellement élevé, selon certaines sources.

    Le code de bonnes pratiques en matière d'IA ne sera pas juridiquement contraignant lorsqu'il entrera en vigueur à la fin de l'année prochaine, mais il fournira aux entreprises une liste de contrôle qu'elles pourront utiliser pour prouver qu'elles respectent la loi.

    Une entreprise qui prétendrait respecter la loi tout en ignorant le code pourrait faire l'objet d'une action en justice.


    Les enjeux de la transparence et de la protection des données

    Un des points de friction majeurs concerne la transparence des données. Des entreprises telles que Stability AI et OpenAI ont été critiquées pour leur manque de clarté sur les données utilisées pour entraîner leurs modèles ; il a été plusieurs fois question de savoir si l'utilisation de livres à succès ou d'archives photographiques pour entraîner leurs modèles sans l'autorisation de leurs créateurs constituait une violation du droit d'auteur.

    En vertu de la loi sur l'IA, les entreprises seront tenues de fournir des « résumés détaillés » des données utilisées pour entraîner leurs modèles. En théorie, un créateur de contenu qui découvre que son travail a été utilisé pour entraîner un modèle d'IA peut être en mesure de demander une indemnisation, bien que cette possibilité soit en cours d'examen par les tribunaux.

    Certains chefs d'entreprise ont déclaré que les résumés requis devaient contenir peu de détails afin de protéger les secrets commerciaux, tandis que d'autres affirment que les détenteurs de droits d'auteur ont le droit de savoir si leur contenu a été utilisé sans autorisation.

    OpenAI, qui a été critiquée pour son refus de répondre aux questions concernant les données utilisées pour former ses modèles, a également demandé à faire partie des groupes de travail, selon une personne familière avec le sujet, qui a refusé d'être nommée. Google a également soumis une candidature. De son côté, Amazon a déclaré qu'elle espérait « apporter son expertise et veiller à ce que le code de bonnes pratiques soit couronné de succès ».

    Maximilian Gahntz, responsable de la politique en matière d'IA à la Fondation Mozilla, l'organisation à but non lucratif à l'origine du navigateur web Firefox, s'est dit préoccupé par le fait que les entreprises « font tout pour éviter la transparence ».

    « La loi sur l'IA représente la meilleure occasion de mettre en lumière cet aspect crucial et d'éclairer au moins une partie de la boîte noire », a-t-il déclaré.

    Nom : risques.png
Affichages : 916
Taille : 169,0 Ko

    Les implications pour l’innovation et la compétitivité

    Les critiques de la loi soutiennent que des réglementations trop strictes pourraient freiner l’innovation en Europe et rendre le continent moins compétitif par rapport à d’autres régions du monde. Ils craignent que les startups et les petites entreprises, qui n’ont pas les mêmes ressources que les géants de la technologie, soient particulièrement affectées par les coûts de conformité. Cependant, les partisans de la loi estiment que des règles claires et strictes sont nécessaires pour garantir que l’IA soit développée de manière éthique et responsable.

    Certains acteurs du monde des affaires ont reproché à l'UE de donner la priorité à la réglementation des technologies plutôt qu'à l'innovation, et les personnes chargées de rédiger le texte du code de bonnes pratiques s'efforceront de parvenir à un compromis. Il y a quelques jours, l'ancien directeur de la Banque centrale européenne, Mario Draghi, a déclaré que l'Union européenne avait besoin d'une politique industrielle mieux coordonnée, d'un processus décisionnel plus rapide et d'investissements massifs pour ne pas se laisser distancer par la Chine et les États-Unis.

    Dans un contexte de protectionnisme croissant au sein de l'UE, les entreprises technologiques locales espèrent que des exceptions seront introduites dans la loi sur l'IA au profit des jeunes entreprises européennes. « Nous avons insisté sur le fait que ces obligations devaient être gérables et, si possible, adaptées aux startups », a déclaré Maxime Ricard, responsable politique chez Allied for Startups, un réseau d'organisations commerciales représentant les petites entreprises technologiques.

    Une fois le code publié au début de l'année prochaine, les entreprises technologiques auront jusqu'au mois d'août 2025 pour que leurs efforts de mise en conformité soient évalués en fonction de ce code.

    Des organisations à but non lucratif, dont Access Now, le Future of Life Institute et Mozilla, ont également demandé à participer à la rédaction du code. Gahntz a déclaré : « Alors que nous entrons dans la phase où de nombreuses obligations de la loi sur l'IA sont énoncées plus en détail, nous devons veiller à ne pas permettre aux grands acteurs de l'IA d'édulcorer d'importants mandats de transparence. »

    Conclusion

    La bataille pour influencer la loi européenne sur l’IA est loin d’être terminée. Les géants de la technologie continuent de faire pression pour des réglementations plus souples, tandis que les législateurs européens cherchent à trouver un équilibre entre innovation et protection des droits des citoyens. La manière dont cette loi sera finalement mise en œuvre pourrait avoir des répercussions significatives sur l’avenir de l’IA en Europe et dans le monde entier.

    Source : Reuters

    Et vous ?

    Pensez-vous que les réglementations actuelles sur l’IA sont suffisantes pour protéger les droits des citoyens ? Pourquoi ou pourquoi pas ?
    Comment les entreprises technologiques peuvent-elles équilibrer innovation et respect des réglementations ?
    Quels sont, selon vous, les risques potentiels d’une réglementation trop stricte sur l’IA ?
    Croyez-vous que la transparence des données utilisées pour entraîner les modèles d’IA est essentielle ? Pourquoi ?
    Quels avantages et inconvénients voyez-vous dans l’obligation pour les entreprises de fournir des résumés détaillés des données d’entraînement ?
    Comment les législateurs peuvent-ils s’assurer que les réglementations sur l’IA ne freinent pas l’innovation tout en protégeant les droits des individus ?
    Pensez-vous que les géants de la technologie ont trop d’influence sur les politiques publiques ? Pourquoi ou pourquoi pas ?
    Quels seraient les impacts d’une réglementation européenne stricte sur l’IA sur les petites entreprises et les startups ?
    Comment voyez-vous l’avenir de l’IA en Europe avec la mise en œuvre de cette loi ?
    Quelles mesures supplémentaires proposeriez-vous pour améliorer la loi sur l’IA ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  8. #128
    Membre prolifique Avatar de Jon Shannow
    Homme Profil pro
    Responsable de service informatique
    Inscrit en
    Avril 2011
    Messages
    4 680
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 61
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Responsable de service informatique
    Secteur : High Tech - Électronique et micro-électronique

    Informations forums :
    Inscription : Avril 2011
    Messages : 4 680
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    Et vous ?

    Croyez-vous que la transparence des données utilisées pour entraîner les modèles d’IA est essentielle ? Pourquoi ?
    C'est évident. Ne serait-ce que pour savoir si les données utilisées sont dignes de confiance ou risque d'être basées sur du grand n'importe quoi. Imaginons un AI entrainée à partir de TikTok et/ou X (twitter) !
    Ensuite, il n'y a pas de raison que le droit d'auteurs ne soit pas respecté par ces entreprises.
    Citation Envoyé par Stéphane le calme Voir le message
    Quelles mesures supplémentaires proposeriez-vous pour améliorer la loi sur l’IA ?
    Je pense qu'il est indispensable que les sociétés qui déploient ces AI soient pénalement responsables des résultats fournis par leurs outils. Ex du journaliste se voyant accusé à des affaires criminelles qu'il a couvert dans la cadre de son travail.

  9. #129
    Membre très actif
    Homme Profil pro
    Expertise comptable
    Inscrit en
    Décembre 2019
    Messages
    862
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 34
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Expertise comptable
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Décembre 2019
    Messages : 862
    Par défaut
    Citation Envoyé par Jon Shannow Voir le message
    Je pense qu'il est indispensable que les sociétés qui déploient ces AI soient pénalement responsables des résultats fournis par leurs outils.
    Indispensable ? Il est indispensable qu'il ne soit pas responsable oui. Pour la démocratie mais aussi par simple jugeotte.

    Smith & Wesson n'assiste pas à tout les procès de meurtre commis avec une arme fabriqué dans une de leur usine. Les fournisseurs d'accès à internet ne sont pas aux procès des pédophiles qui ont utilisés leurs services de communication et des résultats de référencement. Le pdg de nokia n'assiste pas les dealer qui ont vendu de la came avec un téléphone portable.

    Il est indispensable que la responsabilité individuelle soit maintenue et qu'on ne puisse pas accuser les autres quand on mange un sachet de lessive parce qu'on a vu un challenge sur tiktok. Et ainsi de suite.

    L'IA ne change rien au fait que les individus sont responsables de leurs actes, qu'ils mentent, désinforment, tue, vole ou qu'ils trafique ! Pas la peine de chercher de nouveau responsable comme si il s'agissait des nouveaux grands prêtre de la société.

    Ensuite la loi ne doit pas permettre aux gens d'être bête. L'IA non plus. Si je te dis de sauter du pont et que tu le fais en principe j'ai rien fait de mal sauf si je t'ai harcelé/menacé/manipulé pour que tu le fasses.

    J'enlève l'exemple du journalisme car écrire/sourcer/autres des articles avec l'IA c'est pas du journalisme à mon sens. De toute façon les journalistes sont déjà mis en sourdine par la censure collective et étatique pas besoin de l'IA. J'ai plutôt le sentiment que l'IA va nous servir de la belle désinformation et va être mise massivement au service du contrôle social.

    Tout le monde sera charlie, vacciné, pro Ukraine, pour les hausses d'impôts et l'émigration et n'oubliera bien sûr jamais Gaza !

  10. #130
    Membre prolifique Avatar de Jon Shannow
    Homme Profil pro
    Responsable de service informatique
    Inscrit en
    Avril 2011
    Messages
    4 680
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 61
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Responsable de service informatique
    Secteur : High Tech - Électronique et micro-électronique

    Informations forums :
    Inscription : Avril 2011
    Messages : 4 680
    Par défaut
    Citation Envoyé par Jules34 Voir le message
    Indispensable ? Il est indispensable qu'il ne soit pas responsable oui. Pour la démocratie mais aussi par simple jugeotte.

    Smith & Wesson n'assiste pas à tout les procès de meurtre commis avec une arme fabriqué dans une de leur usine. Les fournisseurs d'accès à internet ne sont pas aux procès des pédophiles qui ont utilisés leurs services de communication et des résultats de référencement. Le pdg de nokia n'assiste pas les dealer qui ont vendu de la came avec un téléphone portable.

    Il est indispensable que la responsabilité individuelle soit maintenue et qu'on ne puisse pas accuser les autres quand on mange un sachet de lessive parce qu'on a vu un challenge sur tiktok. Et ainsi de suite.

    L'IA ne change rien au fait que les individus sont responsables de leurs actes, qu'ils mentent, désinforment, tue, vole ou qu'ils trafique ! Pas la peine de chercher de nouveau responsable comme si il s'agissait des nouveaux grands prêtre de la société.

    Ensuite la loi ne doit pas permettre aux gens d'être bête. L'IA non plus. Si je te dis de sauter du pont et que tu le fais en principe j'ai rien fait de mal sauf si je t'ai harcelé/menacé/manipulé pour que tu le fasses.

    J'enlève l'exemple du journalisme car écrire/sourcer/autres des articles avec l'IA c'est pas du journalisme à mon sens. De toute façon les journalistes sont déjà mis en sourdine par la censure collective et étatique pas besoin de l'IA. J'ai plutôt le sentiment que l'IA va nous servir de la belle désinformation et va être mise massivement au service du contrôle social.

    Tout le monde sera charlie, vacciné, pro Ukraine, pour les hausses d'impôts et l'émigration et n'oubliera bien sûr jamais Gaza !
    Je pense que tu n'as pas compris ce que j'ai dit.
    Je vais prendre deux exemples différents pour éclaircir mes propos.

    Cas 1 : Une personne demande à un logiciel IA de créer des photos d'une personnalité connue faisant quelque chose d’illégale. L'IA réalise ce qui est demandé et la personne le publie en faisant croire que c'est une vraie info.
    Dans ce cas, la personne est responsable et la société conceptrice et productrice de l'IA n'a rien à se reprocher.

    Cas 2 : Une personne demande des informations concernant une autre personne a un logiciel d'IA. L'IA renvoie des données fausses et préjudiciables sur cette personne. Le demandeur publie ces infos renvoyées pas l'IA. Alors, pour moi, l'IA est responsable, et donc la société conceptrice et productrice de l'IA est responsable.

    Si je reprends ton exemple sur Smith&Wesson, si l'arme explose blessant son propriétaire et les personnes qui sont autour, qui est responsable ?

  11. #131
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    2 116
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 2 116
    Par défaut Un nouvel outil de contrôle de l'UE révèle les principales lacunes de conformité des grands modèles d'IA
    Un nouvel outil de contrôle de l'UE révèle les principales lacunes de conformité des grands modèles d'IA,
    y compris ceux d'OpenAI et Meta, qui ne respectent pas les normes de l'Union européenne

    Un nouvel outil de contrôle de l'UE, développé par LatticeFlow AI et des instituts de recherche, a révélé que plusieurs modèles d'IA, y compris ceux d'OpenAI et Meta, ne respectent pas les normes de conformité de l'Union européenne. Ces normes concernent la cybersécurité et la lutte contre la discrimination. L'outil évalue les modèles d'IA sur divers critères, mettant en avant les domaines à améliorer pour se conformer à la future législation européenne sur l'IA, qui prévoit des sanctions importantes en cas de non-conformité.

    « La Commission se félicite de cette étude et de la plateforme d'évaluation des modèles d'IA, qui constituent une première étape dans la traduction de la loi européenne sur l'IA en exigences techniques, aidant ainsi les fournisseurs de modèles d'IA à mettre en œuvre la loi sur l'IA », Thomas Regnier, porte-parole, Commission européenne.

    Le règlement sur l'IA de l'UE, entré en vigueur le 1er août 2024, vise à promouvoir des systèmes d'IA sûrs et fiables, tout en protégeant les droits fondamentaux des citoyens européens.

    Développé par la startup suisse LatticeFlow AI en collaboration avec deux instituts de recherche, l'ETH Zurich et l'INSAIT bulgare, le framework évalue des modèles d'IA générative conçus par de grandes entreprises technologiques et attribue aux modèles d'IA une note allant de 0 à 1 dans plusieurs domaines, incluant la robustesse technique et la sécurité. L'intensification des discussions autour de la réglementation de l'IA a été catalysée par le lancement de ChatGPT en 2022, incitant les législateurs à établir des règles spécifiques pour les systèmes d'IA à usage général. L'outil attribue des scores entre 0 et 1, évaluant des critères tels que la robustesse technique et la sécurité. Bien que la majorité des modèles aient obtenu des notes supérieures à 0,75, des lacunes importantes, notamment en matière de biais et de sécurité, ont été identifiées.

    Les entreprises risquent des amendes pouvant atteindre 35 millions d'euros en cas de non-conformité. Par exemple, le GPT-3.5 Turbo d'OpenAI a reçu un score de 0,46, mettant en lumière des biais discriminatoires. Certaines failles de cybersécurité, comme le détournement d'invite, ont également été observées avec des scores faibles pour plusieurs modèles. Le modèle Claude 3 Opus d'Anthropic a obtenu le meilleur score, 0,89. Pour aider les développeurs, LatticeFlow met cet outil à disposition gratuitement. Petar Tsankov, PDG de LatticeFlow, a souligné que les résultats, bien que positifs, révèlent des lacunes à corriger pour respecter les exigences réglementaires.

    La Commission européenne considère cet outil comme une première étape vers l'application des normes de conformité technique. Ce test sera une ressource essentielle pour les entreprises s'alignant sur les réglementations, qui devraient être pleinement mises en œuvre d'ici 2025.

    À la fin de l'année précédente, l'UE a adopté une législation sur l'IA, marquant un tournant pour l'utilisation de cette technologie. Cependant, John Loeber, co-fondateur de Limit, avertit des conséquences potentielles de cette loi. Il souligne qu'elle s'applique aussi à des outils traditionnels comme la reconnaissance faciale et à des techniques simples comme la régression linéaire.
    L'AI Act établit un cadre réglementaire mondial pour profiter des avantages de l'IA tout en limitant ses risques, comme l'automatisation des emplois et la désinformation. Bien que la loi doive encore être finalisée, les grands principes sont déjà définis.

    Les décideurs européens se concentrent sur les usages les plus risqués de l'IA, notamment pour les forces de l'ordre et les services essentiels. Les entreprises développant des systèmes d'IA avancés devront respecter de nouvelles exigences de transparence. L'utilisation de la reconnaissance faciale par les gouvernements sera strictement encadrée, avec des amendes pouvant atteindre 7 % du chiffre d'affaires mondial en cas de non-respect des règles. Loeber s'inquiète que cette législation nuise à l'innovation en Europe.

    Dans ses critiques, il évoque une réglementation trop détaillée, des difficultés de conformité et un potentiel effet paralysant sur l'innovation. Selon lui, cette approche pourrait freiner le progrès technologique en Europe plutôt que de l'encourager.

    L'importance d'une réglementation adaptable pour l'IA

    L'émergence de ce framework de contrôle pour l'intelligence artificielle marque une avancée importante vers une régulation nécessaire dans un domaine en pleine expansion. Les défis associés à l'IA, notamment les questions de biais, de discrimination et de cybersécurité, sont de plus en plus pressants. Cet outil souligne la nécessité d'une surveillance stricte et d'une responsabilité accrue des développeurs. Cependant, plusieurs points méritent une attention particulière :

    Flexibilité des normes : La réglementation doit être suffisamment adaptable pour suivre l'évolution rapide des technologies. Des exigences trop rigides pourraient nuire à l'innovation et à la recherche, alors qu'une approche plus nuancée pourrait favoriser un développement responsable de l'IA.

    Gestion des biais : Les biais présents dans les modèles d'IA sont un reflet des données sur lesquelles ils sont entraînés. La responsabilité ne doit pas reposer uniquement sur les développeurs, mais également sur ceux qui fournissent les données. Une réglementation efficace doit inclure des exigences strictes concernant la qualité et la diversité des données utilisées.

    Sécurité des systèmes : Les vulnérabilités en matière de cybersécurité, comme le détournement d'invite, mettent en évidence un besoin urgent d'améliorer la sécurité des systèmes d'IA. Les entreprises doivent investir dans des pratiques de développement sécurisées pour minimiser les risques.

    Impact sur l'innovation : Bien que des sanctions financières puissent inciter à une meilleure conformité, elles pourraient également décourager les start-ups et les petites entreprises, qui n'ont pas toujours les ressources nécessaires pour s'adapter rapidement. Un équilibre entre régulations et incitations est essentiel pour encourager l'innovation tout en protégeant les utilisateurs.

    Importance de la collaboration : La réussite de cette régulation repose sur une collaboration étroite entre les entreprises, les chercheurs et les autorités réglementaires. Une transparence accrue sur les méthodes de test et les résultats peut renforcer la confiance du public dans l'IA.


    Cet outil de contrôle représente un progrès significatif pour garantir la conformité des modèles d'IA aux normes européennes. Toutefois, pour qu'il soit réellement efficace, il est crucial d'aborder les défis de manière critique et constructive, afin d'établir un cadre réglementaire qui protège les utilisateurs tout en favorisant l'innovation et le développement technologique.

    Source : ETH Zurich, INSAIT, and LatticeFlow AI

    Et vous ?

    Quel est votre avis sur le sujet ?

    Quelles pourraient être les conséquences de ces évaluations sur l'innovation et le développement de nouveaux modèles d'IA en Europe ?

    Quel rôle les utilisateurs finaux jouent-ils dans la conformité des modèles d'IA, et comment peuvent-ils être informés des résultats des évaluations ?

    Selon vous, qui est tenu responsable en cas de non-conformité des modèles d'IA identifiés par l'outil : les développeurs, les entreprises qui les utilisent ou les deux ?

    Voir aussi :

    AI Act : les nouvelles règles européennes en matière d'intelligence artificielle entrent en vigueur, l'objectif déclaré est d'encourager le développement et l'adoption de systèmes IA sûrs et fiables en UE

    Les législateurs de l'UE progressent dans leurs négociations cruciales sur les nouvelles règles en matière d'IA

    Loi sur l'IA : un frein à l'innovation européenne ? Oui, selon John Loeber, qui souligne les limites de la loi et estime que son impact pourrait être dangereux pour les Européens à long terme
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  12. #132
    Membre actif
    Homme Profil pro
    Chômeur inutile
    Inscrit en
    Juillet 2012
    Messages
    96
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Chômeur inutile
    Secteur : Industrie

    Informations forums :
    Inscription : Juillet 2012
    Messages : 96
    Par défaut
    Sans conformité,impossible d'aboutir a de grand projets

  13. #133
    Invité
    Invité(e)
    Par défaut
    L'enfer normatif européens a déjà réussi à laminer l'industrie et l'agriculture voilà qu'il s'attaque maintenant à la tech (dont l'IA).
    Pour commencer à "Entreprendre" il faut désormais avoir les moyens de se doter d'une armée de juriste et d'avocat, sans parler des taxes et impôts. Étouffant !

    Je comprend pas qu'on ne commence pas à faire de la prévention dans les écoles concernant l'IA ? (Une IA peut raconter n'importe quoi, et ça sera toujours le cas !)
    Introduire les élèves dès le plus jeune âge à l'esprit critique et à la compréhension de ce qu'est l'IA n'est-il pas la meilleur solution ?

  14. #134
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 400
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 400
    Par défaut AI Act : les systèmes d'IA présentant un « risque inacceptable » sont désormais interdits dans l'UE
    L’AI Act est en place : les systèmes d'IA présentant un « risque inacceptable » sont désormais interdits dans l'UE,
    mais la Commission accuse des retards dans la définition des règles qui l'encadre

    Le 1er aout 2024, la réglementation européenne sur l'intelligence artificielle (l'AI Act) est entrée en vigueur, marquant le début d'une série de dates et d'échéances au cours des mois et des années à venir, afin de préparer les entreprises qui utilisent l'IA à se familiariser avec la nouvelle législation et à s'y conformer. Et la première échéance est arrivée : depuis le 2 février, il est interdit les pratiques menaçant les droits humains et présentant un « risque inacceptable », telles que la reconnaissance faciale à distance en temps réel, les systèmes de notation sociale, l’identification biométrique en temps réel et la détection des émotions sur le lieu de travail, dans l’Espace économique européen (EEE). Mais le texte laisse toutefois de nombreuses questions en suspens quant à la manière dont il devrait être appliqué, rendant les lignes directrices attendues cruciales pour sa mise en œuvre.

    Depuis dimanche, les régulateurs de l'Union européenne peuvent interdire l'utilisation de systèmes d'IA qu'ils considèrent comme présentant un « risque inacceptable » ou un préjudice. Les détails sont énoncés à l'article 5, mais d'une manière générale, la loi est conçue pour couvrir une myriade de cas d'utilisation où l'IA peut apparaître et interagir avec les individus, depuis les applications grand public jusqu'aux environnements physiques.

    Selon l'approche de l'Union européenne, il existe quatre niveaux de risque :
    1. le risque minimal (par exemple, les filtres anti-spam) ne fera l'objet d'aucune surveillance réglementaire ;
    2. le risque limité, qui comprend les robots de conversation du service clientèle, fera l'objet d'une surveillance réglementaire légère ;
    3. le risque élevé - l'IA pour les recommandations en matière de soins de santé en est un exemple - fera l'objet d'une surveillance réglementaire stricte ; et
    4. les applications présentant un risque inacceptable - qui font l'objet des exigences de conformité de ce mois-ci - seront entièrement interdites.

    Parmi les activités inacceptables, on peut citer
    • L'IA utilisée pour l'évaluation sociale (par exemple, l'établissement de profils de risque sur la base du comportement d'une personne).
    • L'IA qui manipule les décisions d'une personne de manière subliminale ou trompeuse.
    • L'IA qui exploite des vulnérabilités telles que l'âge, le handicap ou le statut socio-économique.
    • L'IA qui tente de prédire les personnes qui commettent des crimes sur la base de leur apparence.
    • L'IA qui utilise la biométrie pour déduire les caractéristiques d'une personne, comme son orientation sexuelle.
    • L'IA qui collecte des données biométriques « en temps réel » dans des lieux publics à des fins de répression.
    • L'IA qui tente de déduire les émotions des personnes au travail ou à l'école.
    • L'IA qui crée - ou développe - des bases de données de reconnaissance faciale en récupérant des images en ligne ou provenant de caméras de sécurité.

    Les entreprises qui utilisent l'une des applications d'IA susmentionnées dans l'UE seront soumises à des amendes, quel que soit le lieu de leur siège social. Elles pourraient devoir payer jusqu'à 35 millions d'euros ou 7 % de leur chiffre d'affaires annuel de l'exercice précédent, le montant le plus élevé étant retenu.


    Engagements préliminaires

    L'échéance du 2 février est en quelque sorte une formalité.

    En septembre dernier, plus de 100 entreprises ont signé le Pacte européen sur l'IA, un engagement volontaire à commencer à appliquer les principes de la loi sur l'IA avant son entrée en vigueur. Dans le cadre de ce pacte, les signataires (dont Amazon, Google et OpenAI) se sont engagés à identifier les systèmes d'IA susceptibles d'être classés comme présentant un risque élevé en vertu de la loi sur l'IA.

    Certains géants de la technologie, notamment Meta et Apple, n'ont pas adhéré au pacte. La startup française Mistral, l'un des plus féroces détracteurs de la loi sur l'IA, a également choisi de ne pas signer le pacte.

    Cela ne veut pas dire qu'Apple, Meta, Mistral ou d'autres qui n'ont pas accepté le pacte ne respecteront pas leurs obligations, notamment l'interdiction des systèmes présentant des risques inacceptables. Rob Sumroy, responsable de la technologie au cabinet d'avocats britannique Slaughter and May, a souligné que, compte tenu de la nature des cas d'utilisation interdits, la plupart des entreprises ne s'engageront de toute façon pas dans ces pratiques.

    « Pour les organisations, l'une des principales préoccupations liées à la loi européenne sur l'IA est de savoir si des lignes directrices, des normes et des codes de conduite clairs arriveront à temps et, surtout, s'ils fourniront aux organisations des informations claires sur le respect de la loi », a déclaré Sumroy. « Toutefois, les groupes de travail respectent jusqu'à présent les délais fixés pour le code de conduite destiné aux développeurs ».

    Toujours pas de lignes directrices

    Pourtant, quelques jours de l'entrée en vigueur de ces interdictions, la Commission européenne n'avait toujours pas encore publié ses lignes directrices pour la mise en œuvre de l'AI Act. Cette absence de directives précises suscite des inquiétudes parmi les parties prenantes, qui craignent des incertitudes quant à l'application concrète du règlement.

    Des associations comme Access Now, Amnesty International et European Digital Rights demandaient à la Commission de mettre « les droits de l’homme et la justice au cœur des prochaines lignes directrices ».

    Access Now par exemple a noté :

    « Étant donné que la version finale de la loi sur l'IA présente de graves lacunes en matière de protection des droits fondamentaux, en particulier dans les domaines de la police et de la migration, il est important que les lignes directrices précisent que les droits fondamentaux constituent la base centrale de l'application de la loi sur l'IA.

    « Plus précisément, nous demandons à l'Office AI de veiller à ce que les prochaines lignes directrices sur les interdictions de la loi sur l'IA et la définition du système d'IA incluent les éléments suivants comme base nécessaire à une application fondée sur les droits fondamentaux :
    • Préciser que les systèmes comparativement "simples" entrent explicitement dans le champ d'application de la définition des systèmes d'IA : ces systèmes ne doivent pas être considérés comme n'entrant pas dans le champ d'application de la loi sur l'IA au seul motif qu'ils utilisent des algorithmes moins complexes. Nous craignons que les développeurs n'exploitent la définition de l'IA et la classification des systèmes d'IA à haut risque pour contourner les obligations de la loi sur l'IA. Par exemple, la transformation d'un système d'IA en un système fondé sur des règles pourrait contourner les dispositions de la loi sur l'IA, tout en conservant la même fonctionnalité et en présentant les mêmes risques. C'est pourquoi la réglementation doit se concentrer sur les dommages potentiels, et pas seulement sur les méthodes techniques. Le scandale néerlandais SyRI est un exemple clair d'un système qui semblait simple et explicable, mais qui a eu des conséquences dévastatrices sur les droits et la vie des personnes, en particulier les personnes racialisées et celles issues de l'immigration.
    • Les interdictions de systèmes présentant un risque « inacceptable » pour les droits fondamentaux sont clarifiées afin d'empêcher la militarisation de la technologie contre les groupes marginalisés et l'utilisation illégale de la surveillance biométrique de masse.
    • En ce qui concerne l'interaction avec d'autres textes législatifs de l'Union, les lignes directrices doivent garantir que la législation sur les droits de l'homme, en particulier la Charte des droits fondamentaux de l'UE, constitue la base directrice centrale de la mise en œuvre et que tous les systèmes d'IA doivent être envisagés dans le contexte plus large de la discrimination, du racisme et des préjugés. Pour cette raison, les lignes directrices doivent souligner que l'objectif des interdictions est de servir un but préventif et doit donc être interprété au sens large dans le contexte de la prévention des dommages.

    Nom : AI act.png
Affichages : 3584
Taille : 198,8 Ko

    Exceptions possibles

    Il existe des exceptions à plusieurs des interdictions prévues par la loi sur l'IA.

    Par exemple, la loi autorise les forces de l'ordre à utiliser certains systèmes de collecte de données biométriques dans les lieux publics si ces systèmes permettent d'effectuer une « recherche ciblée », par exemple d'une victime d'enlèvement, ou de prévenir une menace « spécifique, substantielle et imminente » pour la vie. Cette dérogation requiert l'autorisation de l'organe directeur approprié, et la loi souligne que les forces de l'ordre ne peuvent pas prendre une décision qui « produit un effet juridique défavorable » sur une personne en se fondant uniquement sur les résultats de ces systèmes.

    La loi prévoit également des exceptions pour les systèmes qui déduisent les émotions sur le lieu de travail et dans les écoles lorsqu'il existe une justification « médicale ou de sécurité », comme les systèmes conçus pour un usage thérapeutique.

    La Commission européenne, l'organe exécutif de l'UE, a déclaré qu'elle publierait des lignes directrices supplémentaires au « début de 2025 », à la suite d'une consultation avec les parties prenantes en novembre. Toutefois, ces lignes directrices n'ont pas encore été publiées.

    Selon Sumroy, on ne sait pas non plus comment d'autres lois en vigueur pourraient interagir avec les interdictions et les dispositions connexes de la loi sur l'IA. La clarté pourrait n'arriver que plus tard dans l'année, à l'approche de la période d'application de la loi.

    « Il est important que les organisations se souviennent que la réglementation en matière d'IA n'existe pas de manière isolée », a déclaré Sumroy. « D'autres cadres juridiques, tels que le RGPD, le NIS2 et le DORA, interagiront avec la loi sur l'IA, créant des défis potentiels - en particulier en ce qui concerne les exigences de notification d'incidents qui se chevauchent. Il sera tout aussi crucial de comprendre comment ces lois s'articulent entre elles que de comprendre la loi sur l'IA elle-même. »

    Le cas particulier des IA à usage général

    Les modèles d’IA généralistes (ex. GPT, Mistral, Claude) font l’objet d’un encadrement distinct. Lorsqu’ils atteignent un certain seuil de puissance, ils peuvent être considérés comme à risque systémique, ce qui implique des obligations renforcées en matière :
    • de transparence et de documentation ;
    • de gestion des biais et des risques ;
    • de cybersécurité pour prévenir les usages malveillants.

    Aussi, les principaux aspects du texte ne seront appliqués qu'à une date ultérieure : le 1er août pour les modèles d'IA « généralistes », tels que les grands modèles de génération de texte ou d'image qui sont utilisés dans le cadre des applications professionnelles ou des assistants comme ChatGPT (OpenAI), Gemini (Google) ou Le Chat (Mistral). Ils seront soumis à des exigences de transparence concernant leur documentation technique et leurs données d'apprentissage. Les modèles les plus importants seront également soumis à des vérifications de sécurité concernant notamment les risques cybernétiques. Il faudra également que les États membres aient nommé leur autorité compétente.

    Le cas des IA à « risque élevé » interviendra plus tard

    Le gouvernement rappelle que les systèmes d’IA du niveau juste du dessous, c’est-à-dire ceux classés comme à « haut-risque », sont ceux déjà couverts :

    Citation Envoyé par Gouvernement
    Haut-risque

    La plupart des IA qui rentrent dans cette catégorie sont celles déjà couvertes par des réglementations européennes existantes comme la réglementation sur les dispositifs médicaux, la directive machine ou la directive sur la sécurité des jouets, etc. Cependant, de nouvelles applications de l’IA sont également concernées comme l’éducation et la formation professionnelle, l’accès aux services privés essentiels (crédit bancaire, assurance) et aux prestations publics essentiels (santé, appels d'urgence, justice).
    La CNIL expliquait l’année dernière qu’il s’agit de « la première législation générale (ou exhaustive) au monde sur l’intelligence artificielle », dont le but est « d'encadrer le développement, la mise sur le marché et l’utilisation de systèmes d'intelligence artificielle (IA), qui peuvent poser des risques pour la santé, la sécurité ou les droits fondamentaux ».

    Mais de nouvelles applications seront ajoutées avec l’AI Act : « l’éducation et la formation professionnelle, l’accès aux services privés essentiels (crédit bancaire, assurance) et aux prestations publics essentiels (santé, appels d'urgence, justice) ». L’entrée en vigueur se fera à partie du 2 août 2026. Avant cette date, en août 2025, de nouvelles règles pour les modèles d’IA à usage général entreront en vigueur.

    Sources : Pacte sur l'IA, Commission européenne, Access Now, gouvernement français, règlement sur la résilience opérationnelle numérique (DORA), directive NIS 2

    Et vous ?

    L’interdiction des IA à "risque inacceptable" est-elle suffisante pour protéger les citoyens ou faut-il aller plus loin ?

    Quelles pourraient être les conséquences négatives de cette interdiction sur l’innovation et la compétitivité des entreprises européennes ?

    Cette régulation pourrait-elle freiner le développement des start-ups européennes face aux géants de l’IA aux États-Unis et en Chine ?

    Pensez-vous que l’interdiction de la reconnaissance faciale en temps réel protège suffisamment la vie privée, ou faut-il des mesures encore plus strictes ?

    La notation sociale est interdite, mais d’autres formes de classement algorithmique persistent (notation des consommateurs, scoring de crédit). Où doit-on placer la limite ?

    L’identification des émotions par IA est bannie dans certains contextes. Cette interdiction vous semble-t-elle justifiée ou y a-t-il des usages positifs à envisager ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  15. #135
    Membre très actif
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Octobre 2002
    Messages
    158
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Octobre 2002
    Messages : 158
    Par défaut
    Pendant que les autres avancent sur IA, la bureaucratie de l’UERSS pond des règlements, des mouchards pour les poubelles, des bouchons rattachés aux bouteilles. Pas étonnant que ces bouffons soient à la ramasse technologiquement et économiquement.

  16. #136
    Membre averti
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Avril 2020
    Messages
    32
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Moselle (Lorraine)

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Avril 2020
    Messages : 32
    Par défaut
    Pendant que les autres avancent sur IA, la bureaucratie de l’UERSS pond des règlements, des mouchards pour les poubelles, des bouchons rattachés aux bouteilles. Pas étonnant que ces bouffons soient à la ramasse technologiquement et économiquement.

    Ce commentaire est déplacé et limite dangereux.
    Il n'est que le rabâchage racoleur de quelques un qui renie l'idée de souveraineté d'un état.
    Je m'explique.
    Oui il existe des règlementations débiles qui devrait etre supprimé, d'autre mal foutu (DPE), et certaine vicieuse contre lequel il faut luter. (DSA)
    Question, est ce que créer un drone robot tueur alimenté à l'ia pour dézinguer par le sang une suspicion d'infraction est ce que vous appelez le progrès ?
    Ou bien le progrès c'est d'établir des règles du jeu claire connu dès le départ permettant un environnement seins ?

    Ce type de commentaire émane de meme groupe qui chiale quand google à un monopole, mais dès que l'on défini des règles chiale par ce que le droit existe.
    Le progrès c'est le droit, le respect, le reste n'est qu'agitation.

    Les américains n'ont que pour longueur d'avance la capacité isolante de bruler le dollar qu'il imprime.
    L'innovation dans chat gpt est très limité, la réalité ils n'ont rien inventé rien. il sont juste limité à la seul quantité de données qu'ils sont capable de dérober. Pensez vous pouvoir vivre au far west seul en vous pensant tout puissant avec un flingue pour tirer sur tout ce qui bouge, ou seriez vous assez lâche pour vous cacher derrière un état de droit quand les brigands viendrons toquer à votre porte ?
    La bulle IA éclatera lorsque les ricains ne pourront dérober plus de donnée sans représailles.

    Vouloir la dérégulation c'est plaider pour le loup qui viendra vous bouffer tout cru.
    La guillotine c'était de l'innovation, on en a fait un sport spectacle.
    Une ia "petite amie" qui vous manipulera malgré vous sur l'achat de produit publicité, est ce du progrès ? ou un insolant holdup des personnes au profit de multinational que vous aimez tant dénoncer ?

    La régulation ia à le bon coté de donner un coup de frein à la censure européen, c'est un coup de poignard au DSA de votre amie T.Breton mais vous n'êtes même pas capable d'être lucide sur vos propres combat car vous bêlé en masse ce que les bots vous donne en pâture. c'est affligeant et pathétique.
    Vous répété le discours servie par les réseaux sociaux dont leur IA choisissent ce que vous devez pensez.

    L'UE n'a pas inventé l'USBC, l'ue n'a pas inventé la nouvelle génération de bouchon. L'UE n'innove pas est à la pathologie de pondre des normes.
    Mais en quoi vouloir faire sauter le peux de protection que la tech française tante de poser pour luter contre la concurrence féroce des US sur notre territoire vous avance t'elle ?

    Qui vous a donnée cette idée de comparaison de l'ia américain au bouchon de bouteille dont on se fou royalement ?
    Qui s'amuse a comparer un bordeau à la bière bluelight ?

  17. #137
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 604
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 604
    Par défaut Donald Trump fait pression sur l'Europe pour qu'elle rejette le code de pratique de l'IA
    Donald Trump fait pression sur l'Europe pour qu'elle rejette le code de pratique de l'IA, qui renforce les règles sur la transparence, la gestion des risques et le respect du copyright des systèmes d'IA

    Le président américain Donald Trump fait monter la pression sur l'Union européenne (UE) pour qu'elle revienne sur son futur code de pratique de l'intelligence artificielle (IA), qui vise à renforcer les règles relatives à la transparence, à la gestion des risques et au respect des droits d'auteur pour les systèmes d'IA avancés.

    Alors que l'UE fait progresser son approche réglementaire de l'IA, les bases ont été posées avec l'entrée en vigueur des nouvelles règles européennes en matière d'IA, le 1er août 2024. Conçues pour promouvoir le développement et le déploiement de systèmes d'IA sûrs et fiables, la législation cherche à équilibrer l'innovation avec la protection des droits fondamentaux des citoyens, visant à stimuler les investissements publics et privés dans l'IA à travers le marché unique de l'UE.

    S'appuyant sur ce cadre, la première étape importante a été franchie le 2 février 2025, lorsque l'UE a officiellement interdit les systèmes d'IA présentant un « risque inacceptable » dans l'Espace économique européen. L'interdiction concerne notamment les systèmes permettant la reconnaissance faciale à distance en temps réel, la notation sociale, l’identification biométrique en temps réel et la détection des émotions sur le lieu de travail.

    Dans un nouveau rebondissement, la mission américaine auprès de l'UE a envoyé une lettre à la Commission européenne et à plusieurs gouvernements européens, s'opposant à la version actuelle du code de pratique volontaire, selon un rapport de Bloomberg citant des sources familières du sujet.


    Bien qu'il ne soit pas juridiquement contraignant, le code est conçu pour aider les entreprises à s'aligner sur la loi européenne sur l'IA, qui prévoit des sanctions pouvant aller jusqu'à 7 % du chiffre d'affaires annuel mondial d'une entreprise en cas d'infraction.

    Les critiques affirment toutefois que les nouvelles lignes directrices vont au-delà de la loi initiale et imposent des charges excessives aux promoteurs.

    Tensions entre les États-Unis et l'UE

    Cette dernière mesure a mis en lumière les tensions croissantes entre les États-Unis et l'Union européenne au sujet de la réglementation numérique.

    Donald Trump, qui s'est constamment insurgé contre les politiques technologiques de l'UE, les a décrites comme une forme de « taxation économique » des entreprises américaines.

    En janvier, lors du Forum économique mondial de Davos, il a accusé l'Union européenne de cibler injustement les entreprises américaines.

    Par ailleurs, des législateurs américains tels que Jim Jordan, président du comité judiciaire de la Chambre des représentants, se sont inquiétés du fait que les politiques de l'UE puissent également avoir une incidence sur la liberté d'expression des Américains.

    Les géants de la technologie ne sont pas en reste. Le responsable des affaires internationales de Meta, Joel Kaplan, a récemment qualifié le code proposé d'« irréalisable » et a indiqué que l'entreprise ne le signerait pas sous sa forme actuelle.

    Alphabet a également critiqué certaines parties du règlement, en particulier les clauses relatives à l'application des droits d'auteur et aux tests externes des modèles.

    Ce qu'il faut savoir

    Le projet de code, en cours de finalisation par un ensemble d'entreprises technologiques, de groupes de la société civile et de détenteurs de droits d'auteur, devrait être dévoilé le mois prochain.

    Ce projet intervient alors que les tensions s'exacerbent. En début de semaine, la Commission européenne a infligé à Apple et Meta des amendes d'un montant total de 700 millions d'euros (798 millions de dollars) pour infraction à la législation antitrust.

    L'Union européenne a infligé ses premières amendes importantes dans le cadre de la nouvelle loi sur les marchés numériques (DMA), condamnant Apple à une pénalité de 500 millions d'euros et Meta à une pénalité de 200 millions d'euros.

    En réponse, Apple a accusé la Commission européenne de traitement inéquitable.

    « Ces décisions sont mauvaises pour la vie privée et la sécurité de nos utilisateurs, mauvaises pour les produits, et nous obligent à donner notre technologie gratuitement », a déclaré Apple.

    Le géant de la technologie a fait valoir que l'UE s'en prenait injustement aux entreprises américaines prospères, tout en laissant les entreprises européennes et chinoises opérer selon des règles différentes.

    Meta, qui possède Facebook et Instagram, a également critiqué la décision, affirmant qu'elle était contrainte de revoir son modèle économique. La société avait introduit une option « pay-or-consent » fin 2023, permettant aux utilisateurs de choisir entre une expérience gratuite, financée par la publicité (avec suivi) ou une version payante sans publicité.

    La récente initiative de l'administration Trump intervient alors que l'Europe craint de plus en plus d'être distancée dans la course mondiale à l'IA. Un rapport parlementaire français a en effet averti que les progrès de l'Europe en matière d'IA sont « insuffisants » pour concurrencer les États-Unis et la Chine. Le rapport a souligné le « pouvoir hégémonique » des États-Unis dans le domaine de l'IA et les risques stratégiques que cela fait peser sur le bloc.

    Source : Rapport de Bloomberg

    Et vous ?

    Quel est votre avis sur le sujet ?
    Trouvez-vous cette initiative de l'administration Trump crédible ou pertinente ?

    Voir aussi :

    L'UE déclare qu'elle appliquera ses règles numériques quels que soient le PDG et le lieu d'implantation de l'entreprise, mais l'administration Trump affirme que les règles de l'UE étouffent l'innovation

    Forum Économique Mondial : Donald Trump reproche aux régulateurs de l'UE de cibler Apple, Google et Meta. Des propos marquant le début de l'affrontement entre Trump et l'UE sur la technologie
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  18. #138
    Membre actif
    Homme Profil pro
    Architecte réseau
    Inscrit en
    Mars 2025
    Messages
    35
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 34
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Architecte réseau
    Secteur : Industrie

    Informations forums :
    Inscription : Mars 2025
    Messages : 35
    Par défaut
    Je peux comprendre certaines préoccupation en Europe, mais concernant le copyright ... On est vraiment sur abus des "ayant tout les droits".
    Ils ont le pouvoir de faire disparaitre des moteurs de recherche des sites, de donneur d'ordre pour la censure DNS, et ont même leur propre agence gouvernementale (ARCOM, ex-HADOPI).

    Et en plus de cela, maintenant, il voudrait que les IA qui apprennent (et ne copient pas, je le rappel !) devrait se voir soumise à des règles abusives sur la COPIE !
    Rien que pour ces abus, il faudrait que ces lois européennes sautent. On ne peut pas accepter que certaines entreprises aient des privilèges que les citoyens n'ont pas.

Discussions similaires

  1. Réponses: 1
    Dernier message: 30/01/2025, 17h10
  2. Réponses: 0
    Dernier message: 19/04/2022, 16h51
  3. Réponses: 2
    Dernier message: 27/07/2017, 07h31
  4. Réponses: 10
    Dernier message: 12/09/2011, 10h04
  5. Réponses: 0
    Dernier message: 09/09/2011, 16h51

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo