IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #81
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    993
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 993
    Points : 16 416
    Points
    16 416
    Par défaut Elon Musk déclare que le sommet sur la sécurité de l'IA vise à établir un "arbitre tiers"
    Elon Musk déclare que le sommet sur la sécurité de l'IA vise à établir un "arbitre tiers", pour superviser les entreprises développant l'IA et tirer la sonnette d'alarme en cas d'inquiétude

    Elon Musk a déclaré le mercredi 1 novembre que le sommet inaugural sur la sécurité de l'IA en Grande-Bretagne souhaitait établir un "arbitre tiers" qui pourrait superviser les entreprises développant l'intelligence artificielle et tirer la sonnette d'alarme en cas d'inquiétude.

    "Ce que nous visons vraiment ici, c'est d'établir un cadre de réflexion pour qu'il y ait au moins un arbitre tiers, un arbitre indépendant, qui puisse observer ce que font les principales entreprises d'IA et au moins tirer la sonnette d'alarme s'il y a des inquiétudes", a déclaré l'entrepreneur milliardaire aux journalistes à Bletchley Park, dans le centre de l'Angleterre.

    "Je ne sais pas quelles sont les règles les plus justes, mais il faut commencer par comprendre avant de surveiller", a déclaré M. Musk.

    Les commentaires de M. Musk sont intervenus après la publication par la Grande-Bretagne d'une déclaration signée par 28 pays et l'Union européenne, qui définit un programme à deux volets axé sur l'identification des risques liés à l'IA qui suscitent des préoccupations communes, sur l'amélioration de la compréhension scientifique de ces risques et sur l'élaboration de politiques transnationales visant à les atténuer.

    "Je pense que les personnes travaillant dans le domaine de l'IA s'inquiètent beaucoup du fait que le gouvernement va en quelque sorte se précipiter sur les règles avant de savoir quoi faire", a déclaré M. Musk.

    "Je pense qu'il est peu probable que cela se produise."


    Source : Déclaration d'Elon Musk lors du sommet sur la sécurité de l'IA en Grande-Bretagne

    Et vous ?

    Quel est votre avis sur le sujet ?

    Pensez-vous que le point de vue de M. Musk est crédible ou pertinent ?

    Voir aussi

    Le G7 s'apprête à adopter un code de conduite pour les entreprises en matière d'IA, le code vise "à aider à saisir les avantages et à faire face aux risques et aux défis posés par ces technologies"

    Le risque lié à l'IA est similaire à la crise climatique, le monde ne peut pas se permettre de retarder la réponse, selon Demis Hassabis, il prévoit la création d'un organisme international de l'IA

    Les législateurs de l'UE progressent dans leurs négociations cruciales sur les nouvelles règles en matière d'IA
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #82
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    993
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 993
    Points : 16 416
    Points
    16 416
    Par défaut La Chine a accepté de travailler avec les États-Unis, l'UE et d'autres pays pour gérer les risques liés à l'IA
    La Chine a accepté de travailler avec les États-Unis, l'Union européenne et d'autres pays pour gérer collectivement les risques liés à l'intelligence artificielle

    La Chine a accepté de travailler avec les États-Unis, l'Union européenne et d'autres pays pour gérer collectivement les risques liés à l'intelligence artificielle lors d'un sommet britannique qui s'est tenu le mercredi 1 novembre 2023 et qui visait à tracer une voie sûre pour l'évolution rapide de cette technologie.

    Certains dirigeants du secteur technologique et leaders politiques ont mis en garde contre le développement rapide de l'IA qui, s'il n'est pas contrôlé, représente une menace existentielle pour le monde, déclenchant une course des gouvernements et des institutions internationales pour concevoir des mesures de protection et des réglementations.

    Pour la première fois, un vice-ministre chinois s'est joint aux dirigeants des États-Unis et de l'Union européenne, ainsi qu'à des patrons du secteur technologique tels qu'Elon Musk et Sam Altman, de ChatGPT, à Bletchley Park, lieu de résidence des décrypteurs britanniques de la Seconde Guerre mondiale, dans le cadre des efforts déployés par l'Occident pour gérer le développement sûr de l'IA.

    Plus de 25 pays présents, dont les États-Unis, la Chine et l'Union européenne, ont signé une "déclaration de Bletchley" indiquant que les pays devaient travailler ensemble et établir une approche commune en matière de surveillance.

    La déclaration présente un programme à deux volets, axé sur l'identification des risques d'intérêt commun et sur la compréhension scientifique de ces risques, ainsi que sur l'élaboration de politiques transnationales visant à les atténuer.

    Wu Zhaohui, vice-ministre chinois de la science et de la technologie, a déclaré lors de la séance d'ouverture du sommet de deux jours que Pékin était prêt à renforcer la collaboration sur la sécurité de l'IA afin de contribuer à la mise en place d'un "cadre de gouvernance" international.

    "Les pays, quelles que soient leur taille et leur échelle, ont les mêmes droits de développer et d'utiliser l'IA", a-t-il déclaré.


    Les craintes concernant l'impact que l'IA pourrait avoir sur les économies et la société ont pris de l'ampleur en novembre de l'année dernière, lorsque OpenAI, soutenu par Microsoft, a mis ChatGPT à la disposition du public.

    Utilisant des outils de traitement du langage naturel pour créer des dialogues semblables à ceux des humains, il a alimenté les craintes, y compris chez certains pionniers de l'IA, que les machines puissent à terme devenir plus intelligentes que les humains, ce qui entraînerait des conséquences illimitées et involontaires.

    Les gouvernements et les fonctionnaires tentent à présent de tracer la voie à suivre, aux côtés des entreprises d'IA qui craignent d'être alourdies par la réglementation avant que la technologie n'ait atteint son plein potentiel.

    "Je ne sais pas quelles sont les règles les plus justes, mais il faut commencer par comprendre avant de surveiller", a déclaré le milliardaire Musk à la presse, ajoutant qu'un "arbitre tiers" pourrait être utilisé pour tirer la sonnette d'alarme lorsque des risques se présentent.

    Alors que l'Union européenne a axé sa surveillance de l'IA sur la confidentialité des données, la surveillance et l'impact potentiel sur les droits de l'homme, le sommet britannique se penche sur les risques dits existentiels liés à des modèles polyvalents très performants appelés "IA frontière".

    Mustafa Suleyman, cofondateur de Google Deepmind, a déclaré aux journalistes qu'il ne pensait pas que les modèles d'IA d'avant-garde actuels présentaient des "dommages catastrophiques significatifs", mais qu'il était logique de planifier à l'avance, car l'industrie forme des modèles de plus en plus grands.

    Le lieu de décryptage

    Le sommet est une idée du Premier ministre britannique Rishi Sunak, qui souhaite que son pays joue, après le Brexit, un rôle d'intermédiaire entre les blocs économiques que sont les États-Unis, la Chine et l'Union européenne.

    La ministre britannique du numérique, Michelle Donelan, a déclaré que le simple fait de réunir autant d'acteurs clés dans une même salle constituait un véritable exploit. Elle a annoncé la tenue de deux autres sommets sur la sécurité de l'IA, l'un en Corée du Sud dans six mois et l'autre en France six mois plus tard.

    "Pour la première fois, des pays s'accordent sur la nécessité d'examiner non seulement de manière indépendante, mais aussi collectivement, les risques liés à l'IA d'avant-garde", a déclaré Mme Donelan à la presse.

    Alors que les entreprises technologiques rivalisent pour dominer l'IA, les gouvernements se bousculent pour montrer la voie en matière de réglementation.


    La Chine est un participant clé au sommet, étant donné le rôle qu'elle joue dans le développement de l'IA. Toutefois, certains législateurs britanniques se sont interrogés sur l'opportunité de sa présence, compte tenu du manque de confiance entre Pékin, Washington et de nombreuses capitales européennes en ce qui concerne l'implication de la Chine dans la technologie.

    À la veille du sommet, les États-Unis ont clairement indiqué que l'appel lancé à Pékin émanait en grande partie de la Grande-Bretagne. Leur ambassadrice à Londres, Jane Hartley, a déclaré : "Il s'agit d'une invitation du Royaume-Uni, et non des États-Unis."

    La décision de la vice-présidente des États-Unis, Kamala Harris, de prononcer un discours à Londres mercredi sur la réponse de son gouvernement à l'IA et de tenir certaines réunions avec les participants en dehors du sommet, ce qui signifie qu'ils pourraient devoir partir plus tôt, a également suscité quelques froncements de sourcils.

    Sachin Dev Duggal, fondateur de la société d'IA Builder.ai, basée à Londres, a déclaré que cela risquait de nuire à l'objectif principal de l'événement, tandis que certains législateurs du parti conservateur de M. Sunak ont suggéré que Washington essayait de faire de l'ombre à son sommet.

    Les responsables britanniques ont démenti cette affirmation, affirmant qu'ils souhaitaient que le plus grand nombre de voix possible s'expriment.

    Quelques jours après la signature par le président américain Joe Biden d'un décret sur l'IA, son gouvernement a profité du sommet britannique pour annoncer la création d'un institut américain de sécurité de l'IA.

    M. Harris a rencontré M. Sunak plus tard dans la journée du mercredi, notamment à l'occasion d'un dîner, et participera à la deuxième journée du sommet, le jeudi.

    Déclaration de Bletchley des pays participant au sommet sur la sécurité de l'IA

    L'intelligence artificielle (IA) offre d'énormes possibilités à l'échelle mondiale : elle a le potentiel de transformer et d'améliorer le bien-être, la paix et la prospérité de l'humanité. Pour y parvenir, nous affirmons que, pour le bien de tous, l'IA doit être conçue, développée, déployée et utilisée en toute sécurité, de manière à être centrée sur l'humain, digne de confiance et responsable. Nous saluons les efforts déployés jusqu'à présent par la communauté internationale pour coopérer dans le domaine de l'IA afin de promouvoir une croissance économique inclusive, le développement durable et l'innovation, de protéger les droits de l'homme et les libertés fondamentales, et de favoriser la confiance du public dans les systèmes d'IA afin qu'ils réalisent pleinement leur potentiel.

    Les systèmes d'IA sont déjà déployés dans de nombreux domaines de la vie quotidienne, notamment le logement, l'emploi, les transports, l'éducation, la santé, l'accessibilité et la justice, et leur utilisation est susceptible d'augmenter. Nous reconnaissons qu'il s'agit donc d'un moment unique pour agir et affirmer la nécessité de développer l'IA en toute sécurité et d'utiliser les possibilités de transformation de l'IA pour le bien et pour tous, d'une manière inclusive dans nos pays et dans le monde. Cela inclut les services publics tels que la santé et l'éducation, la sécurité alimentaire, la science, l'énergie propre, la biodiversité et le climat, la réalisation de la jouissance des droits de l'homme et le renforcement des efforts visant à atteindre les objectifs de développement durable des Nations unies.

    Parallèlement à ces possibilités, l'IA présente également des risques importants, y compris dans les domaines de la vie quotidienne. À cette fin, nous saluons les efforts internationaux déployés pour examiner et traiter l'impact potentiel des systèmes d'IA dans les forums existants et d'autres initiatives pertinentes, ainsi que la reconnaissance de la nécessité d'aborder la protection des droits de l'homme, la transparence et l'explicabilité, l'équité, la responsabilité, la réglementation, la sécurité, la surveillance humaine appropriée, l'éthique, l'atténuation des préjugés, la protection de la vie privée et la protection des données. Nous notons également la possibilité de risques imprévus découlant de la capacité à manipuler le contenu ou à générer un contenu trompeur. Toutes ces questions sont d'une importance capitale et nous affirmons la nécessité et l'urgence de les traiter.

    Des risques de sécurité particuliers se posent à la "frontière" de l'IA, c'est-à-dire aux modèles d'IA à usage général très performants, y compris les modèles de base, qui pourraient effectuer une grande variété de tâches - ainsi qu'à l'IA étroite spécifique pertinente qui pourrait présenter des capacités nuisibles - qui égalent ou dépassent les capacités présentes dans les modèles les plus avancés d'aujourd'hui. Des risques importants peuvent découler d'une éventuelle utilisation abusive intentionnelle ou de problèmes de contrôle involontaires liés à l'alignement sur l'intention humaine. Ces problèmes sont en partie dus au fait que ces capacités ne sont pas entièrement comprises et sont donc difficiles à prévoir. Nous sommes particulièrement préoccupés par ces risques dans des domaines tels que la cybersécurité et la biotechnologie, ainsi que dans les cas où les systèmes d'IA d'avant-garde peuvent amplifier des risques tels que la désinformation. Les capacités les plus importantes de ces modèles d'IA peuvent entraîner des dommages graves, voire catastrophiques, délibérés ou involontaires. Compte tenu de la rapidité et de l'incertitude de l'évolution de l'IA, et dans le contexte de l'accélération des investissements dans la technologie, nous affirmons qu'il est particulièrement urgent d'approfondir notre compréhension de ces risques potentiels et des mesures à prendre pour y faire face.

    De nombreux risques découlant de l'IA sont par nature internationaux, et c'est donc par la coopération internationale que l'on peut le mieux y faire face. Nous décidons de travailler ensemble de manière inclusive pour garantir une IA centrée sur l'homme, digne de confiance et responsable, qui soit sûre et soutienne le bien de tous, par le biais des enceintes internationales existantes et d'autres initiatives pertinentes, afin de promouvoir la coopération pour faire face au large éventail de risques posés par l'IA. Ce faisant, nous reconnaissons que les pays devraient considérer l'importance d'une gouvernance et d'une approche réglementaire pro-innovation et proportionnée qui maximise les avantages et prend en compte les risques associés à l'IA. Cela pourrait inclure, le cas échéant, des classifications et des catégorisations de risques basées sur les circonstances nationales et les cadres juridiques applicables. Nous notons également la pertinence d'une coopération, le cas échéant, sur des approches telles que les principes communs et les codes de conduite. En ce qui concerne les risques spécifiques les plus susceptibles d'être liés à l'IA d'avant-garde, nous décidons d'intensifier et de maintenir notre coopération, et de l'élargir à d'autres pays, afin d'identifier, de comprendre et, le cas échéant, d'agir, dans le cadre des enceintes internationales existantes et d'autres initiatives pertinentes, y compris les futurs sommets internationaux sur la sécurité de l'IA.

    Tous les acteurs ont un rôle à jouer pour garantir la sécurité de l'IA : les nations, les forums internationaux et autres initiatives, les entreprises, la société civile et le monde universitaire devront travailler ensemble. Notant l'importance d'une IA inclusive et de la réduction de la fracture numérique, nous réaffirmons que la collaboration internationale devrait s'efforcer d'engager et d'impliquer un large éventail de partenaires, le cas échéant, et nous nous félicitons des approches et des politiques axées sur le développement qui pourraient aider les pays en développement à renforcer leurs capacités en matière d'IA et à tirer parti du rôle habilitant de l'IA pour soutenir la croissance durable et combler le fossé du développement.

    Nous affirmons que, si la sécurité doit être prise en compte tout au long du cycle de vie de l'IA, les acteurs qui développent des capacités d'IA d'avant-garde, en particulier les systèmes d'IA qui sont exceptionnellement puissants et potentiellement dangereux, ont une responsabilité particulièrement importante pour garantir la sécurité de ces systèmes d'IA, notamment par des systèmes d'essais de sécurité, des évaluations et d'autres mesures appropriées. Nous encourageons tous les acteurs concernés à faire preuve d'une transparence et d'une responsabilité adaptées au contexte en ce qui concerne leurs projets de mesure, de surveillance et d'atténuation des capacités potentiellement nuisibles et des effets associés qui pourraient en résulter, en particulier pour prévenir les abus et les problèmes de contrôle, ainsi que l'amplification d'autres risques.

    Dans le cadre de notre coopération et afin d'éclairer l'action aux niveaux national et international, notre programme de lutte contre les risques liés à l'IA d'avant-garde sera axé sur les points suivants :

    • l'identification des risques de sécurité de l'IA d'intérêt commun, la construction d'une compréhension scientifique commune et fondée sur des preuves de ces risques, et le maintien de cette compréhension au fur et à mesure que les capacités continuent à augmenter, dans le contexte d'une approche globale plus large pour comprendre l'impact de l'IA dans nos sociétés.
    • l'élaboration de politiques respectives fondées sur les risques dans nos pays afin de garantir la sécurité à la lumière de ces risques, en collaborant le cas échéant, tout en reconnaissant que nos approches peuvent différer en fonction des circonstances nationales et des cadres juridiques applicables. Cela suppose, parallèlement à une transparence accrue de la part des acteurs privés qui développent des capacités d'IA d'avant-garde, de disposer de mesures d'évaluation appropriées et d'outils pour tester la sécurité, ainsi que de développer les capacités et la recherche scientifique pertinentes dans le secteur public.

    Dans le cadre de ce programme, nous décidons de soutenir un réseau international de recherche scientifique sur la sécurité de l'IA d'avant-garde qui englobe et complète les collaborations multilatérales, plurilatérales et bilatérales existantes et nouvelles, y compris dans le cadre des enceintes internationales existantes et d'autres initiatives pertinentes, afin de faciliter la mise à disposition des meilleures données scientifiques disponibles pour l'élaboration des politiques et l'intérêt général.

    Conscients du potentiel de transformation positive de l'IA, et dans le cadre d'une coopération internationale plus large sur l'IA, nous sommes résolus à maintenir un dialogue mondial inclusif qui fasse appel aux enceintes internationales existantes et à d'autres initiatives pertinentes et qui contribue de manière ouverte à des discussions internationales plus larges, et à poursuivre la recherche sur la sécurité de l'IA aux frontières afin de veiller à ce que les avantages de la technologie puissent être exploités de manière responsable, pour le bien et pour tous. Nous nous réjouissons de nous retrouver en 2024.
    Source : Déclaration de Bletchley

    Et vous ?

    Quelle lecture faites-vous de cette situation ?

    Que pensez-vous de cette initiative internationale visant à gérer collectivement les risques liés à l'IA ? Trouvez-vous qu'il s'agit d'une approche pertinente et cohérente ?

    Voir aussi

    Les États-Unis vont lancer leur propre institut de sécurité de l'IA, afin d'évaluer les risques émergents des modèles d'IA avancés et de traiter les impacts connus

    Elon Musk déclare que le sommet sur la sécurité de l'IA vise à établir un "arbitre tiers", pour superviser les entreprises développant l'IA et tirer la sonnette d'alarme en cas d'inquiétude

    Le G7 s'apprête à adopter un code de conduite pour les entreprises en matière d'IA, le code vise "à aider à saisir les avantages et à faire face aux risques et aux défis posés par ces technologies"
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  3. #83
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    1 072
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 072
    Points : 75 082
    Points
    75 082
    Par défaut Les Big Tech (GAFAM) veulent réglementer l'IA, mais les autres entrepreneurs sont sceptiques
    Les Big Tech (GAFAM) veulent réglementer l'IA, mais les autres entrepreneurs sont sceptiques, selon eux leur réelle volonté serait juste de geler le marché de l'IA pour conserver leur monopole.

    Après des mois de réunions et de discussions de haut niveau, les responsables gouvernementaux et les dirigeants des grandes entreprises technologiques sont tombés d'accord sur un point concernant l'intelligence artificielle : Cette technologie, qui pourrait changer le monde, a besoin de règles de base. Mais de nombreux acteurs de la Silicon Valley sont sceptiques.

    Un groupe de plus en plus important de grands noms de la technologie - notamment des investisseurs en capital-risque influents, des PDG de sociétés de logiciels de taille moyenne et des partisans de la technologie libre - s'insurge, affirmant que les lois relatives à l'intelligence artificielle pourraient étouffer la concurrence dans un nouveau domaine vital. Pour ces dissidents, la volonté des plus grands acteurs de l'IA, tels que Google, Microsoft et OpenAI, le fabricant de ChatGPT, d'adopter une réglementation n'est qu'un stratagème cynique de la part de ces entreprises pour consolider leurs avantages en tant que leaders actuels, en tirant essentiellement l'échelle vers le haut derrière elles.

    Les inquiétudes de ces leaders technologiques ont pris de l'ampleur la semaine dernière, lorsque le président Biden a signé un décret établissant un plan pour que le gouvernement élabore des lignes directrices en matière de test et d'approbation des modèles d'IA - les algorithmes sous-jacents qui alimentent les outils d'IA "génératifs" tels que les chatbots et les faiseurs d'images.


    "Nous n'en sommes qu'au tout début de l'IA générative, et il est impératif que les gouvernements ne désignent pas préventivement les gagnants et ne ferment pas la porte à la concurrence en adoptant des réglementations onéreuses que seules les plus grandes entreprises peuvent satisfaire", a déclaré Garry Tan, directeur de Y Combinator, un incubateur de start-up basé à San Francisco qui a aidé des entreprises telles qu'Airbnb et DoorDash à se développer lorsqu'elles n'en étaient qu'à leurs débuts.

    Le débat actuel n'a pas suffisamment intégré les voix des petites entreprises, a déclaré Tan, ce qui, selon lui, est essentiel pour stimuler la concurrence et trouver les moyens les plus sûrs d'exploiter l'IA. Des entreprises comme Anthropic, une start-up influente dans le domaine de l'IA, et OpenAI sont étroitement liées aux grandes entreprises technologiques, dont elles ont absorbé d'énormes quantités d'investissements.

    "Elles ne parlent pas au nom de la grande majorité des personnes qui ont contribué à ce secteur", a déclaré Martin Casado, associé général de la société de capital-risque Andreessen Horowitz, qui a investi très tôt dans Facebook, Slack et Lyft. La plupart des ingénieurs et des entrepreneurs en IA ont suivi les discussions réglementaires de loin, se concentrant sur leurs entreprises au lieu d'essayer de faire pression sur les politiciens, a-t-il ajouté. "Beaucoup de gens veulent construire, ce sont des innovateurs, ils constituent la majorité silencieuse", a déclaré Casado.

    Le décret a montré à ces personnes que la réglementation pourrait intervenir plus tôt que prévu. La société de capital-risque de Casado a envoyé une lettre à Biden pour lui faire part de ses préoccupations. Cette lettre a été signée par d'éminents dirigeants de start-up spécialisées dans l'IA, dont le PDG de Replit, Amjad Masad, et Arthur Mensch de Mistral, ainsi que par des leaders technologiques plus établis, comme le PDG de la société de commerce électronique Shopify, Tobi Lutke, qui avait tweeté "la réglementation de l'IA est une très mauvaise idée" après l'annonce du décret.

    Source : WashingtonPost

    Et vous ?

    Pensez-vous que les préoccupations de cette "majorité silencieuse" sont crédibles ou pertinentes ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Le projet de législation européenne sur l'intelligence artificielle mettrait en péril la compétitivité et la souveraineté technologique de l'Europe Selon plus de 160 dirigeants d'entreprises

    Le PDG d'OpenAI estime qu'il est possible de se tromper dans la réglementation mais qu'il ne faut pas la craindre. La réglementation n'a pas été un bien absolu, mais elle a été bénéfique, ajoute-t-il

    Elon Musk se dit un fervent défenseur de la réglementation de l'IA Mais ses solutions vagues n'impressionnent pas
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  4. #84
    Invité
    Invité(e)
    Par défaut "Selon eux leur réelle volonté serait juste de geler le marché de l'IA pour conserver leur monopole"
    C'est d'une telle évidence ...

  5. #85
    Membre extrêmement actif Avatar de Jon Shannow
    Homme Profil pro
    Responsable de service informatique
    Inscrit en
    Avril 2011
    Messages
    4 398
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 60
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Responsable de service informatique
    Secteur : High Tech - Électronique et micro-électronique

    Informations forums :
    Inscription : Avril 2011
    Messages : 4 398
    Points : 9 837
    Points
    9 837
    Par défaut
    Mon avis est double. D'un coté, je pense qu'il est important et urgent de légiférer, d'un autre, qu'il est nécessaire de préserver les acteurs moindres dans leurs recherches au niveau de l'IA.
    Je pense que la législation devrait mettre des barrières aux grandes entreprises afin de ne pas leur laisser le champ libre et de tuer dans l'œuf toute concurrence, comme ils savent si bien le faire.

    Mais gageons que le poids des billets de ces cadors, soit plus audible que toutes les objections raisonnables émises par un groupe moins... pourvus de liasses.
    Au nom du pèze, du fisc et du St Estephe
    Au nom du fric, on baisse son froc...

  6. #86
    Membre chevronné

    Homme Profil pro
    Consultant informatique
    Inscrit en
    Avril 2015
    Messages
    452
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Vendée (Pays de la Loire)

    Informations professionnelles :
    Activité : Consultant informatique
    Secteur : Finance

    Informations forums :
    Inscription : Avril 2015
    Messages : 452
    Points : 1 968
    Points
    1 968
    Par défaut
    J'imagine les débats le jour où l'Homme à domestiqué le Feu...

    Réguler l'IA comme l'entendent les politicards et les bien-pensants revient à pratiquer une stérilisation intellectuelle. Ce n'est pas parce que de plus en plus d'utilisateurs de l'informatique ne sont pas capables d'additionner 1 et 1 qu'il faut priver ceux qui savent que ça fait 10 de poursuivre les développements les plus prometteurs de ces derniers temps.

    Les catastrophistes qui prédisent que mon Raspberry Pi tournant Llama va déclencher la fin du monde sont pathétiques, et dangereux, car ils offrent une occasion aux sempiternels protecteurs des populations une magnifique occasion de tenter encore une fois de prouver leur utilité.

    Les travaux de Yann LeCun visant à contextualiser les données des LLMs sont prometteurs et pourraient aboutir à instiller un brin d'intelligence dans ces systèmes, qui sont pour le moment d'une totale indigence dès lors qu'on tente de les extraire de le leur cadre d'entraînement. Mais sur le fond, observez vous, voyez comment le vivant est fabriqué, évaluez les flux d'informations reçu en permanence par notre système nerveux central et comparez ces volumes à ceux que reçoit une système d'IA dans son boîtier...

    Si nous ne voulons pas souffrir de l'émergence de l'IA au sens général, il faut que nous nous formions à son usage, que nous en comprenions les bases de fonctionnement et puissions en tirer parti. Nous devons aussi en mesurer les limites, savoir d'où ça vient. Nous devons en quelque sorte (re)devenir intelligents et cesser de sauter sur chaque superstition qui passe par là.
    En bref, nous devons prouver que nous restons plus aptes que n'importe laquelle de nos créa-tion-tures (voilà t'y pas que je m'y mets aussi !). Nous priver d'un bulldozer nous empêchera de construire les routes dont nous aurons besoin dans le futur.

  7. #87
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    595
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 595
    Points : 10 845
    Points
    10 845
    Par défaut La nouvelle loi européenne sur l'IA est menacée par le lobbying des grandes entreprises technologiques
    La nouvelle loi européenne sur l'IA est menacée par le lobbying intense des grandes entreprises technologiques
    elles font pression pour retirer "les modèles de base" de la réglementation

    Des entreprises technologiques européennes et américaines font pression pour empêcher l'adoption de la loi européenne sur l'IA (EU AI Act). Les groupes d'intérêt représentant ces entreprises utilisent leurs influences et leurs relations politiques pour tenter de modifier radicalement les règles de l'UE par le biais d'un lobbying intensif. Ils cherchent à retirer les "modèles de base" - les modèles les plus puissants et les plus modernes, comme GPT-4 d'OpenAI - de la législation de l'UE. Ces groupes exigent en fait que la législation soit imposée seulement aux développeurs d'applications, alors que ces derniers ont un contrôle limité sur les modèles de base fournis par les grandes entreprises.

    De nombreux experts en IA, ainsi que le public, ont exprimé leurs inquiétudes quant au fait que la loi européenne sur l’IA soit menacée par des lobbyistes qui tentent de supprimer la réglementation proposée sur les puissants systèmes d’IA connus sous le nom de "modèles de base". Ils ont récemment signé une lettre ouverte appelant les États membres de l'UE à réglementer l’IA plutôt que laisser les entreprises le faire elles-mêmes. Le bloc se prépare à finaliser le texte de la législation sur l’IA le 6 décembre. La lettre a été adressée au président français Emmanuel Macron, à la Première ministre italienne Giorgia Meloni et au chancelier allemand Olaf Scholz.

    Pour rappel, le cadre réglementaire publié par l'UE en avril 2021 prévoyait d'imposer différents niveaux de contrôle réglementaire sur les systèmes d'IA en fonction de leur utilisation prévue. Ainsi, les cas d'utilisation à plus haut risque nécessiteraient des mesures telles que l'évaluation des risques et des mesures d'atténuation dans le cadre de la proposition. La législation de l'UE prend en compte tous les types de systèmes d'IA, y compris ce que les entreprises d'IA appellent "les modèles de base" (ou modèles fondamentaux). Les modèles de base sont des modèles à usage général et servent de point de départ pour la création de diverses applications d'IA.

    La loi européenne sur l'IA devait être le premier texte législatif d'envergure au monde en matière d'IA. Mais les trois grands États membres - la France, l'Allemagne et l'Italie - ont décidé récemment de supprimer la partie de la loi qui vise à réglementer les grands modèles de base. Les modèles de base sous-tendent les logiciels d'IA les plus puissants au monde, notamment ChatGPT d'OpenAI et Bard de Google. Ces logiciels d'IA sont souvent complexes et se comportent d’une manière qui peut surprendre même leurs propres développeurs. Mais la France, l'Italie et l'Allemagne veulent que les fournisseurs de modèles de base se régulent eux-mêmes.

    Ces pays demandent désormais à la présidence espagnole "une autorégulation obligatoire au moyen de codes de conduite pour les modèles de base". Cela mettrait la responsabilité sur l’application de l’IA, et non sur la technologie elle-même, ce qui n’est pas ce qui se produit habituellement. En d'autres termes, cette approche ferait peser la responsabilité sur ceux qui ont le moins d’influence dans l’écosystème de l’IA (les développeurs d’applications) tout en exonérant ceux qui créent et contrôlent ces modèles puissants : les Big Tech américaines et leurs startups européennes préférées. Les auteurs de la lettre affirment qu'il s'agit d'une décision dangereuse.

    Cela a suscité un tollé dans la communauté de l'IA, y compris au sein du grand public, les critiques affirmant que le lobbying des Big Tech tente de faire dérailler la loi européenne sur l'IA. Selon les auteurs de la lettre, les grandes entreprises technologiques américaines, les pays européens, les startups européennes bien connectées et les anciens ministres français utilisent leur influence et leurs avantages politiques pour modifier radicalement la législation. Dans la lettre, les auteurs affirment que la législation est menacée en raison du recul de ces gouvernements qui étaient autrefois favorables à la réglementation. Mais que s'est-il passé ?

    Au début, la France était l'un des principaux défenseurs de la nécessité de réglementer les modèles de base. Aujourd'hui, l'ancien ministre de l'Économie numérique du président français Emmanuel Macron, Cédric O, qui est cofondateur et actionnaire de l'influente startup française Mistral, s'est prononcé contre les réglementations qui pourraient avoir un impact important sur l'activité de son entreprise. Donc, son ton a changé. Jusqu'en 2022, en tant que ministre, Cédric O affirmait que l'UE a besoin de plus de réglementation sur les géants technologiques. En 2021, il avait déclaré vouloir freiner l'oligopole des Big Tech américains pour protéger l'intérêt public.

    Cependant, son discours a soudainement changé vers cet été, juste après qu'il est devenu cofondateur et actionnaire de Mistral, dont les critiques affirment qu'il a un poids politique étrange. Peu de temps après, il a commencé à déclarer dans des interviews : « la loi européenne sur l’IA pourrait tuer notre entreprise ». À peu près à la même époque, la France a également commencé à plaider en faveur de l’exclusion des modèles de base. Ainsi, la France propose maintenant que les sociétés d'IA travaillant sur des modèles de base se régulent elles-mêmes en publiant certaines informations sur leurs modèles et en observant un code de bonne conduite.

    La lettre, datée du 26 novembre, affirme que cela retarde l'approbation de la loi sur l'IA et que si une entreprise s'autorégule, cela met les droits de l'homme en danger, car elle peut donner la priorité à ses profits plutôt qu'à la sécurité publique et aux préoccupations éthiques. L'on ignore si la lettre aura l'effet escompté et fera changer d'avis les gouvernements français, italien et allemand. Certaines sources rapportent que la vaste offensive de lobbying s’est poursuivie après l’été. En octobre, des responsables français, allemands et italiens ont rencontré des représentants des entreprises d'IA pour discuter de la coopération industrielle en matière d’IA.

    De l’autre côté de l’Atlantique, les géants technologiques américains ont fait pression sur l’UE pour qu’elle affaiblisse et supprime de la loi sur l'IA les règles en rapport avec les modèles de base. L'association bruxelloise Corporate Europe Observatory a classé OpenAI, Microsoft et Google parmi les cinq meilleurs lobbyistes qui ont fait pression contre la législation de l'UE. Ces géants technologiques recherchent en fait un environnement juridique leur permettant une liberté totale pour développer et déployer ces technologies sans surveillance stricte. Cela se fait en coulisse, mais en public, ils chantent à qui veut bien l'entendre qu'ils souhaitent être réglementés.

    Certaines sources rapportent que les dirigeants de Google, OpenAI et Microsoft se sont tous rendus en Europe pour rencontrer des décideurs politiques au plus haut niveau, notamment des membres de commissions et des chefs d'État. Sundar Pichai, PDG de Google, aurait même réussi à rencontrer trois commissaires en une seule journée. Malgré ce lobbying intense, la réglementation proposée par l'UE est populaire auprès du public. Selon le sondage européen de Control AI publié mercredi par YouGov, plus des deux tiers des citoyens européens soutiennent la réglementation des modèles de base. Mais l'influence du public sur la législation est moindre.

    Par ailleurs, alors que les modèles de base sont devenus un point de friction en Europe, les projets de règles semblent évoluer de l'autre côté de la Manche, mais aussi outre-Atlantique. L'administration Biden a signé en octobre un décret exigeant que tout laboratoire développant un grand modèle de base effectue des tests de sécurité et informe le gouvernement des résultats. Les discussions lors du récent sommet britannique sur la sécurité de l'IA se sont fortement concentrées sur les risques liés aux modèles de base les plus avancés. Les participants ont signé un document non contraignant reconnaissant la nécessité d'atténuer les risques liés à l'IA.

    Source : la lettre des experts en IA (PDF)

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de la lettre adressée à la France, l'Italie et l'Allemagne ?
    Cette lettre a-t-elle des chances de changer d'avis la France et ses deux voisins ?
    Selon vous, pourquoi la France veut-elle que les fournisseurs de modèles de base se régulent eux-mêmes ?
    Pensez-vous que la réglementation de l'UE sur l'IA pourrait nuire à l'innovation ? Souffre-t-elle d'insuffisances ?

    Voir aussi

    Les États-Unis et l'Union Européenne « devraient inciter le secteur de l'IA à adopter un code de conduite volontaire dans les mois à venir », d'après la responsable de la technologie de l'UE

    OpenAI aurait fait pression sur l'Union européenne pour qu'elle édulcore sa réglementation sur l'IA, et aurait réussi à faire passer ses intérêts financiers au détriment de l'intérêt général

    Plusieurs dirigeants du monde signent une déclaration reconnaissant la nécessité d'atténuer les risques liés à l'IA, mais le document n'est pas juridiquement contraignant et est vivement critiqué

  8. #88
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 541
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 541
    Points : 199 416
    Points
    199 416
    Par défaut AI Act : l'Europe peine à trouver un compromis sur la réglementation de l'IA générative
    AI Act : l'Europe peine à trouver un compromis sur la réglementation de l'IA générative.
    la France et l'Allemagne freinent les négociations, cherchant à éviter un cadre trop contraignant pour leurs champions

    Les négociations autour des premières règles de l'Union européenne régissant l'intelligence artificielle semblaient prêtes à atteindre un point culminant dramatique mercredi, alors que les législateurs entament ce que certains espèrent être le dernier cycle de discussions sur cette législation historique. Ce qui sera décidé pourrait servir de modèle à d’autres gouvernements alors que les pays cherchent à élaborer des règles pour leur propre industrie de l’IA.

    Avant la réunion, les législateurs et les gouvernements n’étaient pas parvenus à s’entendre sur des questions clés, notamment la réglementation de l’IA générative à croissance rapide et son utilisation par les forces de l’ordre. Il faut dire que la France et l'Allemagne ont changé d'avis et appelé plutôt à l'autorégulation, un revirement interprété comme une manœuvre visant à éviter de briser l'élan de leurs champions nationaux.

    Les discussions, entamées mercredi, devraient reprendre vendredi 8 décembre au matin, a annoncé Thierry Breton, le commissaire européen au Numérique.


    Le boom de l’IA générative a poussé les gouvernements du monde entier à se démener pour réglementer la technologie émergente, mais il a également accru le risque de bouleverser les efforts de l’Union européenne visant à approuver les premières règles globales en matière d’intelligence artificielle au monde.

    Le projet de loi sur l’intelligence artificielle (ou AI Act en anglais) de l'UE a été salué comme un règlement pionnier. Mais comme le temps presse, il n’est pas certain que les pays membres parviendront à parvenir à un accord dans ce que les responsables espèrent être un dernier cycle de négociations à huis clos.

    Les efforts déployés depuis des années par l’Europe pour élaborer des garde-fous en matière d’IA ont été entravés par l’émergence récente de systèmes d’IA génératifs comme ChatGPT d’OpenAI, qui ont ébloui le monde par leur capacité à produire un travail de type humain, mais ont suscité des craintes quant aux risques qu’ils posent.

    Ces préoccupations ont poussé les États-Unis, le Royaume-Uni, la Chine et des coalitions mondiales comme le Groupe des 7 grandes démocraties dans la course pour réglementer cette technologie en développement rapide, même s’ils sont encore derrière l’Europe dans la matière.

    L’AI Act vise à répondre aux préoccupations croissantes concernant l’IA, tout en favorisant sa croissance et son développement responsables au sein du bloc européen. Au cœur de la législation se trouvent quatre principes clés : la transparence, la surveillance humaine, la sécurité et le respect des droits fondamentaux.


    Quelques points de friction

    L’un des principaux points de friction concerne les modèles de base, les systèmes avancés qui sous-tendent les services d’IA à usage général comme ChatGPT d’OpenAI et le chatbot Bard de Google.

    Également connus sous le nom de grands modèles de langage, ces systèmes sont formés sur de vastes quantités d’œuvres écrites et d’images récupérées sur Internet. Ils donnent aux systèmes d’IA générative la capacité de créer quelque chose de nouveau, contrairement à l’IA traditionnelle, qui traite les données et accomplit les tâches en utilisant des règles prédéterminées.

    Après une journée de discussions difficiles entre les États membres et le Parlement européen, l'Union européenne a annoncé, ce jeudi 7 décembre, une pause jusqu'à vendredi matin. « De nombreux progrès ont été réalisés au cours des 22 dernières heures. Reprise des travaux demain à 9h00 », a annoncé sur X/Twitter le commissaire européen au Numérique, Thierry Breton, à l'origine de la proposition législative présentée en avril 2021.

    « La France et l’Allemagne freinent des quatre fers sur ce projet de régulation pour des raisons de souveraineté. Nos deux pays redoutent qu’un cadre trop contraignant pénalise l’envol de leurs champions nationaux, Mistral AI chez nous et Aleph-Alpha outre-Rhin », déplore Jean-Baptiste Bouzige, président cofondateur d’Ekimetrics, une société de services numériques spécialisée dans l’IA et l’exploitation des données.

    Approche basée sur le risque pour la réglementation de l’IA

    Les règles proposées classent les applications d’IA en quatre niveaux de risque*:
    • Risque inacceptable*: ceux-ci sont totalement interdits, comme les systèmes d'IA conçus pour la notation sociale ou le contenu manipulateur des réseaux sociaux.
    • Risque élevé*: ceux-ci nécessitent des réglementations strictes, comprenant une surveillance humaine, des systèmes de gestion des risques robustes et des évaluations de conformité ex ante. Les exemples incluent la technologie de reconnaissance faciale et l’IA utilisées dans les infrastructures critiques.
    • Risque limité*: ces entreprises sont confrontées à des réglementations plus légères, axées sur les exigences de transparence et de tenue de registres.
    • Risque minimal*: ceux-ci ne nécessitent aucune intervention réglementaire spécifique.

    Impact mondial de la loi sur l'IA

    L’effort pionnier de l’UE en matière de réglementation de l’IA devrait avoir un impact mondial significatif. En tant que plus grand bloc commercial au monde, ses règles sont susceptibles d’influencer le développement et le déploiement des technologies d’IA à travers le monde. D’autres pays et régions surveillent déjà de près la situation, certains envisageant de mettre en place des cadres réglementaires similaires.

    Pour Jean-Baptiste Bouzige, l’Europe gagnerait à affirmer sa singularité en imposant ses propres règles, en matière de transparence des algorithmes notamment. « Beaucoup d’intelligences artificielles s’apparentent encore trop souvent à des boîtes noires, dont on ne comprend même pas le fonctionnement. Il faudrait pouvoir soulever le capot de ces cerveaux, pour les auditer », estime-t-il.

    Équilibrer l’innovation et l’éthique

    La loi sur l’IA représente un équilibre délicat entre la promotion de l’innovation et l’atténuation des risques potentiels de cette technologie puissante. Alors que certaines parties prenantes, en particulier dans l’industrie technologique, expriment leurs inquiétudes quant à l’étouffement de l’innovation, d’autres soutiennent qu’une réglementation solide est nécessaire pour prévenir les dommages et renforcer la confiance du public dans l’IA.

    Il faut également parler des dépenses énergétiques. À lui seul, l’entraînement de ChatGPT aurait nécessité quelque 3,5 millions de litres d’eau – destinés à refroidir ses unités de calcul - soit le volume utilisé dans la fabrication de 370 voitures de marque BMW. Bing Chat est tellement gourmand en puissance de calcul que Microsoft va louer des GPU chez Oracle. Microsoft utilisera l'infrastructure d'IA d'Oracle Cloud en complément de son infrastructure d'IA Azure

    Afin d'éviter ces dépenses, Jean-Baptiste Bouzige estime que les intelligences artificielles gagneraient à se spécialiser en fonction des usages, pour résoudre des cas particuliers : « cela permettra ainsi de limiter la quantité de données à mémoriser, et donc de réduire la puissance de calcul indispensable, pour consommer moins de ressources ».


    Des défis et des incertitudes demeurent

    Alors que l’UE est sur le point de finaliser la loi sur l’IA, plusieurs défis et incertitudes demeurent. L’une des questions clés consiste à trouver le bon équilibre entre l’atténuation des risques et la promotion de l’innovation. En outre, garantir une application efficace dans les différents États membres de l’UE constituera une entreprise importante.

    Les chercheurs ont averti que de puissants modèles de fondation, construits par une poignée de grandes entreprises technologiques, pourraient être utilisés pour intensifier la désinformation et la manipulation en ligne, les cyberattaques ou la création d’armes biologiques. Ils agissent comme des structures de base pour les développeurs de logiciels qui créent des services basés sur l'IA, de sorte que « si ces modèles sont pourris, tout ce qui est construit dessus le sera également – et les déployeurs ne seront pas en mesure de le réparer », a déclaré Avaaz, une organisation à but non lucratif.

    Brando Benifei, un député italien au Parlement européen qui codirige les efforts de négociation de l’organisme, s’est montré optimiste quant à la résolution des différends avec les États membres.

    Il y a eu « un certain mouvement » sur les modèles de base, même s’il y a « davantage de problèmes pour trouver un accord » sur les systèmes de reconnaissance faciale, a-t-il déclaré.

    Nom : thierry.png
Affichages : 1381
Taille : 374,2 Ko

    Conclusion

    L'AI Act de l’UE est une étape importante vers la création d’un environnement réglementé pour l’intelligence artificielle, reflétant les valeurs de l’UE et protégeant les citoyens contre les risques potentiels associés à l’utilisation de l’IA. Avec son approche basée sur le risque, le projet de loi vise à promouvoir l’innovation tout en garantissant un haut niveau de protection de la santé, de la sécurité et des droits fondamentaux. Les prochaines étapes du processus législatif seront cruciales pour déterminer la forme finale de cette législation pionnière.

    Source : Thierry Breton

    Et vous ?

    Quels sont les avantages et les inconvénients d’une réglementation stricte de l’IA au sein de l’UE ?
    Comment l’AI Act pourrait-il influencer l’innovation et la compétitivité des entreprises européennes dans le domaine de l’IA ?
    Les citoyens européens devraient-ils être impliqués dans le processus de décision concernant les applications d’IA à haut risque ? Si oui, de quelle manière ?
    Quel impact l’AI Act de l’UE pourrait-il avoir sur la collaboration internationale en matière de recherche et de développement en IA ?
    Comment l’UE peut-elle garantir que l’AI Act reste pertinent face à l’évolution rapide des technologies d’IA ?

    Voir aussi :

    Les modèles de langages coûtent 10 fois plus cher à développer dans certaines langues que dans d'autres, d'après l'analyse d'une chercheuse en IA
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  9. #89
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 541
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 541
    Points : 199 416
    Points
    199 416
    Par défaut AI Act : l'Europe parvient à un accord sur les premières règles globales au monde en matière d'IA
    Loi sur l’intelligence artificielle: l'Europe parvient à un accord sur les premières règles globales au monde en matière d'IA,
    tentant d'exploiter les avantages potentiels de la technologie tout en essayant de protéger contre les risques potentiels

    Vendredi, les négociateurs du Parlement et du Conseil sont parvenus à un accord provisoire sur la législation sur l’intelligence artificielle. La loi sur l’IA a été conçue à l’origine pour atténuer les dangers liés à des fonctions spécifiques de l’IA en fonction de leur niveau de risque, de faible à inacceptable. Mais les législateurs ont décidé de l'étendre aux modèles à usage général, les systèmes avancés qui sous-tendent les services d'IA à usage général comme ChatGPT et le chatbot Bard de Google. Une entente qui arrive malgré l'opposition menée par la France et l'Allemagne, qui ont plutôt appelé à l'autorégulation pour aider les sociétés européennes d'IA générative locales à rivaliser avec leurs grands rivaux américains.

    La loi, appelée AI Act, établit une nouvelle référence mondiale pour les pays cherchant à exploiter les avantages potentiels de la technologie, tout en essayant de se protéger contre ses risques possibles, comme l'automatisation des emplois, la diffusion de fausses informations en ligne et la mise en danger de la sécurité nationale. La loi doit encore franchir quelques étapes finales avant d'être approuvée, mais l'accord politique signifie que ses grandes lignes ont été fixées.

    Les décideurs politiques européens se sont concentrés sur les utilisations les plus risquées de l’IA par les entreprises et les gouvernements, notamment celles destinées à l’application des lois et à l’exploitation de services cruciaux comme l’eau et l’énergie. Les fabricants des plus grandes technologies d’IA à usage général les systèmes, comme ceux qui alimentent le chatbot ChatGPT, seraient confrontés à de nouvelles exigences de transparence. Les chatbots et les logiciels créant des images manipulées telles que les « deepfakes » devraient indiquer clairement que ce que les gens voient a été généré par l’IA, selon les fonctionnaires de l’UE et les versions antérieures de la loi.

    L'utilisation de logiciels de reconnaissance faciale par la police et les gouvernements serait restreinte en dehors de certaines exemptions en matière de sûreté et de sécurité nationale. Les entreprises qui enfreignent la réglementation pourraient se voir infliger des amendes pouvant atteindre 7 % de leurs ventes mondiales.

    Une loi potentiellement efficace ?

    « L'Europe s'est positionnée comme un pionnier, comprenant l'importance de son rôle de normalisateur mondial », a déclaré dans un communiqué Thierry Breton, le commissaire européen qui a aidé à négocier l'accord.

    Pourtant, même si la loi a été saluée comme une avancée réglementaire, des questions subsistaient quant à son efficacité. De nombreux aspects de cette politique ne devraient pas entrer en vigueur avant 12 à 24 mois, un délai considérable pour le développement de l'IA. Et jusqu'à la dernière minute des négociations, les décideurs politiques et les pays se sont battus sur le texte et sur la manière de trouver un équilibre entre la promotion de l'innovation et la nécessité de se prémunir contre d'éventuels dommages.

    L'accord conclu à Bruxelles a nécessité trois jours de négociations, dont une première session de 22 heures qui a débuté mercredi. L'accord final n'a pas été immédiatement rendu public car les discussions devraient se poursuivre en coulisses pour finaliser les détails techniques, ce qui pourrait retarder l'adoption finale. Les votes doivent avoir lieu au Parlement et au Conseil européen, qui comprennent des représentants des 27 pays de l'Union.

    Nom : breton.png
Affichages : 5399
Taille : 336,2 Ko

    L'urgence déclenchée par la sortie de ChatGPT

    Réguler l’IA est devenu urgent après la sortie l’année dernière de ChatGPT, qui est devenu une sensation mondiale en démontrant les capacités avancées de l’IA. Aux États-Unis, l’administration Biden a récemment publié un décret axé en partie sur les effets de l’IA sur la sécurité nationale. La Grande-Bretagne, le Japon et d’autres pays ont adopté une approche beaucoup moins interventionniste, tandis que la Chine a imposé certaines restrictions sur l’utilisation des données et les algorithmes de recommandation.

    L’enjeu est de plusieurs milliards de dollars en valeur estimée, alors que l’IA devrait remodeler l’économie mondiale. « La domination technologique précède la domination économique et la domination politique », a déclaré cette semaine Jean-Noël Barrot, ministre français du Numérique.

    L'Europe a été l'une des régions les plus avancées en matière de réglementation de l'IA, ayant commencé à travailler sur ce qui allait devenir le système de réglementation de l'AI Act en 2018. Ces dernières années, les fonctionnaires de l’UE ont tenté d’introduire un nouveau niveau de surveillance de la technologie, semblable à la réglementation des secteurs de la santé ou du secteur bancaire. Le bloc a déjà promulgué des lois de grande envergure liées à la confidentialité des données, à la concurrence et à la modération des contenus.

    Une première ébauche de l’AI Act a été publiée en 2021. Mais les décideurs politiques se sont retrouvés à réécrire la loi à mesure que des avancées technologiques apparaissaient. La version initiale ne faisait aucune mention de l'IA à usage général, des modèles comme ceux qui alimentent ChatGPT.

    Les décideurs politiques ont convenu de ce qu’ils ont appelé une « approche basée sur les risques » pour réglementer l’IA, dans laquelle un ensemble défini d’applications est soumis au plus grand nombre de surveillances et de restrictions. Les entreprises qui font de l’IA les outils qui posent le plus de préjudice potentiel aux individus et à la société, comme en matière d'embauche et d'éducation, devraient fournir aux régulateurs des preuves d'évaluations des risques, des détails sur les données utilisées pour former les systèmes et des assurances que le logiciel n'a pas causé de préjudice comme perpétuer les préjugés raciaux. Une surveillance humaine serait également nécessaire lors de la création et du déploiement des systèmes.

    Certaines pratiques, comme la récupération aveugle d’images sur Internet pour créer une base de données de reconnaissance faciale, seraient purement et simplement interdites.


    Les grandes lignes de l'AI Act

    Des applications interdites

    Reconnaissant la menace potentielle pour les droits des citoyens et la démocratie que représentent certaines applications de l’IA, les colégislateurs sont convenus d’interdire :

    • systèmes de catégorisation biométrique utilisant des caractéristiques sensibles (par exemple: opinions politiques, religieuses, philosophiques, orientation sexuelle, race));
    • extraction non ciblée d’images faciales sur Internet ou par vidéosurveillance pour créer des bases de données de reconnaissance faciale
    • reconnaissance des émotions sur le lieu de travail et les établissements d’enseignement;
    • la notation sociale basée sur le comportement social ou les caractéristiques personnelles ;
    • les systèmes d'IA qui manipulent le comportement humain pour contourner le libre arbitre ;
    • l'IA utilisée pour exploiter les vulnérabilités des personnes (en raison de leur âge, de leur handicap, de leur situation sociale ou économique).

    Exemptions pour les services répressifs

    Les négociateurs sont convenus d'une série de garanties et d'exceptions limitées pour l'utilisation des systèmes d'identification biométrique dans les espaces accessibles au public à des fins répressives, sous réserve d'une autorisation judiciaire préalable et pour des listes d'infractions strictement définies. Les systèmes d'identification biométrique "à distance" seront utilisés strictement dans le cadre de la recherche ciblée d'une personne condamnée ou soupçonnée d'avoir commis un crime grave.

    Les systèmes d’identification biométrique "en temps réel" répondront à des conditions strictes et leur utilisation sera limitée dans le temps et dans l'espace :
    • recherche ciblée de victimes (enlèvement, traite, exploitation sexuelle),
    • la prévention d'une menace terroriste précise et actuelle, ou
    • la localisation ou l'identification d'une personne soupçonnée d'avoir commis l'un des crimes spécifiques mentionnés dans le règlement (terrorisme, traite, exploitation sexuelle, meurtre, enlèvement, viol, vol à main armée, participation à une organisation criminelle, crime contre l'environnement).

    Des obligations pour les systèmes à haut risque

    Pour les systèmes d’IA classés comme présentant un risque élevé (en raison de leur préjudice potentiel important pour la santé, la sécurité, les droits fondamentaux, l’environnement, la démocratie et l’État de droit), des obligations strictes ont été convenues. Les députés ont réussi à inclure une analyse d’impact obligatoire sur les droits fondamentaux, entre autres exigences, également applicable au secteur bancaire et des assurances. Les systèmes d’IA utilisés pour influencer le résultat des élections et le comportement des électeurs sont également classés comme étant à haut risque.

    Les citoyens auront le droit de déposer des plaintes concernant les systèmes d'IA et de recevoir des explications sur les décisions basées sur des systèmes d'IA à haut risque qui ont une incidence sur leurs droits.

    Des garde-fous pour les systèmes généraux d’intelligence artificielle

    Pour tenir compte du large éventail de tâches que les systèmes d’IA peuvent accomplir et de l’expansion rapide de leurs capacités, il a été convenu que les systèmes d’IA à usage général, et les modèles sur lesquels ils sont basés, devront respecter des exigences de transparence, comme initialement proposé par le Parlement. Il s’agit notamment de mettre à jour la documentation technique, de se conformer à la législation de l’UE sur les droits d’auteurs et de diffuser des résumés détaillés sur le contenu utilisé pour leur formation.

    Pour les systèmes d’IA à usage général présentant un risque systémique, les négociateurs du PE ont obtenu des obligations plus strictes. Si ces modèles répondent à certains critères, ils devront effectuer des évaluations de modèles, évaluer et atténuer les risques systémiques, effectuer des tests contradictoires, rendre compte à la Commission des incidents graves, assurer la cybersécurité et rendre compte de leur efficacité énergétique. Les députés ont également insisté sur le fait que, jusqu'à ce que des normes européennes harmonisées soient publiées, les systèmes d’IA à usage général présentant un risque systémique peuvent s'appuyer sur des codes de pratique pour se conformer à la réglementation.

    Mesures de soutien à l’innovation et aux PME

    Les députés voulaient veiller à ce que les entreprises, en particulier les PME, puissent développer des solutions d’IA sans pression excessive de la part des géants de l’industrie qui contrôlent la chaîne de valeur. À cette fin, l’accord promeut des "bacs à sable réglementaires", et des environnements réels, mis en place par les autorités nationales pour développer et tester une IA innovante avant sa mise sur le marché.

    Sanctions

    Le non-respect des règles peut entraîner des amendes allant de 7,5 millions d’euros ou 1,5 % du chiffre d’affaires à 35 millions d’euros ou 7 % du chiffre d’affaires mondial, en fonction de l’infraction et de la taille de l’entreprise.

    Conclusion

    Le débat sur l’Union européenne a été controversé, signe de la façon dont l'IA a déconcerté les législateurs. Les responsables étaient divisés sur l’ampleur de la réglementation du nouveau système d’IA, de peur de handicaper les start-up européennes qui tentent de rattraper les entreprises américaines comme Google et OpenAI.

    Les nouvelles réglementations seront surveillées de près à l’échelle mondiale. Elles affecteront non seulement les principaux acteurs de l’IA, notamment Google, Meta, Microsoft et OpenAI, mais aussi d'autres entreprises qui devraient utiliser la technologie dans des domaines tels que l'éducation, les soins de santé et la banque. Les gouvernements se tournent également davantage vers l’IA en matière de justice pénale et d'attribution des avantages publics.

    L’application reste floue. L'AI Act impliquera les régulateurs de 27 pays et nécessitera le recrutement de nouveaux experts à un moment où les budgets gouvernementaux sont serrés. « Les prouesses réglementaires de l’UE sont remises en question », a déclaré Kris Shrishak, chercheur principal au Conseil irlandais pour les libertés civiles, qui a conseillé les législateurs européens sur l’IA Act. « Sans une application stricte, cet accord n’aura aucun sens. »

    Quoiqu'il en soit, le texte approuvé devra désormais être formellement adopté par le Parlement et le Conseil pour être intégré à la législation de l’UE. La commission du marché intérieur et des libertés civiles du Parlement votera sur l’accord lors d’une prochaine session.

    Source : Parlement européen

    Et vous ?

    Quels sont les avantages et les inconvénients de l’AI Act pour les entreprises technologiques européennes ?
    Comment l’interdiction de l’utilisation de l’IA dans la surveillance biométrique pourrait-elle affecter la sécurité publique et la vie privée ?
    La divulgation du contenu généré par l’IA est-elle suffisante pour garantir la transparence et la confiance dans les systèmes d’IA ?
    Les exigences de divulgation du matériel protégé par le droit d’auteur utilisé pour former les systèmes d’IA sont-elles réalisables ? Dans quelle mesure ?
    Comment l’UE peut-elle équilibrer la protection des droits fondamentaux avec la promotion de l’innovation dans le domaine de l’IA ?
    Les règles proposées par l’UE pourraient-elles devenir un modèle mondial pour la réglementation de l’IA ? Pourquoi ou pourquoi pas ?
    Quel impact l’évaluation de l’impact environnemental des applications à « haut risque » pourrait-elle avoir sur le développement durable de l’IA ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  10. #90
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 541
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 541
    Points : 199 416
    Points
    199 416
    Par défaut Loi sur l’IA : un frein à l’innovation européenne ? Oui, selon John Loeber, qui souligne les limites de la loi
    Loi sur l’IA : un frein à l’innovation européenne ? Oui, selon John Loeber, qui souligne les limites de la loi
    et estime que son impact pourrait être dangereux pour les Européens à long terme, notamment dans le secteur technologique

    La semaine dernière, l’Union Européenne a adopté la loi sur l'intelligence artificielle, un ensemble de réglementations à l’échelle de l’UE qui marque un tournant dans l’utilisation de l’intelligence artificielle. Mais John Loeber, co-fondateur et PDG de Limit, une société de courtage numérique de série A pour l'assurance commerciale, tire la sonnette d'alarme. Il note que cette loi s’applique également à des outils conventionnels, comme la reconnaissance faciale et, si on la lit attentivement, à des choses comme la régression linéaire simple. Selon lui : « l’impact est considérable et je crains qu’il n’ait une fois de plus un effet refroidissant sur la technologie en Europe. Cela est dangereux pour les Européens : à long terme, cela pourrait être une pierre de plus sur la route de la servitude ».

    La loi, appelée AI Act, établit une nouvelle référence mondiale pour les pays cherchant à exploiter les avantages potentiels de la technologie, tout en essayant de se protéger contre ses risques possibles, comme l'automatisation des emplois, la diffusion de fausses informations en ligne et la mise en danger de la sécurité nationale. La loi doit encore franchir quelques étapes finales avant d'être approuvée, mais l'accord politique signifie que ses grandes lignes ont été fixées.

    Les décideurs politiques européens se sont concentrés sur les utilisations les plus risquées de l’IA par les entreprises et les gouvernements, notamment celles destinées à l’application des lois et à l’exploitation de services cruciaux comme l’eau et l’énergie. Les fabricants des plus grandes technologies d’IA à usage général les systèmes, comme ceux qui alimentent le chatbot ChatGPT, seraient confrontés à de nouvelles exigences de transparence. Les chatbots et les logiciels créant des images manipulées telles que les « deepfakes » devraient indiquer clairement que ce que les gens voient a été généré par l’IA, selon les fonctionnaires de l’UE et les versions antérieures de la loi.

    L'utilisation de logiciels de reconnaissance faciale par la police et les gouvernements serait restreinte en dehors de certaines exemptions en matière de sûreté et de sécurité nationale. Les entreprises qui enfreignent la réglementation pourraient se voir infliger des amendes pouvant atteindre 7 % de leurs ventes mondiales.

    Une loi qui pourrait se retourner contre l'UE, selon John Loeber

    Dans un billet, John Loeber rappelle qu'il a grandi en Europe (principalement en Allemagne, au Danemark et en Suisse) et qu'il n'a quitté le continent qu'à ses 18 ans, lorsqu'il s'est installé aux États-Unis où il vit depuis 12 ans, principalement à San Francisco. Il estime que cela lui confère une certaine perspective sur le décalage entre les attitudes européennes et la création de prospérité par le progrès technologique.

    Dans une tribune, il a expliqué :
    • en quoi la loi sur l’IA est mauvaise ;
    • pourquoi le “Providerism” est la raison pour laquelle l’Europe ne parvient pas à construire des technologies et à créer de la richesse ;
    • qu'est-ce que cela signifie pour l'Europe ?
    • comment y remédier.

    En quoi la loi sur l’IA est mauvaise

    Ci-dessous les propos de John Loeber :

    Si vous lisez un résumé de l’AI Act Briefing, une chose vous remarquera immédiatement : tout est réglementé au niveau de l’application. L'essence de la réglementation est du genre « vous n'êtes pas autorisé à utiliser l'IA pour exploiter des groupes vulnérables », « si vous utilisez l'IA à des fins éducatives, elle doit réussir cet ensemble de tests de l'UE », « vous ne pouvez pas l'utiliser la reconnaissance faciale à ces fins interdites ». Ce style de régulation par patchwork de nombreuses règles distinctes mais liées est notoirement inefficace :
    • Faute de principes unificateurs/généraux, de nouvelles réglementations devront être ajoutées pour chaque nouveau cas futur. Il y a une nouvelle application ? Consacrons mille heures de temps aux législateurs pour ajouter un ensemble de règles supplémentaire.
    • Ironiquement, la spécificité des règles rend flou leur application ou non, ce qui invite au débat contradictoire : « ma demande utilise-t-elle réellement des données biométriques ? Non, ce sont des métadonnées… » ou « Mon application effectue-t-elle une notation de crédit social interdite ? Non, nous vendons en réalité une évaluation actuarielle des risques et vous choisissez comment l’utiliser… »
    • D’un autre côté, la loi sur l’IA réglemente les techniques si élémentaires que la plupart des entreprises technologiques seront techniquement en situation de non-conformité dès le premier jour.

    Il s’agit de la pire réglementation : large, radicale, tout le monde est techniquement en infraction d’une manière ou d’une autre, mais vous pouvez payer pour la combattre. Les entrepreneurs obéissants et respectueux des règles perdront tout leur temps et leur argent à essayer de se conformer à chaque paragraphe de la loi sur l’IA. De plus en plus d’entrepreneurs soucieux de la Realpolitik placeront leur entreprise dans une zone grise, supposeront que s’ils réussissent, ils seront un jour poursuivis en justice et économiseront des fonds pour cette éventualité.

    Et s’ils sont poursuivis, quelles sont les sanctions ? Jusqu'à 7% du chiffre d'affaires annuel mondial. C'est une farce. Si l’UE affirme que cette technologie est si dangereuse qu’elle nécessite une réglementation à l’échelle européenne, alors les sanctions devraient en réalité être beaucoup plus lourdes. S’il y a un mauvais acteur qui dirige une entreprise d’IA massivement abusive et que la plus grande menace à laquelle il est confronté est une pénalité de revenus de 7 % qu’il peut probablement réduire à 2 % après quelques années de litige, alors cela n’a aucun effet dissuasif ! Ces entreprises fonctionnent avec une marge brute de 75 %. Vous avez une année qui tourne à 73% ? Cela n’a pas d’importance.

    Cela place la loi sur l’IA dans une situation intermédiaire lamentable en matière de réglementation : suffisamment ennuyeuse pour dissuader les entrepreneurs légitimes, suffisamment édentée pour ne pas empêcher des abus à grande échelle. Je suis choqué que la loi sur l’IA ne prévoie aucune possibilité d’interdire quelque chose qui serait réellement dangereux, comme une machine de propagande optimisée par l’IA et financée par l’État, se faisant passer pour un réseau social. S’ils ne peuvent pas interdire des produits, alors il ne s’agit pas de protection des consommateurs : il s’agit simplement d’extraction de richesses.

    “Providerism”

    John Loeber n’est pas en faveur de la régulation des technologies IA à l’heure actuelle, mais suggère que si une régulation devait être mise en place, elle devrait se faire au niveau de la production plutôt qu’à celui de la consommation. Il trouve ironique que les régulateurs européens se concentrent sur la consommation alors que l’Europe est décrite comme un continent de consommateurs, contrairement aux États-Unis qui sont productifs à grande échelle. Il souligne la différence entre vivre en Europe, où il a grandi entouré de biens de consommation étrangers et sans réelle exposition à la production, et vivre dans la Silicon Valley, où il rencontre des personnes qui créent les produits qu’il utilise.

    Il introduit le terme “Providerism” pour décrire la tendance européenne à ignorer la réalité politico-économique, car tout est fourni, et les mécanismes sous-jacents sont masqués. Selon lui, cette mentalité est un danger pour l’Europe, car elle s’éloigne de la production de biens de valeur et devient complaisante, tandis que les régulateurs imposent des barrières locales croissantes, ce qui nuit à l’entrepreneuriat technologique européen. Pour John Loeber, la prospérité à long terme de l’Europe dépend de son innovation technologique et de sa capacité à produire des biens de valeur : « C’est terrible, car pour l’Europe, le principal moyen de maintenir et d’atteindre la prospérité à long terme est évidemment d’innover technologiquement et de produire des choses de valeur ».

    Nom : ia.png
Affichages : 1624
Taille : 42,2 Ko

    Qu'est-ce que cela signifie pour l'Europe ?

    John Loeber estime que l’Europe est à la traîne; elle a largement raté les booms d’internet et de l’informatique personnelle, et risque maintenant de manquer le prochain boom de l’IA. Les Européens d’aujourd’hui ne sont pas encore pauvres — ils vivent encore de la prospérité créée par les générations précédentes, ce qui permet leur consommation passive — mais ceux de demain pourraient l’être.

    De plus, les manœuvres réglementaires européennes ne peuvent pas durer éternellement. Les entreprises étrangères doivent non seulement se conformer à la loi sur l'IA, mais aussi au RGPD et à de nombreuses autres normes de l’UE. À un moment donné, tout cela devient trop lourd et les entreprises étrangères vont se montrer fermes. Dans cette situation, l’UE perdra parce qu’elle n’a pas d’alternatives domestiques aux principaux produits logiciels étrangers, et les consommateurs de l’UE ne seront pas prêts à retourner à l’âge de pierre.

    C’est une mauvaise configuration, tant pour les consommateurs européens que pour la prospérité de l’Europe. L’UE doit corriger rapidement et de manière décisive sa trajectoire.

    Comment y remédier ?

    L’Europe doit s’affranchir du “Providerism”, décourager la dépendance complaisante envers les biens et services extérieurs, et encourager la vertu inhérente à la création de nouvelles choses. Cela nécessitera un leadership considérable. La tâche à venir n’est pas mince affaire et sera impopulaire. Les gens aiment que les choses leur soient fournies, mais cette situation ne peut pas durer. Du point de vue des budgets publics, on voit déjà le “Providerism” s’effondrer dans l’UE. La grande tâche à venir pour les régulateurs européens est de faciliter la création de richesse, et non la consommation de richesse. Mes recommandations sont :
    • Déréglementer la technologie. Tout jeter et recommencer à zéro. À l’avenir, réguler les grandes externalités négatives, et non les potentielles imaginaires. Ne pas présumer du besoin.
    • Fédérer. L’UE doit faciliter l’expansion des entreprises sur l’ensemble du marché de l’UE. Actuellement, il existe de nombreux obstacles juridiques et financiers à cela.
    • Favoriser un état d’esprit de production. Il est important pour l’Europe de rapatrier une partie de la production de biens et services de pointe : pas seulement pour des raisons économiques, mais aussi culturellement. Se concentrer sur la fabrication de choses.
    • S’engager dans le boom de l’IA. Le boom de l’IA est une opportunité unique pour l’Europe car il est lié à la recherche académique, et les nombreuses universités de l’UE diplôment de grands talents sans dette. Mistral est une entreprise incroyable : il devrait y en avoir plus !

    Des réactions plutôt mitigées

    Un internaute lui a reproché de se limiter à son expérience vécue pour décrire tout un continent.

    Un autre a déclaré :

    J’aime l’article, mais je pense que les conséquences suggérées par l’auteur manquent de compréhension de ce qui retient réellement les entrepreneurs européens. À l’OMI, il s’agit de simplifier la réglementation. Simplifiez la fiscalité. Simplifiez la comptabilité. Simplifiez le recrutement et le licenciement.

    J’ai vécu dans différents pays européens et j’ai toujours l’impression que tant d’énergie est dépensée pour résoudre chaque cas extrême avec une autre règle, en essayant de rendre le monde parfaitement juste. Cela arrange mieux le statu quo mais empêche de nombreux changements futurs.

    D’une manière générale, je partage entièrement l’analyse de l’auteur. En ce qui concerne les technologies modernes comme les ordinateurs, la description du « providerism » est parfaite.
    Et un autre a tenté de signaler les limites de son argumentation :

    Les déclarations selon lesquelles le providerism et l’Europe ne produisent rien de valeur se concentrent uniquement sur la technologie informatique et non sur tout autre type de technologie. Prenez le secteur agricole*; l'Europe produit non seulement des tonnes de légumes/fruits et de viande, mais elle dispose également de solides programmes de R&D tels que l'enrichissement des graines, la modification de l'ADN, etc. Il existe de nombreux autres secteurs.
    Source : John Loeber

    Et vous ?

    Quelle lecture faites-vous de l'analyse de John Loeber ? La trouver vous pertinente ou pas vraiment ? Dans quelle mesure ?
    Pensez-vous que le projet de loi européen sur l’IA protège suffisamment les droits des citoyens ou entrave-t-il l’innovation dans le domaine de l’IA ?
    Comment l’Europe peut-elle équilibrer la nécessité de réglementer l’IA tout en favorisant un environnement propice à la recherche et au développement ?
    Quels sont les principaux obstacles que rencontrent les entreprises technologiques en Europe pour se développer à l’échelle de l’UE ?
    Comment l’Europe peut-elle encourager un état d’esprit orienté vers la production et l’innovation technologique au sein de sa population ?
    Quelles mesures spécifiques les régulateurs européens devraient-ils prendre pour faciliter la création de richesse plutôt que la consommation de richesse ?
    En quoi le “Providerism” a-t-il affecté la compétitivité économique de l’Europe sur la scène mondiale ?
    Quel rôle les universités européennes peuvent-elles jouer dans le soutien à l’essor de l’IA et de la technologie en Europe ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  11. #91
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 541
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 541
    Points : 199 416
    Points
    199 416
    Par défaut La nouvelle loi européenne sur l'IA risque d'entraver l'innovation, prévient Emmanuel Macron.
    La nouvelle loi européenne sur l'IA risque d'entraver l'innovation, prévient Emmanuel Macron.
    Selon lui, ces règles pourraient laisser les entreprises technologiques européennes à la traîne par rapport à leurs rivales aux États-Unis, au Royaume-Uni et en Chine.

    Le président français, Emmanuel Macron, a récemment exprimé ses inquiétudes concernant le nouvel Acte sur l’intelligence artificielle (IA) proposé par l’Union européenne, mettant en garde contre les risques qu’il représente pour l’innovation. Selon lui, cette législation emblématique pourrait laisser les entreprises technologiques européennes à la traîne par rapport à leurs concurrents aux États-Unis, au Royaume-Uni et en Chine.

    Depuis le site d’Airbus de Toulouse ce 11 décembre, le chef de l’État a présenté le bilan des deux premières années de France 2030 mais également sa stratégie pour favoriser l’émergence d’innovations de rupture qui permettront de sécuriser l’accès aux matières premières et aux composants stratégiques, maitriser les technologies d’avenir et devenir les leaders du monde de demain.

    Pour mémoire, France 2030 entend répondre aux grands défis de notre temps, en particulier la transition écologique et technologique, à travers un plan d’investissement massif de 54 milliards d’euros investis sur 5 ans, dont 25 milliards ont déjà été engagés dans plus de 3 200 projets portés par 3 500 bénéficiaires, parmi lesquels près de 50% de petites et moyennes entreprises.

    Nom : france.png
Affichages : 1395
Taille : 76,5 Ko

    7 défis ont pour cela été lancés par le Président Emmanuel Macron :
    1. Accélérer notre décarbonation grâce au stockage d'énergies à moyen et long terme et au nucléaire innovant, dont la fusion ;
    2. Explorer le potentiel de l'hydrogène ;
    3. Développer les technologies de capture de carbone ;
    4. Cartographier nos ressources en métaux critiques ;
    5. Franchir un cap en matière de bioproduction et de technologies du vivant, notamment pour appuyer la découverte de nouveaux médicaments et soutenir la prévention en matière de santé ;
    6. Faire émerger des microcomposants pour le traitement massif des données IA ;
    7. Gagner la course de l'aventure spatiale.


    La loi européenne sur l'IA : le "oui, mais..." d'Emmanuel Macron

    Lors de son allocution, il n'a pas manqué de relever l'impact qu'elle pourrait avoir sur le développement de ce secteur en Europe :

    Autre axe, c'est évidemment l'intelligence artificielle. Là-dessus, point n'est besoin d'y revenir, j'en ai beaucoup parlé il y a encore quelques jours. On a une révolution en cours. Mais au fond, sur ce sujet, on a eu une étrange semaine. On a eu à la fois Mistral qui a levé des financements record dans le secteur, près de 400 millions d'euros. Chapeau, bravo ! Vous pouvez les applaudir. C'est vraiment le génie français comme on aime à le voir et à le célébrer. Et on a eu une réglementation européenne qui est venue consolider, c'est une bonne chose, un modèle français de la régulation mais qui, à mes yeux, je vous parle en toute franchise, fait qu'on est le premier endroit au monde où sur les modèles dits fondationnels d'IA, on va beaucoup plus réguler que les autres.

    Moi, je pense que ce n'est pas une bonne idée et je le dis en toute honnêteté. Il faudra donc l'évaluer parce qu’aujourd'hui, quand je regarde, la France est sans doute le premier pays en termes d'intelligence artificielle en Europe continentale, on est au coude à coude avec les Britanniques. Mais eux n'auront pas cette régulation sur les modèles fondationnels et surtout, on est tous très loin des Chinois et des Américains. Alors on peut décider de réguler beaucoup plus vite et beaucoup plus fort que nos grands compétiteurs mais on régulera des choses qu'on ne produira plus ou qu'on n’inventera pas. Ce n'est jamais une bonne idée. Il faut donc qu'on soit toujours à la bonne vitesse et en tout cas au bon rythme. Donc moi, je demande à ce qu'on évalue de manière régulière cette réglementation et si on perd des leaders ou des pionniers à cause de ça, il faudra revenir. C'est clé.
    Il a aussi été question des investissements en termes de stratégie d'IA, d'IA Open source, de puces IA :

    On a mis 1,5 milliard sur notre stratégie IA. On a des labos qui font un boulot formidable, des organismes de recherche, notamment INRIA qui est là, nos grands sites. On a l'IA qu'on utilise même sur notre projet éducatif, l’IA de remédiation, par exemple, qui va permettre vraiment la révolution du collège et du lycée. Vous allez voir. Il y a l'IA qu'on est en train de développer avec nos centres publics. On a mis 500 millions, notre supercalculateur Jean Zay. Et donc, on fait énormément de choses.

    Mais au fond, moi, je voulais peut-être insister sur deux points qu'il ne faut pas oublier. L’un, l'IA Open source : continuer à investir, y aller, foncer. Deux, les briques qui sont en dessous. Pour réussir la bataille de l'intelligence artificielle, il faut avoir des capacités de calcul et il faut avoir des composants et architectures de systèmes qui nous permettent d'être compétitifs. Et au fond, c'est évidemment d'avoir des startups, des génies, des modèles fondationnels, des LLM, etc., et des startups qui vont utiliser ensuite l'intelligence artificielle dans tous les secteurs.

    Mais si on perd la maîtrise de base, on est fichu. La maîtrise de base, c'est d'avoir des datacenters chez nous, un vrai cloud européen et d'avoir des capacités à maîtriser les chaînes de valeur, grâce au programme de recherche électronique et intelligence artificielle de France 2030, les équipes de recherches sur des concepts novateurs comme le calcul en mémoire et le calcul IA frugal en données. Et s'il y a un point sur lequel je voulais insister ici, sur lequel on dit encore et plus fort, c'est que la communauté scientifique française, avec les entreprises de l'électronique et les différents acteurs du secteur élaborent une proposition de feuille de route permettant de faire émerger des composants et des architectures systèmes pour le traitement massif de données en intelligence artificielle, avec l'objectif d'une consommation énergétique qui soit divisée par 100 ou 1 000 par rapport aux standards actuels des processeurs et des cartes graphiques actuelles.

    On a donc deux leviers : on doit réussir à maîtriser les puces et les semi-conducteurs de l'IA beaucoup plus petites que ce qu'on a aujourd'hui. On a fait grâce à France 2030, le projet à Crolles. On a doublé nos capacités de semi-conducteurs, mais ce sont les semi-conducteurs qu'on utilise pour l'industrie : l'automobile, l'aéro, etc. On a besoin de développer une capacité de production beaucoup plus petite dont on a besoin pour l’IA. Mais on a besoin de gagner la bataille de l'IA sobre. C'est clé et c'est là où on peut être différenciant. Redoublant d'efforts, France 2030 doit nous permettre de sécuriser cette chaîne.

    Et puis, à côté de ça, on doit redoubler d'efforts pour avoir chez nous des capacités de data center de calcul beaucoup plus fortes, bien plus massives. Et là, il faut mobiliser le privé et le public pour avoir ce financement. Ça, c'est la clé et out ça en lien entre le plan IA et le plan quantique.

    Rendez-vous à 55:25

    Une position qu'a tenue John Loeber

    Dans un billet, le co-fondateur et PDG de Limit, une société de courtage numérique de série A pour l'assurance commerciale, a expliqué en quoi la loi sur l'IA est mauvaise :

    Il s’agit de la pire réglementation : large, radicale, tout le monde est techniquement en infraction d’une manière ou d’une autre, mais vous pouvez payer pour la combattre. Les entrepreneurs obéissants et respectueux des règles perdront tout leur temps et leur argent à essayer de se conformer à chaque paragraphe de la loi sur l’IA. De plus en plus d’entrepreneurs soucieux de la Realpolitik placeront leur entreprise dans une zone grise, supposeront que s’ils réussissent, ils seront un jour poursuivis en justice et économiseront des fonds pour cette éventualité.

    Et s’ils sont poursuivis, quelles sont les sanctions ? Jusqu'à 7% du chiffre d'affaires annuel mondial. C'est une farce. Si l’UE affirme que cette technologie est si dangereuse qu’elle nécessite une réglementation à l’échelle européenne, alors les sanctions devraient en réalité être beaucoup plus lourdes. S’il y a un mauvais acteur qui dirige une entreprise d’IA massivement abusive et que la plus grande menace à laquelle il est confronté est une pénalité de revenus de 7 % qu’il peut probablement réduire à 2 % après quelques années de litige, alors cela n’a aucun effet dissuasif ! Ces entreprises fonctionnent avec une marge brute de 75 %. Vous avez une année qui tourne à 73% ? Cela n’a pas d’importance.

    Cela place la loi sur l’IA dans une situation intermédiaire lamentable en matière de réglementation : suffisamment ennuyeuse pour dissuader les entrepreneurs légitimes, suffisamment édentée pour ne pas empêcher des abus à grande échelle. Je suis choqué que la loi sur l’IA ne prévoie aucune possibilité d’interdire quelque chose qui serait réellement dangereux, comme une machine de propagande optimisée par l’IA et financée par l’État, se faisant passer pour un réseau social. S’ils ne peuvent pas interdire des produits, alors il ne s’agit pas de protection des consommateurs : il s’agit simplement d’extraction de richesses.
    Source : discours Emmanuel Macron

    Que pensez-vous de l'avis d'Emmanuel Macron sur la nouvelle loi européenne sur l'IA ?
    Quels sont les principaux avantages et inconvénients de l’Acte sur l’IA de l’UE pour les startups et les entreprises établies dans le domaine de la technologie ?
    Comment l’UE peut-elle équilibrer la protection des droits fondamentaux avec la nécessité de ne pas entraver l’innovation dans le secteur de l’IA ?
    Quelles mesures spécifiques peuvent être prises pour assurer que l’Acte sur l’IA n’entrave pas la compétitivité des entreprises européennes sur la scène mondiale ?
    Comment les entreprises européennes peuvent-elles s’adapter pour rester compétitives tout en respectant les nouvelles réglementations de l’UE sur l’IA ?
    Quel rôle les autres acteurs mondiaux, tels que les États-Unis, le Royaume-Uni et la Chine, jouent-ils dans la formation de la législation européenne sur l’IA et comment cela affecte-t-il l’innovation au sein de l’UE ?
    Quelles sont les implications de l’Acte sur l’IA pour la souveraineté technologique de l’Europe et comment cela se compare-t-il aux approches d’autres régions ?
    Comment l’UE peut-elle encourager la collaboration internationale dans le développement de l’IA tout en maintenant des normes éthiques élevées ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  12. #92
    Membre chevronné Avatar de denisys
    Profil pro
    Développeur informatique
    Inscrit en
    Mai 2002
    Messages
    1 131
    Détails du profil
    Informations personnelles :
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Mai 2002
    Messages : 1 131
    Points : 1 966
    Points
    1 966
    Par défaut
    On a mis 1,5 milliard sur notre stratégie IA.
    C’est qui : On ??,
    La / le contribuable payé au smic ??
    Les grosses pointures du CAC 40 ??
    L’état ??
    Etat = 80 % => La / le contribuable payé au smic .
    Ne pas savoir n’est pas une faute si l’on cherche à combler ses lacunes.

    "Il n'y a pas d'obstacles infranchissables , il y a des volontés plus ou moins énergiques voilà tous" Jules Vernes

  13. #93
    Membre averti
    Profil pro
    Inscrit en
    Février 2010
    Messages
    267
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Février 2010
    Messages : 267
    Points : 368
    Points
    368
    Par défaut inférence par corrélation au lieu de l'analyse des conséquences
    Bonjour,
    Un peu de rationalisation que diable. On reste sur de l'ia qui calcule les corrélations et en tire des arbres causaux sans décrire les mécaniques même avec LIME et SHAPE, alors que l'analyse grammaticale avec les COI et COD permet de déterminer le sujet et le complément , ce qui permet une logique de prédicat avec le respect des 3 lois d'ASIMOV. C'est un cauchemar. On va voir revenir le temps des sorciers même si Athur C Clarke parle de magie comme la techno qui disparaît. On va élever l'ordinateur au rang de Dieu dans la prochaine étape . C'est bien la peine de faire du modèle checking dans la norme ISO179 pour l'aéronautique ou dans le ferroviaire ....

  14. #94
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 887
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 887
    Points : 36 958
    Points
    36 958
    Par défaut L'IA sera-t-elle une catastrophe pour le climat ? Examens de ses répercussions environnementales
    L'IA sera-t-elle une catastrophe pour le climat ? Examens de ses répercussions environnementales,
    les outils d'IA, comme ChatGPT, sont reconnue comme énergivore

    Le Massachusetts Institute of Technology définie l'IA comme la capacité des ordinateurs à imiter les fonctions cognitives humaines telles que l'apprentissage et la résolution de problèmes, en utilisant les mathématiques et la logique pour simuler le processus de raisonnement qui aide les humains à apprendre de nouvelles informations et à prendre des décisions. L'IA générative, comme ChatGPT, est mentionnée comme étant énergivore, tant pendant l'entraînement que lors de l'inférence. La puissance de calcul nécessaire à l'IA contribue à une consommation électrique importante et à des émissions de CO2 à grande échelle. Les chercheurs comparent le coût énergétique de l'inférence et de l'entraînement, soulignant que ce dernier a un impact environnemental beaucoup plus important.

    Dans ce contexte, les inquiétudes environnementales entourant l'empreinte carbone massive de l'intelligence artificielle (IA) sont explorées, en particulier lors de la phase d'inférence. L'accent est mis sur le fait que l'attention accordée aux aspects éthiques de l'IA peut détourner l'attention de ses répercussions environnementales. Malgré cela, l'IA est présentée comme une solution potentielle pour atteindre les objectifs climatiques, suggérant qu'elle pourrait réduire de 5 à 10 % des émissions mondiales d'ici 2030. Cependant, l'article met en garde contre l'empreinte carbone croissante de l'IA, soulignant l'importance de politiques favorables au climat pour orienter son développement.

    Trois domaines prioritaires sont proposés pour l'action politique afin de maximiser le potentiel positif de l'IA pour le climat. Il est suggéré d'encourager l'innovation et l'adoption de l'IA pour des applications climatiques positives, de prioriser les cas d'utilisation à fort potentiel et d'intégrer des exigences d'efficacité dans la réglementation industrielle. De plus, il est souligné l'importance de veiller à ce que les ressources informatiques nécessaires à l'IA soient alimentées par une énergie sans carbone.

    Nom : Climat2.jpg
Affichages : 4893
Taille : 57,7 Ko
    Facteurs critiques déterminant l'empreinte des émissions de l'IA


    Le besoin d'accélérer les actions contre le changement climatique est crucial pour éviter de dépasser les limites fixées par l'Accord de Paris, avec des prévisions indiquant un réchauffement de 2,8 °C. L'utilisation de l'intelligence artificielle peut contribuer à réduire de 5 à 10 % des émissions mondiales de gaz à effet de serre d'ici 2030, soutenant les initiatives d'adaptation et de résilience climatique. Bien que 87 % des dirigeants reconnaissent le potentiel de l'IA pour résoudre les problèmes climatiques, des préoccupations subsistent quant à ses risques, notamment en termes d'émissions de GES liées à l'énergie et à l'utilisation de l'eau. Selon des experts, malgré ces défis, l'IA montre déjà des résultats positifs dans la gestion de l'information climatique, les prévisions météorologiques et l'optimisation des empreintes carbone.

    Nom : Climat.jpg
Affichages : 1006
Taille : 56,4 Ko
    Dans quels domaines de l'analyse avancée et de l'IA liées au climat voyez-vous la plus grande valeur commerciale pour votre organisation ? (%)

    Des exemples concrets d'utilisation de l'IA pour lutter contre le changement climatique sont cités, tels que la prédiction des inondations à Singapour ou la cartographie des panneaux solaires à Lisbonne. Le besoin pour les décideurs politiques de promouvoir le développement responsable de l'IA tout en exploitant son potentiel pour résoudre des problèmes majeurs tels que le changement climatique est souligné. En conclusion, l'application judicieuse de l'IA est considérée comme l'une des mesures climatiques les plus efficaces à prendre actuellement.

    Une semaine après les déclarations d'Eric Schmidt, ancien dirigeant de Google, et de Mustafa Suleyman, cofondateur d'Inflection et de DeepMind, plaidant pour la création d'un organisme international régulateur de l'IA, Demis Hassabis, à la tête de Google DeepMind, s'est exprimé à son tour. Hassabis estime que les risques liés à l'IA nécessitent une approche similaire à celle employée dans la lutte contre le changement climatique, soulignant l'urgence d'une réglementation plus poussée.

    Le chercheur britannique en intelligence artificielle met en lumière la nécessité de réguler davantage l'IA face aux crises potentielles engendrées par une technologie surpassant l'intelligence humaine. Il affirme que le monde ne peut se permettre de différer sa réponse, insistant sur l'impératif de créer un organisme similaire au Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC) pour aborder les dangers de l'IA, notamment ceux liés à la création d'armes biologiques.

    Lors d'une interview, Hassabis critique le temps pris par la communauté internationale pour coordonner une réponse mondiale efficace au changement climatique, soulignant les conséquences actuelles de ce retard. Bien qu'il dresse un tableau sombre de la situation, l'expert en IA ajoute une note positive en soulignant le potentiel de l'IA comme l'une des technologies les plus importantes et bénéfiques jamais inventées.

    L'IA générative à la croisée des chemins : Éthique, climat et réalité des attentes

    Des estimations récentes révèlent que les tâches génératives, comme la génération de texte, sont énergivores, mais l'entraînement des modèles reste encore plus impactant. Des experts suggèrent que l'attention médiatique sur les aspects éthiques de l'IA détourne l'attention de ses conséquences environnementales, appelant à une réflexion approfondie sur l'impact global de l'ubiquité de l'IA générative.

    Suite à des échanges avec un chatbot d'IA sur ses inquiétudes liées au changement climatique, un Belge aurait tragiquement mis fin à ses jours. Le chatbot en question, nommé Eliza, a été conçu par une startup américaine de la Silicon Valley et repose sur la technologie GPT-J, une alternative à ChatGPT d'OpenAI. Pendant plusieurs années, Eliza aurait apaisé les inquiétudes de la victime concernant le climat, mais aurait finalement suggéré le sacrifice personnel pour sauver la planète, affirmant que les deux se retrouveraient au paradis. Cet incident soulève des préoccupations quant aux filtres utilisés par les chatbots d'IA et à leur impact sur la santé mentale des utilisateurs.

    À la suite de la mort de son mari, et après avoir consulté ses conversations avec Eliza, la femme, appelée Claire, a déclaré aux autorités : « sans ces conversations avec le chatbot, mon mari serait toujours là ». Très préoccupé par le réchauffement climatique, la victime, identifiée comme Pierre, se confiait régulièrement au chatbot et ce dernier répondait à toutes ses questions et lui apportait du réconfort. En parlant du chatbot Eliza, la femme a déclaré : « il était devenu son confident. Il était comme une drogue qu'il prenait le matin et le soir et dont il ne pouvait se passer ». Selon elle, le chatbot d'IA aurait encouragé son mari à se donner la mort

    Le monde doit réduire considérablement les émissions de gaz à effet de serre d'ici 2030 pour atteindre les objectifs de l'Accord de Paris. Pourtant, sur la base des trajectoires actuelles, les émissions devraient augmenter de 10 % au cours des huit prochaines années. Cela ne fera qu'accélérer les sécheresses généralisées, les inondations, les chaleurs extrêmes et d'autres impacts dévastateurs à travers le monde.

    Dans ce contexte difficile, il est clair qu'une accélération est nécessaire sur tous les fronts de l'action climatique. L'une de ces possibilités réside dans l'intelligence artificielle (IA). Les recherches montrent qu'en développant les applications et les technologies actuellement éprouvées, l'IA pourrait atténuer 5 à 10 % des émissions mondiales de gaz à effet de serre d'ici à 2030, soit l'équivalent des émissions annuelles totales de l'Union européenne.

    Pour la première fois, l'IA a été mise en avant lors de la COP28 comme l'une des principales solutions potentielles pour lutter contre le changement climatique, la Convention-cadre des Nations unies sur les changements climatiques (CCNUCC) ayant annoncé lors de la conférence le Grand défi de l'innovation en matière d'IA afin d'identifier et de soutenir le développement de solutions alimentées par l'IA pour l'action climatique dans les pays en voie de développement.

    Le défi écologique de l'IA : Émissions massives, compensations douteuses et réalités climatiques

    L'IA nécessite des quantités stupéfiantes de puissance de calcul. Et comme les ordinateurs ont besoin d'électricité et que les GPU (processeurs graphiques) nécessaires tournent à très haute température (et doivent donc être refroidis), la technologie consomme de l'électricité à un rythme colossal. Ce qui, à son tour, entraîne des émissions de CO2 à grande échelle - à propos desquelles l'industrie est extraordinairement timide, tout en se vantant d'utiliser des compensations et d'autres artifices pour simuler la neutralité en matière d'émissions de carbone.

    Selon certains analystes, l'IA générative (le terme poli pour ChatGPT et consorts) vient d'atteindre le sommet des attentes exagérées. Cela correspond aux prédictions enfiévrées de l'industrie technologique (sans parler des gouvernements) selon lesquelles l'IA sera transformatrice et bientôt omniprésente. Ce battage médiatique a donné lieu à de nombreuses angoisses concernant son impact sur l'emploi, la désinformation, la politique, etc., ainsi qu'à un grand nombre d'extrapolations anxieuses concernant un risque existentiel pour l'humanité.

    En 2019 une étude a estimé l'empreinte carbone de la formation d'un seul grand modèle linguistique (LLM) précoce tel que GPT-2 à environ 300 000 kg d'émissions de CO2, soit l'équivalent de 125 vols aller-retour entre New York et Pékin. Depuis lors, les modèles sont devenus exponentiellement plus grands et leurs empreintes de formation seront donc proportionnellement plus importantes.

    L'implication est évidente : la réalisation du rêve de l'industrie de "l'IA partout" (comme l'a dit un jour le patron de Google) conduirait à un monde dépendant d'une technologie qui n'est pas seulement fragile, mais qui a aussi une formidable empreinte environnementale - qui ne cesse de croître. Les chercheurs ont comparé le coût de l'inférence continue de diverses catégories de systèmes d'apprentissage automatique (88 au total), couvrant des modèles spécifiques à une tâche (c'est-à-dire des modèles affinés qui exécutent une seule tâche) et des modèles à usage général (c'est-à-dire ceux - tels que ChatGPT, Claude, Llama etc - formés pour des tâches multiples).

    Les résultats sont édifiants. Les tâches génératives (génération de texte, résumé, génération d'images et sous-titrage) sont, comme on peut s'y attendre, plus gourmandes en énergie et en carbone que les tâches discriminatives. Les tâches impliquant des images émettent plus de carbone que celles impliquant uniquement du texte. De manière surprenante (du moins pour ce chroniqueur), l'entraînement de modèles d'IA reste beaucoup, beaucoup plus gourmand en carbone que leur utilisation à des fins d'inférence. Les chercheurs ont tenté d'estimer le nombre d'inférences nécessaires pour que leur coût en carbone soit égal à l'impact environnemental de leur formation. Dans le cas de l'un des plus grands modèles, il faudrait 204,5 millions d'interactions d'inférence, ce qui doublerait l'empreinte carbone de l'IA.

    Pour inverser la trajectoire des émissions, il faudra que tous les acteurs concernés - fonctionnaires, chefs d'entreprise et technologues - rament dans la même direction. Les décideurs politiques ont un rôle central à jouer, avec trois domaines prioritaires essentiels qui permettront à l'IA de contribuer à son plein potentiel. Premièrement, les politiques doivent permettre l'innovation et l'adoption de l'IA pour des applications positives pour le climat. Des cadres de partage des données, des investissements dans la recherche, un accès abordable à la technologie et des initiatives éducatives sont nécessaires pour stimuler le développement et le déploiement.

    Le rôle crucial des gouvernements dans l'intégration de l'IA pour un avenir climatique durable

    Les gouvernements ont un rôle clé à jouer en tant qu'utilisateurs finaux. En l'absence d'objectifs communautaires, nationaux ou sectoriels clairs en matière d'action climatique, l'innovation axée sur l'IA pourrait s'engager dans des directions décousues. L'allocation des ressources serait inefficace. L'établissement de domaines d'innovation prioritaires dans lesquels l'IA pourrait faire progresser l'action climatique de la manière la plus immédiate et la plus efficace, comme l'exploitation de l'IA pour une agriculture résiliente aux inondations, l'adaptation au changement climatique et l'accélération de la transition énergétique, peut débloquer des ressources et focaliser les esprits.

    Deuxièmement, les décideurs politiques devraient accélérer l'impact de l'IA sur le climat en donnant la priorité aux cas d'utilisation à fort potentiel et en intégrant des exigences d'efficacité et d'optimisation dans la réglementation industrielle. Les processus existants et les infrastructures patrimoniales dans les secteurs à fortes émissions comme l'aviation, l'industrie manufacturière, la production d'électricité et la construction, pourraient être optimisés plus immédiatement grâce à l'IA, et pas seulement par une reconstruction globale, qui pourrait être coûteuse et prendre trop de temps. Des investissements transformateurs à long terme doivent encore être réalisés, mais un impact plus immédiat devrait être encouragé.

    Troisièmement, les décideurs politiques peuvent contribuer à faire en sorte que les ressources informatiques nécessaires aux progrès de l'IA soient alimentées par de l'énergie sans carbone, par exemple en améliorant les réseaux électriques, notamment par une meilleure gestion de la charge, ce que l'IA peut permettre. L'IA peut jouer un rôle essentiel dans notre effort collectif de lutte contre le changement climatique. L'IA est déjà à l'origine de progrès en aidant les individus à obtenir des informations de meilleure qualité et plus exploitables, les entreprises à optimiser leurs opérations et les gouvernements et autres organisations à améliorer leurs prévisions.

    La loi allemande sur l'efficacité énergétique comprend des dispositions spécifiques qui obligent les centres de données à acheter de l'énergie renouvelable et à réutiliser la chaleur qu'ils produisent.

    Singapour utilise l'IA pour prédire les inondations et tester des infrastructures résistantes aux inondations. La ville de Lisbonne utilise l'IA pour cartographier son inventaire actuel de panneaux solaires et évaluer le potentiel d'expansion. Les données collectées sont ensuite utilisées pour établir des prévisions concernant l'approvisionnement en énergies renouvelables, ce qui permet d'élaborer des codes de construction et des budgets d'incitation. Les Philippines préconisent l'utilisation de l'IA pour relever les défis de l'adaptation au changement climatique et de la réduction des risques de catastrophe.

    À la lumière des analyses d'experts et des rapports de chercheurs, il est clair que l'impact de l'intelligence artificielle (IA) sur le climat dépend de la manière dont elle est développée, mise en œuvre et réglementée. D'un côté, l'IA offre des possibilités considérables pour aider à lutter contre le changement climatique. En développant des applications éprouvées, elle pourrait contribuer à réduire de manière significative les émissions mondiales de gaz à effet de serre, tout en renforçant les initiatives d'adaptation et de résilience climatique.

    Cependant, il est crucial de reconnaître et de gérer les risques associés à l'utilisation de l'IA pour éviter tout impact négatif sur le climat. Des préoccupations légitimes existent concernant les émissions de gaz à effet de serre liées à l'énergie nécessaires pour alimenter les infrastructures informatiques, en particulier les centres de données utilisés pour l'entraînement des modèles d'IA. Bien que les analyses actuelles montrent que ces émissions restent relativement modestes par rapport à l'ensemble des émissions mondiales, la croissance rapide de l'IA nécessite une vigilance accrue.

    De plus, la gestion de l'utilisation de l'eau pour le refroidissement des centres de données constitue une préoccupation importante. Bien que les chiffres actuels indiquent un impact global limité, des efforts doivent être déployés pour minimiser toute pression sur les ressources en eau locales. L'IA a le potentiel d'être un atout majeur dans la lutte contre le changement climatique, mais son déploiement doit être guidé par des politiques et des pratiques responsables. Il est impératif que les entreprises, les chercheurs et les gouvernements collaborent pour minimiser les risques environnementaux, tout en maximisant les avantages positifs que l'IA peut apporter à la durabilité climatique.

    Simon Stiell de l'ONU souligne l'essor de l'IA dans la bataille pour le climat

    Lors d'un événement de haut niveau organisé par le comité exécutif de la technologie des Nations unies sur le changement climatique (TEC), en collaboration avec Enterprise Neurosystem, une communauté d'intelligence artificielle open source et à but non lucratif sur le changement climatique, en collaboration avec la présidence de la COP28, le lancement du Grand défi de l'innovation a été annoncé. Cet événement vise à exploiter le potentiel de l'intelligence artificielle pour lutter contre le changement climatique. Simon Stiell, secrétaire exécutif de l'ONU pour le changement climatique, souligne l'importance de cette initiative pour autonomiser les innovateurs dans les pays en développement malgré les défis et les risques associés à l'IA.

    Omar Sultan Al Olama, ministre d'État chargé de l'intelligence artificielle aux Émirats arabes unis, insiste sur l'intégration de l'IA dans les politiques nationales pour atténuer le changement climatique. Il souligne la nécessité d'aligner les politiques sur les données climatiques en temps réel, favorisant le développement technologique et la découverte scientifique dans le domaine de l'énergie. L'IA est déjà utilisée pour prédire les schémas climatiques, améliorer le rendement agricole et optimiser les énergies renouvelables.

    La COP28 réunit des leaders mondiaux pour discuter de l'utilisation de l'IA dans la transformation de l'action climatique dans les pays en développement, tout en évitant d'aggraver les inégalités d'accès à la technologie. L'initiative reconnaît que le changement climatique nécessite des efforts mondiaux concertés au-delà des frontières géographiques.

    Les décideurs politiques du monde entier se sont attachés à promouvoir le développement responsable de l'IA, ce qui est essentiel. Mais ils doivent également mettre en place un programme politique visant à exploiter le potentiel de l'IA pour résoudre des problèmes majeurs tels que le changement climatique. La mise en œuvre de cette technologie par des décisions politiques intelligentes pourrait s'avérer l'une des mesures climatiques les plus efficaces que nous puissions prendre aujourd'hui, et constituerait un premier pas essentiel vers la réalisation des objectifs de réduction significative des émissions au cours de cette décennie.

    Sources : Google, United Nations, Climate change

    Et vous ?

    Pensez-vous que les avantages potentiels de l'intelligence artificielle dans la lutte contre le changement climatique justifient les inquiétudes liées à son impact environnemental ? Comment pourrions-nous équilibrer ces deux aspects ?

    Voyez-vous des alternatives ou des innovations émergentes qui pourraient atténuer l'empreinte environnementale de l'intelligence artificielle tout en préservant ses avantages pour la lutte contre le changement climatique ?

    En considérant les défis environnementaux, pensez-vous que l'intelligence artificielle devrait être réglementée de manière plus stricte, et comment cela pourrait-il être mis en œuvre de manière efficace à l'échelle mondiale ?

    Voir aussi :

    L'intelligence générale artificielle (AGI), qui surpasse l'intelligence humaine dans presque tous les domaines, verrait le jour d'ici 10 ans, a déclaré Masayoshi Son, PDG de SoftBank

    Un homme se serait suicidé après avoir parlé de ses craintes concernant le changement climatique à un chatbot d'IA, sa veuve affirme que l'IA l'a rendu solitaire avant de le pousser au suicide

    Le risque lié à l'IA est similaire à la crise climatique, le monde ne peut pas se permettre de retarder la réponse, selon Demis Hassabis, il prévoit la création d'un organisme international de l'IA
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  15. #95
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 541
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 541
    Points : 199 416
    Points
    199 416
    Par défaut OpenAI s'empresse de modifier ses conditions générales de confidentialité afin de réduire les risques en UE
    OpenAI s'empresse de modifier ses conditions générales de confidentialité afin de réduire les risques réglementaires dans toute l'UE,
    tandis que Bruxelles avance avec sa législation sur l'IA

    OpenAI a entrepris de modifier ses conditions de confidentialité pour ses services destinés aux particuliers, tels que ChatGPT, DALL·E et d’autres. Cette décision intervient alors que l’Union européenne prépare une nouvelle législation sur l’IA, qui pourrait imposer des exigences strictes en matière de transparence, de responsabilité et de protection des données.

    Début décembre, les négociateurs du Parlement et du Conseil sont parvenus à un accord provisoire sur la législation sur l’intelligence artificielle. La loi sur l’IA a été conçue à l’origine pour atténuer les dangers liés à des fonctions spécifiques de l’IA en fonction de leur niveau de risque, de faible à inacceptable. Mais les législateurs ont décidé de l'étendre aux modèles à usage général, les systèmes avancés qui sous-tendent les services d'IA à usage général comme ChatGPT et le chatbot Bard de Google.

    L'AI Act établit une nouvelle référence mondiale pour les pays cherchant à exploiter les avantages potentiels de la technologie, tout en essayant de se protéger contre ses risques possibles, comme l'automatisation des emplois, la diffusion de fausses informations en ligne et la mise en danger de la sécurité nationale. La loi doit encore franchir quelques étapes finales avant d'être approuvée, mais l'accord politique signifie que ses grandes lignes ont été fixées.

    Les décideurs politiques européens se sont concentrés sur les utilisations les plus risquées de l’IA par les entreprises et les gouvernements, notamment celles destinées à l’application des lois et à l’exploitation de services cruciaux comme l’eau et l’énergie. Les fabricants des plus grandes technologies d’IA à usage général les systèmes, comme ceux qui alimentent le chatbot ChatGPT, seraient confrontés à de nouvelles exigences de transparence. Les chatbots et les logiciels créant des images manipulées telles que les « deepfakes » devraient indiquer clairement que ce que les gens voient a été généré par l’IA, selon les fonctionnaires de l’UE et les versions antérieures de la loi.

    L'utilisation de logiciels de reconnaissance faciale par la police et les gouvernements serait restreinte en dehors de certaines exemptions en matière de sûreté et de sécurité nationale. Les entreprises qui enfreignent la réglementation pourraient se voir infliger des amendes pouvant atteindre 7 % de leurs ventes mondiales.


    OpenAI entreprend de se mettre en conformité

    L’entreprise s'est lancée dans une course contre la montre pour faire tout ce qui est en son pouvoir afin de réduire le risque réglementaire dans l’UE après avoir été mise sous surveillance pour violation de la vie privée des citoyens. C'est la principale raison pour laquelle l'entreprise a entrepris de modifier ses termes et conditions.

    ChatGPT a été accusée d'affecter négativement la vie privée des utilisateurs avec toute une série d'enquêtes en place pour contrecarrer les problèmes de protection des données liés à la manière dont les chatbots traitent les données des utilisateurs et à la manière dont ils produisent des données en général, y compris celles provenant des principaux organismes de surveillance dans la région.

    Pour mémoire, début 2023, le Garante per la protezione dei dati personali (en français Garant de la protection des données personnelles) a bloqué le site Web d'OpenAI hébergeant le modèle. Les autorités cherchaient à savoir si le logiciel collectait illégalement des données sur les citoyens et si la technologie pourrait nuire aux mineurs de moins de 13 ans. L'Italie est ainsi devenue le premier pays à réglementer ChatGPT, d'autres pays de l'UE comme l'Allemagne lui ont emboîté le pas.

    L'organisme de surveillance a déclaré que le 20 mars, l'application avait subi une violation de données impliquant des conversations d'utilisateurs et des informations de paiement. Il a déclaré qu'il n'y avait aucune base légale pour justifier « la collecte et le stockage massifs de données personnelles dans le but de 'former' les algorithmes sous-jacents au fonctionnement de la plateforme ». Il a également déclaré que puisqu'il n'y avait aucun moyen de vérifier l'âge des utilisateurs, l'application « expose les mineurs à des réponses absolument inadaptées par rapport à leur degré de développement et de sensibilisation ».

    Le blocage de ChatGPT en Italie est intervenu quelques jours après que l'agence de police européenne Europol a averti que les criminels étaient sur le point d'utiliser l'application pour commettre des fraudes et d'autres cybercrimes, du phishing aux logiciels malveillants.

    OpenAI a finalement repris ses activités dans le pays un peu plus tard.

    Nom : chatgpt.png
Affichages : 2219
Taille : 346,9 Ko

    Une mise à jour de la politique d'utilisation qui sera applicable dès le 1er février

    En mi-novembre, avant le consensus provisoire sur l'AI Act, OpenAI a mis à jour les conditions d'utilisations s'appliquant à ses services ChatGPT, Dall-E et autres pour les personnes physiques, et de tous les sites internet, applications et technologies associés pour les personnes physiques résidant dans l'Espace Economique Européen, en Suisse ou au Royaume-Uni.

    Voici quelques éléments qui ressortent de la mise à jour de la politique:
    Inscription et accès
    • Pour consentir à l'utilisation des services, il faut au moins 13 ans, ou alors l'âge minimum requis dans le pays de résidence de l'utilisateur. Pour les moins de 18 ans, OpenAI demande qu'ils obtiennent l'autorisation de l’un de leurs parents ou de leur tuteur légal.
    • Lors de l'inscription, OpenAI demande de fournir des informations exactes et complètes. L'entreprise interdit le partage des identifiants de votre compte, encore moins le fait de mettre votre compte à la disposition de quelqu'un d'autre et elle tient l'utilisateur pour responsable de toutes les activités qui se déroulent sur son compte. Si vous créez un compte ou utilisez les Services pour le compte d'une autre personne ou entité, vous devez être autorisé à accepter les présentes Conditions pour leur compte.

    Résiliation et suspension
    • Vos droits. Vous pouvez cesser d'utiliser nos Services et mettre fin à votre relation avec OpenAI à tout moment en fermant simplement votre compte et en cessant d'utiliser les Services.
    • Droit de Rétractation du Consommateur de l'EEE. Si vous êtes un consommateur résidant dans l'EEE, vous pouvez fermer votre compte et vous rétracter des présentes Conditions dans les 14 jours suivant leur acceptation en contactant le service Support ou en remplissant et en nous envoyant le formulaire de rétractation.
    • Droits d'OpenAI. Nous pouvons prendre des mesures pour suspendre ou résiliier votre accès à nos Services ou fermer votre compte si nous déterminons, de manière raisonnable et objective que :
      • Vous avez enfreint les présentes Conditions ou nos Politiques d'Utilisation.
      • Cela est nécessaire pour nous conformer à la loi.
      • Votre utilisation de nos Services pourrait entraîner des risques pour ou causer des dommages à OpenAI, nos utilisateurs ou toute autre personne.
      • Votre compte est inactif depuis plus d'un an et vous n'avez pas de compte payant.

    Cependant, l'entreprise a commencé à envoyer des courriels à ses utilisateurs fin décembre. « Nous avons remplacé l'entité OpenAI qui fournit des services tels que ChatGPT aux résidents de l'EEE et de la Suisse par notre entité irlandaise, OpenAI Ireland Limited », indique-t-elle.

    Une mise à jour parallèle de la politique de confidentialité d’OpenAI pour l’Europe stipule en outre*:

    Si vous résidez dans l'Espace économique européen (EEE) ou en Suisse, OpenAI Ireland Limited, dont le siège social est situé au 1er étage, The Liffey Trust Centre, 117-126 Sheriff Street Upper, Dublin 1, D01 YC43, Irlande, est le responsable du traitement de vos données personnelles comme décrit dans la présente politique de confidentialité.
    Les utilisateurs sont informés que s’ils ne sont pas d’accord avec les nouvelles conditions d’OpenAI, ils peuvent supprimer leur compte.

    Nom : guichet.png
Affichages : 1229
Taille : 20,1 Ko

    Guichet unique

    Pour mémoire, avant l’entrée en application du RGPD, les entreprises établies dans plusieurs États membres de l’Union européenne devaient s’adresser à chaque autorité de chaque État membre dans lequel elles avaient un établissement. Chacune de ces autorités de protection des données décidait seule. Ces démarches étaient lourdes et chronophages pour les entreprises concernées et la multiplication d’interlocuteurs ne permettait pas de garantir une application uniforme des règles européennes.

    Pour résoudre ces difficultés, le RGPD a institué un mécanisme de « guichet unique » pour faciliter les démarches des entreprises concernées.

    Il repose sur les trois principes suivants :
    • Un mécanisme ouvert aux seules entreprises établies en UE : lorsqu’une entreprise met en œuvre un traitement de données « transfrontalier », elle bénéficie d’un mécanisme de contrôle simplifié. Celui-ci ne s’applique pas aux entreprises exclusivement établies hors de l’UE.
    • Un interlocuteur unique pour les responsables de ces traitements : il s’agit de l’autorité « chef de file », c’est-à-dire l’autorité de protection des données du pays où se trouve l’établissement principal de l’entreprise. C’est auprès de cette seule autorité que les différentes obligations prévues par le RGPD doivent être accomplies. Elle est en outre chargée de coordonner la prise de décision avec les autres autorités de protection des données concernées par le traitement transfrontalier.
    • Une seule décision valable dans toute l’UE : toute décision de l’autorité chef de file aura été prise en concertation avec l’ensemble des autorités de protection des données concernées. Elle présentera donc l’interprétation commune des autorités européennes concernant le traitement transfrontalier à l’égard duquel la décision est prise.

    L’obtention de ce statut réduit donc la capacité des organismes de surveillance de la vie privée situés ailleurs dans le bloc à agir unilatéralement en réponse aux préoccupations. Au lieu de cela, ils vont renvoyer les plaintes à l'organisme où est situé le siège social pour examen.

    D’autres régulateurs du RGPD conservent toujours le pouvoir d’intervenir localement s’ils constatent des risques urgents. Mais ces interventions sont généralement temporaires. Elles sont également exceptionnelles par nature, l’essentiel de la surveillance du RGPD étant acheminé via une autorité chef de file. C’est pourquoi ce statut s’est révélé si attrayant pour les Big Tech, permettant aux plateformes les plus puissantes de rationaliser la surveillance de la confidentialité de leur traitement transfrontalier de données personnelles.

    Lorsqu'il lui a été demandé si OpenAI travaillait avec l'organisme irlandais de surveillance de la vie privée pour obtenir le statut d'établissement principal pour son entité basée à Dublin, dans le cadre du guichet unique du RGPD, une porte-parole de la Commission irlandaise de protection des données (DPC) a déclaré : « Je peux confirmer qu'Open AI a collaboré avec la DPC et d’autres DPA de l’UE [autorités de protection des données] sur cette question ».

    OpenAI a ouvert un bureau à Dublin en septembre, embauchant initialement une poignée de membres du personnel politique, juridique et chargé de la vie privée, en plus de certains rôles de back-office.

    Au moment de la rédaction de cet article, il n'y a que cinq postes vacants basés à Dublin sur un total de 100 répertoriés sur sa page Carrières, de sorte que l'embauche locale semble encore limitée. Un responsable de la politique et des partenariats des États membres de l'UE basé à Bruxelles, qu'il recrute également actuellement, demande aux candidats de préciser s'ils sont disponibles pour travailler depuis le bureau de Dublin trois jours par semaine. Mais la grande majorité des postes vacants d'OpenAI sont répertoriés à San Francisco/États-Unis.

    Nom : cinq.png
Affichages : 1248
Taille : 12,3 Ko

    L'un des cinq postes basés à Dublin annoncés par OpenAI est celui d'un ingénieur logiciel de confidentialité. Les quatre autres sont destinés : au directeur de compte, plateforme ; spécialiste de la paie internationale*; relations avec les médias, direction européenne*; et ingénieur commercial.

    Qui et combien d'embauches OpenAI effectue à Dublin sera pertinent pour l'obtention du statut d'établissement principal en vertu du RGPD, car il ne s'agit pas simplement de remplir quelques documents juridiques et de cocher une case pour obtenir le statut. L’entreprise devra convaincre les régulateurs de la vie privée du bloc que l’entité basée dans l’État membre qu’elle désigne comme légalement responsable des données des Européens est réellement en mesure d’influencer la prise de décision la concernant.

    Cela signifie disposer de l’expertise et des structures juridiques appropriées pour exercer une influence et mettre en place des contrôles de confidentialité significatifs sur un parent américain.

    En d’autres termes, ouvrir un front office à Dublin qui se contenterait d’approuver les décisions relatives aux produits prises à San Francisco ne devrait pas suffire.

    Si OpenAI obtient le statut de principal établissement sous le RGPD en Irlande, obtenant la supervision principale du DPC irlandais, il rejoindra Apple, Google, Meta, TikTok et X, pour ne citer que quelques-unes des multinationales qui ont choisi de s'établir dans ce pays en UE.

    Un organisme critiqué

    Le DPC, quant à lui, continue de susciter de nombreuses critiques quant au rythme et à la cadence de sa surveillance des grandes enseignes technologiques sous le prisme du RGPD. Et même si ces dernières années ont vu un certain nombre de sanctions qui ont fait la une des médias contre les grandes entreprises technologiques, les critiques de l'Irlande soulignent que le régulateur préconise souvent des sanctions nettement inférieures à celles de ses pairs. D’autres critiques incluent le rythme lent et/ou la trajectoire inhabituelle des enquêtes de la DPC. Ou encore des cas où il choisit de ne pas enquêter du tout sur une plainte, ou choisit de la recadrer d'une manière qui contourne la principale préoccupation (comme la plainte Google AdTech).

    Toute enquête RGPD existante sur ChatGPT, comme par les régulateurs en Italie et en Pologne, peut encore avoir des conséquences en termes de façonnage de la réglementation régionale du chatbot d'IA générative d'OpenAI, car les enquêtes sont susceptibles de suivre leur cours étant donné qu'elles concernent le traitement des données antérieur à tout futur statut d’établissement principal qu'OpenAI pourrait acquérir. Mais l’impact qu’elles pourraient avoir est moins clair.

    Sources : conditions d'utilisation pour les résidents en EEE, carrière OpenAI, CNIL, courriel OpenAI

    Et vous ?

    Que pensez-vous des nouvelles conditions de confidentialité d’OpenAI pour ses services d’IA génératifs ?
    Que pensez-vous du RGPD couplé à l'AI Act ? Des réglementations suffisantes pour encadrer l'utilisation de l’IA ?
    Que pensez-vous du fait qu'OpenAI cherche à faire de sa filiale à Dublin un guichet unique ? Êtes-vous surpris par la manœuvre ? Dans quelle mesure ?
    Avez-vous déjà utilisé ou envisagez-vous d’utiliser les services d’OpenAI, tels que ChatGPT, DALL·E ou d’autres ? Si oui, dans quel but et avec quelles précautions ?
    Quels sont les avantages et les inconvénients des modèles d’IA génératifs, tels que les grands modèles de langage, pour la société et pour les individus ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  16. #96
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    1 072
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 072
    Points : 75 082
    Points
    75 082
    Par défaut Le lobbying en faveur de l'IA atteint un niveau record, avec une augmentation de 185 %
    Le lobbying en faveur de l'IA atteint un niveau record, avec une augmentation de 185 % par rapport à l'année dernière, et arrive à un moment où les appels à la réglementation de l'IA se multiplient.

    Un nouveau rapport alarmant a pris le devant de la scène et a prouvé que le lobbying de l'IA a atteint des chiffres record. Selon le rapport, des entreprises ont dépensé près de 957 millions de dollars rien qu'en 2023 en lobbying de l'IA, avec une augmentation de 185 % par rapport à l'année dernière.

    Le rapport provient de l'analyse d'OpenSecrets en collaboration avec CNBC des résultats du lobbying fédéral. La montée en puissance du lobbying de l'IA qui s'est produite en 2023 a été si massive que les chiffres ont représenté une hausse vertigineuse de 185 % par rapport aux statistiques observées en 2022. L'évolution est considérable : alors qu'auparavant près de 158 entreprises participaient à cette activité, ce sont désormais près de 450 entreprises qui y prennent part, ce qui ne manque pas de faire parler les experts.

    L'augmentation considérable du lobbying dans le domaine de l'IA survient à un moment où les appels à la réglementation de l'IA se multiplient et où l'administration du président américain Joe Biden commence à codifier de telles réglementations. Rappelons que les entreprises qui ont commencé à faire du lobbying au début de l'année 2023 souhaitaient avoir leur mot à dire sur l'impact de la réglementation sur les entreprises telles que TikTok et Tesla. Parmi les autres entreprises figurant sur la liste, citons Spotify, Shopify, Pinterest, Samsung, Nvidia, Dropbox, DoorDash, Palantir, Instacart, OpenAI et bien d'autres encore.

    Des centaines d'entreprises ont fini par faire l'objet de pressions dans le domaine de l'IA l'année dernière, à l'instar des principales start-ups et des géants de la technologie, mais ce n'est pas tout. On a vu des compagnies d'assurance, des sociétés financières, des sociétés pharmaceutiques, des universités et même des sociétés de télécommunications faire partie de ce mouvement.


    Jusqu'au début de l'année 2017, on a vu un nombre important d'entreprises faire état de lobbying en matière d'IA, et ce chiffre était inférieur à 10 %. D'après ce rapport, on peut constater que le mouvement continue de croître à un rythme régulier, mais qu'avec le temps, il s'intensifiera encore.

    Au cours de l'année écoulée, 330 entreprises différentes ont fait du lobbying de l'IA, et ce sera également le cas en 2024. L'information fait état d'une série d'industries avec de nouveaux entrants dans ce système de lobbying, avec des noms tels qu'AMD et TSMC. D'autres noms figurent sur la liste, comme ceux de Disney et d'Appen. Certaines entreprises ont déclaré avoir fait du lobbying sur d'autres questions liées à l'IA et sur de nombreux autres sujets en rapport avec le gouvernement. Dans l'ensemble, elles ont parlé de dépenser près de 957 millions de dollars rien qu'en 2023 sur une série de sujets, selon les rapports d'OpenSecrets.

    En octobre, le président Biden a évoqué plus en détail les décrets relatifs à l'IA et la manière dont le gouvernement américain a pris des mesures nouvelles et uniques. Il a exigé des évaluations de la sécurité et des conseils sur les droits civils, ainsi que sur la recherche en matière d'IA et ses effets sur le marché du travail actuel. L'objectif est maintenant de créer un système comprenant des lignes directrices pour l'examen de modèles d'IA particuliers, ce qui implique des environnements d'essai connexes. Ils seraient en partie chargés de créer des normes consensuelles en matière d'IA.

    Après la publication des décrets, il y a eu une frénésie législative, de nombreux groupes industriels et syndicats ainsi que certains autres groupes se sont plongés dans un document massif de 100 pages qui contenait des notes particulières sur les priorités ainsi que des échéances particulières.

    Au début du mois de décembre, on a vu le NIST publier les commentaires publics de nombreuses entreprises sur la manière dont elles souhaiteraient façonner les réglementations. Des réponses spécifiques ont été données sur la manière dont les normes d'IA seraient créées et dont les systèmes d'IA pourraient être testés au mieux. Il s'agirait de gérer les risques liés à l'IA générative et d'aider à limiter les risques liés aux contenus falsifiés produits par l'IA.

    Et vous ?

    Pensez-vous que ce rapport est crédible ou pertinent ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    La nouvelle loi européenne sur l'IA est menacée par le lobbying intense des grandes entreprises technologiques. Elles font pression pour retirer "les modèles de base" de la réglementation

    Le projet de législation européenne sur l'intelligence artificielle mettrait en péril la compétitivité et la souveraineté technologique de l'Europe, selon plus de 160 dirigeants d'entreprises

    Joe Biden signe un décret visant à superviser et à investir dans l'IA. Ses objectifs vont des droits civils aux réglementations industrielles, en passant par l'embauche de personnel
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  17. #97
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 541
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 541
    Points : 199 416
    Points
    199 416
    Par défaut AI Act : les États membres de l'UE approuvent à l'unanimité la version finale de la loi sur l'IA
    AI Act : les États membres de l'UE approuvent à l'unanimité la version finale de la loi visant à réguler l'IA,
    Thierry Breton parle de « l’équilibre parfait trouvé par les négociateurs entre l’innovation et la sécurité »

    Le vendredi 2 février 2024, le comité des représentants permanents du Conseil des ministres de l’UE (Coreper) a voté en faveur de la loi sur l’intelligence artificielle (IA), le premier règlement au monde dédié à cette technologie. Ce texte vise à garantir que les systèmes d’IA mis sur le marché européen et utilisés dans l’UE soient sûrs et respectent les droits fondamentaux et les valeurs de l’UE. Il a pour ambition de stimuler l’investissement et l’innovation dans le domaine de l’IA en Europe

    Dans une déclaration faite le X, la présidence belge du Conseil a indiqué que le Coreper avait « confirmé le texte de compromis final trouvé sur la proposition relative aux règles harmonisées sur l'intelligence artificielle ». Elle a décrit la loi sur l'IA comme « une étape importante, marquant les premières règles pour l'IA dans l'UE, visant à la rendre sûre et dans le respect des droits fondamentaux de l'UE ».

    Ce dernier développement intervient alors que des rapports récents indiquaient que la France, l'Allemagne, l'Italie et l'Autriche cherchaient à apporter des modifications de dernière minute au texte avant qu'il ne soit soumis au vote du Coreper. La principale préoccupation était apparemment de savoir si le degré de réglementation envisagé dans le cadre de la loi sur l'IA aurait un effet dissuasif sur l'innovation technique dans l'UE.

    « Au moins dans une certaine mesure, les coups de sabre politiques de ces derniers jours pourraient avoir servi à positionner le public plutôt qu'à introduire des changements durables au dernier moment », a déclaré Nils Rauer, co-responsable mondial de l'IA.

    Une validation sous tension

    Lorsque les décideurs politiques de l'UE ont annoncé qu'ils avaient trouvé un compromis final sur le contenu de la loi sur l'IA en décembre, la percée a été saluée comme une étape pionnière que l'Europe devrait célébrer dans le contexte de la montée en puissance d'outils d'IA omniprésents tels que le ChatGPT d'OpenAI et le Bard de Google.

    Mais cette avancée a déplu à certains pays de l'UE. Au cours des dernières semaines, l'Allemagne et la France, principales économies de l'Union, ainsi que l'Autriche, ont laissé entendre qu'elles pourraient s'opposer au texte lors du vote de vendredi.

    Alors que Vienne s'en prend aux dispositions relatives à la protection des données, Paris et Berlin craignent que les règles applicables aux modèles d'IA avancés ne paralysent les champions européens de l'IA en herbe, tels que Mistral (France) et Aleph Alpha (Allemagne). L'Italie, parfois critique à l'égard de la loi sur l'IA, ayant gardé le silence sur ses intentions, le sort de la loi sur l'IA a soudain été remis en question, car quatre pays opposés suffiraient à faire dérailler la loi pour de bon.

    Le cabinet du ministre français de l'économie Bruno Le Maire a appelé à un nouveau cycle de négociations avec le Parlement européen pour répondre à ses préoccupations. Cette perspective a horrifié la présidence belge du Conseil, en raison du manque de temps pour de nouvelles négociations. Pour ne rien arranger, le Parlement lui-même était aux prises avec une querelle larvée sur les règles de reconnaissance faciale de la loi sur l'IA, déclenchée par l'eurodéputée Svenja Hahn, partisane de la protection de la vie privée.

    Finalement, la question a été résolue grâce au mélange familier d'offensive de relations publiques et de manœuvres diplomatiques de l'UE. La Commission a fait monter la pression en annonçant une série de mesures en faveur de l'innovation ciblant le secteur de l'IA, et a créé d'un seul coup l'Office de l'intelligence artificielle de l'UE, un organisme chargé de faire appliquer la loi sur l'IA.

    Un « groupe d'experts » dont la fonction est de « conseiller et d'assister »

    Une déclaration de la Commission européenne, diffusée parmi les diplomates de l'UE avant le vote, révèle des plans pour mettre en place un « groupe d'experts » comprenant les autorités des pays membres de l'UE. Ce groupe aura pour fonction de « conseiller et d'assister » la Commission dans l'application et la mise en œuvre de la loi sur l'IA.

    En particulier, le groupe d'experts aidera la Commission à éviter les chevauchements entre la loi sur l'IA et d'autres règlements de l'UE, notamment le règlement sur les dispositifs médicaux, le règlement sur les dispositifs de diagnostic in vitro et le règlement sur les machines.

    La déclaration charge également l'Office de l'IA de fournir des « orientations détaillées » aux développeurs de modèles d'IA avancés « à usage général » sur la divulgation d'un résumé des documents protégés par le droit d'auteur utilisés pour former le logiciel. Elle réaffirme également l'engagement de la Commission à encourager l'innovation dans le secteur de l'IA et à « garantir un cadre juridique souple et à l'épreuve du temps » lors de la mise à jour de certains aspects du texte concernant l'IA avancée.

    Enfin, la déclaration permet aux États membres d'adopter des règles et des garanties plus restrictives pour des technologies telles que la reconnaissance faciale, la reconnaissance émotionnelle et la catégorisation biométrique.

    Nom : ai_act.png
Affichages : 4331
Taille : 244,5 Ko

    Des avancées dans le texte

    En vertu de la loi européenne sur l'IA, un nouveau système de réglementation fondé sur le risque s'appliquera à l'IA dans tous les États membres de l'UE.

    La loi sur l’IA repose sur une approche basée sur le risque : plus le risque est élevé, plus les règles sont strictes. Certains usages de l’IA seront interdits, tandis que les exigences les plus sévères concerneront les systèmes d’IA à haut risque et leurs fournisseurs et utilisateurs. La technologie devra, par exemple, satisfaire à des exigences obligatoires en matière de gestion des risques, de qualité des données, de transparence, de supervision humaine et d'exactitude, tandis que les fournisseurs et les utilisateurs devront s'acquitter d'une série d'obligations, notamment en matière d'enregistrement, de gestion de la qualité, de suivi, de tenue de registres et de signalement des incidents.

    Il est également question d'une obligation de transparence dans le règlement : les entreprises doivent livrer un résumé des données d’entraînement des IA génératives, ce qui permet aux auteurs de savoir si leurs contenus ont été exploités et, le cas échéant de demander une compensation. Mais l'exécutif français est parvenu à intégrer la mention « secret des affaires » qui atténue l’obligation de transparence. Pour les acteurs du marché comme Mistral, publier le contenu de leur base de données pourrait favoriser leurs concurrents.

    Dans le cas des modèles d'IA à usage général qui présentent un « risque systémique », le texte évoque des obligations concernant l'évaluation des modèles et les tests contradictoires.

    La loi sur l’IA prévoit également un système de gouvernance avec des pouvoirs de contrôle au niveau de l’UE, ainsi qu’une obligation pour les utilisateurs de systèmes d’IA à haut risque de réaliser une évaluation d’impact sur les droits fondamentaux avant de mettre en œuvre un système d’IA.

    Enfin, a également été obtenue une révision régulière des différentes obligations du texte.

    Conclusion

    En décembre 2023, la présidence espagnole du Conseil et le Parlement européen ont annoncé qu’ils étaient parvenus à un « accord provisoire » sur la proposition de loi sur l’IA. Carme Artigas Brugal, secrétaire d'État espagnole à la numérisation et à l'intelligence artificielle, l'a formulé en ces termes :

    Il s'agit là d'une réalisation historique et d'un pas de géant vers l'avenir! L'accord conclu aujourd'hui répond efficacement à un défi mondial dans un environnement technologique en évolution rapide concernant un domaine clé pour l'avenir de nos sociétés et de nos économies. Et dans cette entreprise, nous sommes parvenus à maintenir un équilibre extrêmement délicat: encourager l'innovation et l'adoption de l'intelligence artificielle dans toute l'Europe tout en respectant pleinement les droits fondamentaux de nos citoyens.
    La prochaine étape du processus législatif consistait à fixer le libellé d’un texte de compromis et à le soumettre à l’approbation du Coreper. Avec le feu vert du Coreper, le texte proposé sera examiné par les députés européens qui siègent aux deux commissions du Parlement qui sont chargées du contrôle de la proposition de loi sur l’IA au nom du Parlement : les commissions du marché intérieur et de la protection des consommateurs et des libertés civiles, de la justice et des affaires intérieures. Si les deux commissions sont satisfaites du langage législatif, la proposition sera soumise au vote de tous les députés européens lors d’une session plénière du Parlement, probablement en avril, avant que le Conseil ne vote lui-même sur l’adoption du texte.

    Les législateurs mécontents, favorables à la protection de la vie privée, pourraient encore essayer d'entraver la progression de la loi en proposant des amendements qui, s'ils sont adoptés, devront faire l'objet de nouvelles négociations avec le Conseil. Mais la plupart des personnes qui ont travaillé sur la loi sur l'IA au sein du Parlement sont convaincues que la loi sera adoptée sans changement.

    L'AI Act devrait entrer en vigueur en 2025.

    Sources : Conseil de l'Union européenne, COMECE

    Et vous ?

    Quels sont les avantages et les inconvénients de la loi sur l’IA pour les citoyens européens ?
    La loi sur l’IA est-elle suffisamment claire et complète pour encadrer les différents usages de l’IA ?
    La loi sur l’IA permet-elle de garantir un niveau élevé de protection des droits fondamentaux et des valeurs de l’UE ?
    La loi sur l’IA favorise-t-elle la compétitivité et l’innovation des acteurs européens de l’IA ?
    La loi sur l’IA peut-elle servir de modèle pour d’autres régions du monde ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  18. #98
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 887
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 887
    Points : 36 958
    Points
    36 958
    Par défaut Un groupe de réflexion financé par les Big Tech rassure sur l'impact climatique de l'IA
    Un groupe de réflexion financé par les Big Tech affirme qu'il n'y a pas lieu de s'inquiéter de l'impact de l'IA sur le climat,
    soulevant des préoccupations quant à son impartialité dans cette question

    Le Center for Data Innovation (CDI), financé par des géants de la technologie tels qu'Intel, Microsoft, Google, Meta et AMD, a récemment avancé l'argument selon lequel les inquiétudes concernant l'impact environnemental de l'intelligence artificielle (IA) sont largement exagérées. Cette déclaration audacieuse a immédiatement suscité un débat intense sur la scène mondiale, mettant en lumière les divergences d'opinions quant aux conséquences écologiques de l'essor de l'IA.

    Le CDI soutient que l'infrastructure sous-jacente à l'IA, souvent critiquée pour sa consommation énergétique massive, ne représente pas une menace significative pour l'environnement. Selon eux, les inquiétudes actuelles sont exagérées, car les avancées technologiques constantes améliorent l'efficacité énergétique des systèmes d'IA. Ils soulignent également que l'adoption croissante des énergies renouvelables contribue à atténuer l'impact environnemental de ces technologies.

    Nom : Clim.jpg
Affichages : 6959
Taille : 32,4 Ko

    Avec le récent regain d'intérêt pour l'intelligence artificielle, les gens s'interrogent à nouveau sur la consommation d'énergie d'une technologie émergente. En l'occurrence, les critiques estiment que l'adoption rapide de l'IA, combinée à l'augmentation de la taille des modèles d'apprentissage profond, entraînera une hausse massive de la consommation d'énergie, avec un impact potentiellement dévastateur sur l'environnement.

    Toutefois, comme pour les technologies précédentes, bon nombre des premières affirmations concernant la consommation d'énergie de l'IA se sont révélées exagérées et trompeuses, selon le centre d'innovation en matière de données. Le rapport recommande aux décideurs politiques de répondre aux préoccupations quant à la consommation d'énergie de l'IA en prenant les mesures suivantes :

    • Élaborer des normes de transparence énergétique pour les modèles d'IA ;
    • Rechercher des engagements volontaires en matière de transparence énergétique pour les modèles de fondation ;
    • Prendre en compte les conséquences involontaires des réglementations de l'IA sur l'utilisation de l'énergie ;
    • Utiliser l'IA pour décarboniser les opérations gouvernementales.

    Le CDI affirme dans un rapport récent que l'IA pourrait même avoir un impact positif en remplaçant des processus moins efficaces et en optimisant d'autres. Le groupe souligne également une étude de l'université de Cornell, selon laquelle l'utilisation de l'IA pour écrire génère des émissions de CO2 bien inférieures à celles produites par des méthodes traditionnelles.

    Nom : Climat2.jpg
Affichages : 1212
Taille : 62,1 Ko
    Demande d'énergie estimée pour les différents modèles d'IA


    Le CDI suggère que l'IA pourrait contribuer à la réduction de la consommation d'énergie en prévoyant la demande du réseau, optimisant l'agriculture et surveillant les émissions de gaz à effet de serre. Cependant, des critiques soulignent que le rapport néglige les émissions de CO2 générées lors de l'entraînement des modèles et que la rapidité des améliorations en matière d'efficacité énergétique n'est pas garantie avec l'évolution de la technologie. Enfin, le CDI propose des normes de mesure volontaires pour l'empreinte énergétique de l'IA, encourageant la réglementation tout en mettant en garde contre des exigences excessives qui pourraient augmenter la consommation d'énergie.

    Les faits concernant la consommation d'énergie et les émissions de carbone de l'IA

    Les affirmations du Center for Data Innovation (CDI) concernant la consommation d'énergie et les émissions de carbone de l'IA suscitent des doutes, car la complexité des calculs rend difficile l'établissement d'estimations précises. Le CDI minimise les préoccupations envers l'impact environnemental de l'IA en citant des études qui, selon eux, exagèrent les données et en soulignant des comparaisons douteuses avec d'autres secteurs.

    Les études sur la consommation d'énergie des systèmes d'IA, y compris celle du CDI, semblent négliger la variabilité des facteurs tels que les puces, les systèmes de refroidissement, la conception des centres de données et les sources d'énergie, qui tous influent sur les résultats. La référence à une étude de l'université du Massachusetts Amherst, bien que informative, peut être remise en question en raison de son focus sur des modèles spécifiques sans considération suffisante pour la diversité des architectures et des charges de travail dans le domaine de l'IA.

    Le CDI critique également les titres sensationnalistes des médias, mais omet de reconnaître les préoccupations légitimes suscitées par les émissions de carbone liées à l'entraînement des modèles. Les comparaisons douteuses avec d'autres secteurs, telles que celles effectuées avec les émissions de CO2 d'un vol New York-San Francisco, peuvent être perçues comme une tentative de minimiser les impacts réels de l'IA sur le climat.

    En outre, le CDI semble négliger la nécessité de réglementer l'IA pour atténuer son empreinte environnementale, en préférant des normes volontaires qui pourraient permettre aux entreprises de contourner des responsabilités potentiellement nécessaires. L'appel à des investissements gouvernementaux dans l'IA sans un cadre réglementaire solide soulève des inquiétudes quant à la possibilité de favoriser des intérêts particuliers au détriment de l'environnement.

    Mesurer l'empreinte carbone ou la consommation d'énergie de quelque chose comme l'entraînement ou l'inférence d'un modèle d'IA est donc sujet à erreur, affirme sans ironie l'étude du CDI. Un exemple cité dans l'étude est celui d'un article de l'université du Massachusetts Amherst qui évalue l'empreinte carbone du modèle de traitement du langage naturel BERT de Google. Ces informations ont ensuite été utilisées pour estimer les émissions de carbone liées à la formation d'un modèle de recherche à architecture neuronale, ce qui a donné un résultat de 626 155 livres d'émissions de CO2.


    De nombreux experts et militants écologiques contestent vigoureusement les affirmations du Center for Data Innovation. Ils mettent en avant le fait que l'expansion rapide de l'IA, en particulier dans des domaines tels que l'apprentissage profond et les modèles de grande envergure, entraîne une demande croissante en puissance de calcul. Cette demande peut intensifier la pression sur les ressources énergétiques, notamment si elle est alimentée par des sources non renouvelables.

    De plus, certains critiques soulignent que le CDI a des liens financiers avec les entreprises technologiques qu'il défend, soulevant ainsi des préoccupations quant à son impartialité dans cette question complexe.

    Sources : Center for Data Innovation, Cornell University study, University of Massachusetts Amherst document

    Et vous ?

    Quel est votre avis sur le sujet ?

    Pensez-vous que les intérêts financiers des grandes entreprises technologiques peuvent-ils influencer les conclusions du CDI et biaiser le débat sur l'impact environnemental de l'IA ?

    Dans quelle mesure la transparence du CDI dans ses sources de financement peut-elle affecter la crédibilité de ses conclusions et la perception générale du débat sur l'impact environnemental de l'IA ?

    Voir aussi :

    L'IA sera-t-elle une catastrophe pour le climat ? Examens de ses répercussions environnementales, les outils d'IA, comme ChatGPT, sont reconnue comme énergivore

    L'IA générative n'aura besoin que de deux centrales électriques pour maintenir ses applications en 2024, selon Sergey Edunov, cadre de Meta

    Le ChatBot IA ChatGPT consomme plus d'énergie et d'eau qu'une recherche traditionnelle sur Internet, d'après une étude de l'Université de Californie
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  19. #99
    Membre émérite
    Homme Profil pro
    Étudiant
    Inscrit en
    Novembre 2021
    Messages
    1 090
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Drôme (Rhône Alpes)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Novembre 2021
    Messages : 1 090
    Points : 2 935
    Points
    2 935
    Par défaut
    Encore une étude de greenwashing

  20. #100
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 541
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 541
    Points : 199 416
    Points
    199 416
    Par défaut Les législateurs de l'UE ratifient l'accord politique sur les règles relatives à l'intelligence artificielle
    Les législateurs de l'UE ratifient l'accord politique sur les règles relatives à l'IA,
    un fonctionnaire de l'UE a été bombardé de SMS et de courriels provenant de lobbyistes et de groupes industriels

    Deux groupes clés de législateurs au Parlement européen ont ratifié mardi un accord provisoire sur des règles historiques en matière d'intelligence artificielle, avant un vote de l'assemblée législative en avril qui ouvrira la voie à la première législation au monde sur cette technologie. Appelées "AI Act", les nouvelles règles visent à établir des garde-fous pour une technologie utilisée dans un large éventail d'industries, allant de la banque à l'automobile en passant par les produits électroniques et les compagnies aériennes, ainsi qu'à des fins de sécurité et de police.

    Les règles régiront également les modèles de fondation ou l'IA générative, comme celle construite par OpenAI, soutenue par Microsoft, qui sont des systèmes d'IA formés sur de grands ensembles de données, avec la capacité d'apprendre à partir de nouvelles données pour effectuer diverses tâches.


    Le boom de l’IA générative a poussé les gouvernements du monde entier à se démener pour réglementer la technologie émergente, mais il a également accru le risque de bouleverser les efforts de l’Union européenne visant à approuver les premières règles globales en matière d’intelligence artificielle au monde.

    Le projet de loi sur l’intelligence artificielle (ou AI Act en anglais) de l'UE a été salué comme un règlement pionnier. Mais comme le temps presse, il n’est pas certain que les pays membres parviendront à parvenir à un accord dans ce que les responsables espèrent être un dernier cycle de négociations à huis clos.

    Les efforts déployés depuis des années par l’Europe pour élaborer des garde-fous en matière d’IA ont été entravés par l’émergence récente de systèmes d’IA génératifs comme ChatGPT d’OpenAI, qui ont ébloui le monde par leur capacité à produire un travail de type humain, mais ont suscité des craintes quant aux risques qu’ils posent.

    Ces préoccupations ont poussé les États-Unis, le Royaume-Uni, la Chine et des coalitions mondiales comme le Groupe des 7 grandes démocraties dans la course pour réglementer cette technologie en développement rapide, même s’ils sont encore derrière l’Europe dans la matière.

    L’AI Act vise à répondre aux préoccupations croissantes concernant l’IA, tout en favorisant sa croissance et son développement responsables au sein du bloc européen. Au cœur de la législation se trouvent quatre principes clés : la transparence, la surveillance humaine, la sécurité et le respect des droits fondamentaux.

    « L'Europe s'est positionnée comme un pionnier, comprenant l'importance de son rôle de normalisateur mondial », a déclaré dans un communiqué Thierry Breton, le commissaire européen qui a aidé à négocier l'accord.

    Pourtant, même si la loi a été saluée comme une avancée réglementaire, des questions subsistaient quant à son efficacité. De nombreux aspects de cette politique ne devraient pas entrer en vigueur avant 12 à 24 mois, un délai considérable pour le développement de l'IA. Et jusqu'à la dernière minute des négociations, les décideurs politiques et les pays se sont battus sur le texte et sur la manière de trouver un équilibre entre la promotion de l'innovation et la nécessité de se prémunir contre d'éventuels dommages.

    L'Ue parvient à un accord provisoire sur des règles régissant l'utilisation de l'intelligence artificielle

    Les commissions du Parlement européen chargées des libertés civiles (LIBE) et du marché intérieur (IMCO) ont approuvé à une écrasante majorité le projet de législation établissant un cadre fondé sur les risques pour réglementer les applications de l'intelligence artificielle. Les commissions ont voté par 71 voix contre 8 (avec 7 abstentions) en faveur du compromis négocié avec les États membres de l'UE à la fin de l'année dernière lors de longs pourparlers en trilogue.

    Nom : 86.png
Affichages : 4135
Taille : 468,1 Ko

    La loi européenne sur l'IA, proposée à l'origine par la Commission en avril 2021, établit des règles pour les développeurs d'IA en fonction de la puissance de leurs modèles et/ou de l'objectif pour lequel ils ont l'intention d'appliquer l'IA.

    Elle comprend une liste d'utilisations interdites de l'IA, notamment :
    • les systèmes de catégorisation biométrique utilisant des caractéristiques sensibles (par exemple: opinions politiques, religieuses, philosophiques, orientation sexuelle, race));
    • l'extraction non ciblée d’images faciales sur Internet ou par vidéosurveillance pour créer des bases de données de reconnaissance faciale
    • la reconnaissance des émotions sur le lieu de travail et les établissements d’enseignement;
    • la notation sociale basée sur le comportement social ou les caractéristiques personnelles ;
    • les systèmes d'IA qui manipulent le comportement humain pour contourner le libre arbitre ;
    • l'IA utilisée pour exploiter les vulnérabilités des personnes (en raison de leur âge, de leur handicap, de leur situation sociale ou économique).

    Pour les systèmes d’IA classés comme présentant un risque élevé (en raison de leur préjudice potentiel important pour la santé, la sécurité, les droits fondamentaux, l’environnement, la démocratie et l’État de droit), des obligations strictes ont été convenues. Les députés ont réussi à inclure une analyse d’impact obligatoire sur les droits fondamentaux, entre autres exigences, également applicable au secteur bancaire et des assurances. Les systèmes d’IA utilisés pour influencer le résultat des élections et le comportement des électeurs sont également classés comme étant à haut risque.

    Les citoyens auront le droit de déposer des plaintes concernant les systèmes d'IA et de recevoir des explications sur les décisions basées sur des systèmes d'IA à haut risque qui ont une incidence sur leurs droits.

    Le plan prévoit également la mise en place de bacs à sable réglementaires au niveau national pour permettre aux développeurs de mettre au point, de former et de tester des applications à risque dans un environnement « réel » supervisé.

    Un responsable européen bombardé de messages par les lobbyistes

    Le déluge de règles et la possibilité d'en ajouter d'autres ont ouvert un nouveau front de bataille pour les entreprises qui développent et utilisent l'intelligence artificielle.

    Des centaines de milliards de dollars en termes de chiffre d'affaires et de valeur marchande des entreprises sont en jeu. Il en va de même pour les intérêts nationaux. Les pays mettent en balance la protection de leurs citoyens contre des dangers tels que les violations de la vie privée, les armes biologiques et les cyberattaques à grande échelle, et leur désir de devenir des leaders dans le domaine de la technologie afin de stimuler leurs économies et leurs armées dans la course mondiale aux armements, qui revêt une importance capitale.

    Pour les régulateurs américains et européens, l'énigme est la suivante : une réglementation trop légère pourrait créer des dangers inattendus, tandis qu'une réglementation trop lourde pourrait étouffer l'innovation - l'argument central avancé par les investisseurs et les dirigeants du secteur technologique pour justifier la relative liberté d'action des entreprises.

    Dragos Tudorache, le principal négociateur de l'UE, affirme avoir été bombardé de SMS et d'e-mails de lobbyistes et de groupes industriels reprenant les arguments des entreprises technologiques, « demandant des centaines, des centaines et des centaines de réunions ». Cela ne surprend pas les experts en IA. « Ces entreprises ont plus de pouvoir que jamais », déclare Luciano Floridi, directeur fondateur du nouveau centre d'éthique numérique de l'université de Yale. « Elles sont plus riches que quelques centaines de pays dans le monde ».

    Le spectre qui planait sur les négociations de Bruxelles était de savoir si les modèles fondamentaux d'IA des entreprises - ceux qui, comme le chatbot d'IA ChatGPT, peuvent être utilisés pour une variété presque infinie d'objectifs - pouvaient causer de graves dommages entre les mains d'acteurs malveillants. Cette crainte s'est considérablement accrue avec la popularité explosive de ChatGPT, lancé par OpenAI en 2022. La France et l'Allemagne se sont battues pour protéger leurs propres champions de l'IA, en particulier la startup parisienne Mistral AI (fondée par d'anciens scientifiques de Meta et de Google) et Aleph Alpha en Allemagne, qui ont toutes deux levé des centaines de millions de dollars en capital-risque.

    De plus, l'IA évoluant à une vitesse fulgurante, les réglementations actuellement débattues dans le monde entier pourraient bientôt être obsolètes. « Vous essayez de réglementer une cible mouvante que très peu de gens sont techniquement compétents pour comprendre, et les agences gouvernementales ont du mal à attirer les bonnes compétences pour réglementer efficacement », a déclaré Bill Whyman, président de Tech Dynamics, une société de conseil aux entreprises technologiques basée à Washington, D.C. « Vous ne savez pas ce que vous allez obtenir en fin de compte, lorsque vous ouvrirez la boîte de Pandore de la réglementation ».

    Conclusion

    La proposition de la Commission relative à un règlement sur l'IA n'a pas fait grand bruit lorsque l'UE l'a présentée il y a trois ans. Mais avec l'essor de l'IA générative au cours de l'année écoulée, le projet s'est retrouvé sous les feux des projecteurs et a creusé des fossés entre les législateurs de l'Union européenne. Les députés européens ont proposé d'amender la proposition pour s'assurer qu'elle s'applique aux puissantes IA à usage général, tandis qu'une poignée d'États membres, menés par la France, ont poussé dans la direction opposée, cherchant à obtenir une exception réglementaire pour les IA avancées dans l'espoir d'encourager les champions nationaux.

    Le trilogue marathon de décembre a débouché sur un texte de compromis qui comprenait encore certaines dispositions relatives aux IA à usage général, ce qui a suscité l'opposition persistante de certains gouvernements. Le mois dernier encore, ces divisions semblaient pouvoir faire dérailler l'adoption du projet de loi. Mais avec un vote critique des États membres sur le texte de compromis passé au début du mois, l'Union semble presque certaine d'adopter son règlement phare sur l'IA d'ici quelques mois.

    Cela dit, le projet de loi doit encore franchir quelques étapes avant d'être adopté : dans les semaines à venir, les députés européens seront invités à voter en séance plénière pour l'adopter formellement. Il y aura ensuite un vote final du Conseil.

    Toutefois, ces dernières étapes semblent moins susceptibles d'entraîner des bouleversements entre les colégislateurs de l'UE. En effet, les élections législatives approchent et le mandat du collège actuel touche à sa fin, ce qui signifie que le temps législatif et la marge de manœuvre en matière de réputation sont limités.

    Source : communiqué de presse du Parlement européen

    Et vous ?

    Quels sont les avantages et les inconvénients de la régulation de l’IA pour l’Europe et pour le monde ?
    Comment concilier l’innovation et l’éthique dans le domaine de l’IA ?
    Quels sont les risques et les opportunités de l’IA pour la société, l’économie, la sécurité et l’environnement ?
    Quel rôle devraient jouer les citoyens, les entreprises, les organisations et les institutions dans la gouvernance de l’IA ?
    Quels sont les principes et les valeurs qui devraient guider le développement et l’utilisation de l’IA ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Réponses: 284
    Dernier message: 19/05/2024, 00h47
  2. Réponses: 2
    Dernier message: 20/10/2020, 16h13
  3. Réponses: 7
    Dernier message: 19/04/2020, 14h46
  4. Réponses: 2
    Dernier message: 04/12/2019, 11h35
  5. Les Etats-Unis veulent réglementer le commerce de failles logicielles
    Par Michael Guilloux dans le forum Actualités
    Réponses: 12
    Dernier message: 29/05/2015, 22h05

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo