1 pièce(s) jointe(s)
Intelligence artificielle : la feuille de route du Parlement européen
Intelligence artificielle : la feuille de route du Parlement européen
l'UE veut porter les investissements dans le secteur de l'IA à 20 milliards d'euros d'ici 2030
Le Parlement européen a adopté le 3 mai un rapport sur l'intelligence artificielle, qui établit une liste de demandes visant à garantir la position de l'UE dans le domaine de l'IA, et désigne la recherche comme l'un des principaux moyens d'atteindre cet objectif. Le rapport vise notamment à établir une feuille de route pour l'intelligence artificielle (IA) à l'horizon 2030, avec plus de 150 recommandations politiques sur la gouvernance, le partage des données, l'infrastructure numérique, l'investissement, l'e-santé, l'e-gouvernance, l'industrie et la sécurité.
Le rapport en question est l'aboutissement d'un an et demi de travail de la commission spéciale du Parlement sur l'IA (AIDA). Il alimentera les travaux sur la future loi sur l'IA, première réglementation majeure de l'IA au niveau mondial, qui fixera des règles pour les utilisations de l'IA en fonction de leur niveau de risque. Les députés européens estiment que l'UE doit agir rapidement pour établir des règles claires en matière d'IA si elle veut avoir son mot à dire sur l'avenir de cette technologie. « Nous avons l'occasion de fixer des normes mondiales », a déclaré le rapporteur du Parlement pour le dossier, Axel Voss, lors du dernier débat en plénière.
« Si nous nous permettons de perdre notre position de leader, nous nous résignerons au statut de colonies numériques assujetties à d'autres régions qui ne partagent pas nos valeurs », a-t-il ajouté. En l'état actuel des choses, les États-Unis sont en tête de la course à l'IA en matière d'investissements, de recherche et d'attraction de talents, tandis que leurs entreprises sont le fer de lance du développement technologique. La Chine est derrière les États-Unis, mais elle rattrape son retard. L'UE a encore du chemin à parcourir, mais les décideurs politiques pensent qu'avec des réglementations claires et un effort d'investissement, elle peut rattraper ses concurrents.
Le rapport de l'AIDA désigne la recherche comme l'un des principaux moyens d'atteindre cet objectif. L'objectif est de porter les investissements publics et privés à 20 milliards d'euros d'ici à la fin de la décennie. Aujourd'hui, ils s'élèvent à 14 milliards d'euros. Si le Parlement européen souhaite que davantage de fonds soient alloués à la recherche, il estime que des règles claires doivent d'abord être définies. L'UE estime en effet que la fragmentation du marché est le principal obstacle qu'il faut franchir. « L'obstacle majeur est certainement la fragmentation du marché, qui affecte à son tour les investissements et la recherche », a déclaré Voss.
« En l'absence d'un marché unique numérique véritablement harmonisé, le manque d'investissements transfrontaliers qui en résulte ainsi que l'échange transfrontalier de données interdisent toute forme d'innovation », a-t-il ajouté. Pour résoudre ce problème, comme exposé dans le rapport, le Parlement veut augmenter les investissements de l'UE dans l'IA et d'autres technologies clés. Le Parlement souhaite que les États membres stimulent également les investissements, à la fois dans le cadre de leurs budgets nationaux et en renforçant les programmes européens de recherche et de numérisation, Horizon Europe et Digital Europe.
Pour faciliter la vie des chercheurs, le Parlement invite la Commission européenne à "simplifier la structure du financement de la recherche, y compris les exigences et les processus de demande de subventions". Cela devrait aller de pair avec l'amélioration de la qualité et de la cohérence des examens des propositions afin de garantir que les bons projets soient financés au bon moment. En matière d'éducation, le Parlement souhaite que les universités offrent davantage de postes d'enseignants en IA, assortis de salaires adéquats. En outre, des infrastructures de soutien sont également nécessaires pour atteindre ces objectifs.
À cet effet, les députés invitent la Commission à créer des centres de données sur l'IA et soulignent l'importance des sites d'essai. La coopération entre les institutions sera essentielle pour établir des pôles d'excellence capables d'attirer les talents. Pour cela, le Parlement demande à la Commission d'établir des phares de l'IA dans le cadre d'Horizon Europe, afin de former des réseaux d'organisations de recherche qui sont impliquées dans l'IA. Voss a déclaré que les phares, voire les régions phares, sont un moyen de mettre en commun et de combiner les ressources européennes afin de permettre l'innovation au-delà des frontières.
Selon lui, cela permettrait également de tester de nouveaux produits et de nouvelles idées, en dehors de règles et de procédures fragmentées. La Commission travaille déjà sur un réseau de centres d'excellence en IA. Margrethe Vestager, vice-présidente de la Commission chargée de la politique numérique, a déclaré que cela visait « à rassembler l'excellence, car nous savons que le talent attire le talent, et si nous voulons que les meilleurs viennent ici, nous devons investir ». Enfin, tous ces efforts devraient être axés sur une IA durable et socialement responsable, en accord avec les valeurs de l'UE.
En somme, le rapport préconise une approche de l'IA centrée sur l'homme et digne de confiance, fondée sur les droits fondamentaux, qui gère efficacement les risques connexes, notamment l'identification des risques pour le droit à la vie privée, tout en libérant le potentiel de l'IA. À cet égard, le rapport formule un certain nombre de recommandations relatives à un cadre juridique pour l'IA, qui alimenteront les travaux à venir sur la proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées en matière d'intelligence artificielle ("loi sur l'IA").
Cette loi doit être votée par les commissions du marché intérieur et de la protection des consommateurs ("IMCO") et des libertés civiles, de la justice et des affaires intérieures (LIBE) en septembre 2022. Notamment, le rapport souligne l'importance de faire la distinction entre les systèmes d'IA à haut risque et à faible risque, concluant que la première catégorie nécessite des garanties législatives supplémentaires strictes, tandis que les cas d'utilisation à faible risque peuvent, dans de nombreux cas, nécessiter des exigences de transparence pour les utilisateurs finaux et les consommateurs.
La loi sur l'IA fera suite à d'autres règlements de l'UE dans la sphère numérique que la Commission a enchaînés ces derniers mois. Il s'agit notamment de la loi sur les services numériques (DSA) et de la loi sur les marchés numériques (DMA) visant à limiter l'influence des grandes entreprises technologiques, qui ont été adoptées par les décideurs politiques ces dernières semaines. La loi sur l'IA devrait être négociée au début de l'année prochaine.
Source : Rapport de l'AIDA
Et vous ?
:fleche: Quel est votre avis sur le sujet ?
:fleche: Que pensez-vous de la feuille de route du Parlement européen ?
:fleche: Ces propositions permettront-elles à l'UE de rattraper son retard sur la Chine et les États-Unis ?
Voir aussi
:fleche: L'UE se prépare à construire un énorme système international de reconnaissance faciale, des propositions de loi permettent aux forces de police de l'UE de relier leurs bases de données photos
:fleche: La Commission européenne annonce l'Alliance européenne pour les données et le cloud, elle contribuera à façonner la prochaine génération de services, d'infrastructures et de cloud sécurisé
:fleche: Les autorités antitrust de l'UE interrogent les rivaux et les clients de Microsoft sur ses activités de cloud computing et ses accords de licence, ce qui pourrait conduire à une enquête formelle
:fleche: L'UE cherche à établir des normes mondiales pour l'utilisation de l'IA, mais des groupes de défense des droits civils s'inquiètent
1 pièce(s) jointe(s)
La loi européenne sur l'IA peut avoir un effet dissuasif sur les efforts en matière de logiciels libres.
La loi européenne sur l'intelligence artificielle peut avoir un effet dissuasif sur les efforts en matière de logiciels libres,
avertissent les experts de la Brookings Institution
Le groupe de réflexion non partisan Brookings Institution a publié cette semaine un article décriant la réglementation de l'IA open source de l'Union européenne, affirmant qu'elle créerait une responsabilité juridique pour les systèmes d'IA à usage général tout en nuisant à leur développement. Selon le projet de loi sur l'IA de l'UE, les développeurs de logiciels libres devraient respecter des lignes directrices en matière de gestion des risques, de gouvernance des données, de documentation technique et de transparence, ainsi que des normes de précision et de cybersécurité. Les règles proposées par l'UE pourraient limiter le type de recherche qui produit des outils d'IA de pointe comme GPT-3, avertissent les experts dans une nouvelle étude.
La réglementation de l'IA à usage général est débattue par les organes législatifs de l'Union européenne, qui travaillent sur la loi sur l'IA. Une proposition de modification émanant du Conseil de l'UE prendrait la mesure inhabituelle, et néfaste, de réglementer l'IA à code source ouvert. Et, d’après le groupe de réflexion non partisan Brookings, bien que cette mesure vise à permettre une utilisation plus sûre de ces outils, cette proposition créerait une responsabilité juridique pour les modèles d’IA à usage général à code source ouvert, ce qui nuirait à leur développement. Cela pourrait concentrer davantage le pouvoir sur l'avenir de l'IA dans les grandes entreprises technologiques et empêcher la recherche qui est essentielle à la compréhension de l'IA par le public.
Si une entreprise devait déployer un système d'IA open source dont le résultat serait désastreux, il n'est pas inconcevable qu'elle puisse tenter de se dégager de sa responsabilité en poursuivant les développeurs open source sur lesquels elle a construit son produit. « Cela pourrait concentrer davantage le pouvoir sur l'avenir de l'IA dans les grandes entreprises technologiques et empêcher la recherche qui est essentielle à la compréhension de l'IA par le public. En fin de compte, la tentative de l'UE de réglementer l'open-source pourrait créer un ensemble d'exigences alambiquées qui mettent en danger les contributeurs d'IA open-source, probablement sans améliorer l'utilisation de l'IA à usage général », écrit Alex Engler, l'analyste de Brookings qui a publié l'article.
En 2021, la Commission européenne, le bras exécutif politiquement indépendant de l'UE, a publié le texte de la loi sur l'IA, qui vise à promouvoir le déploiement d'une « IA digne de confiance » dans l'UE, alors qu'ils sollicitent les commentaires de l'industrie avant un vote cet automne. Les institutions cherchent à apporter des modifications aux règlements qui tentent d'équilibrer l'innovation et la responsabilité. Mais selon certains experts, la loi sur l'IA, telle qu'elle est rédigée, imposerait des exigences onéreuses aux efforts ouverts de développement de systèmes d'IA. La législation prévoit des exceptions pour certaines catégories d'IA open source, comme celles utilisées exclusivement pour la recherche et avec des contrôles pour éviter les abus. Mais, comme le fait remarquer Engler, il serait difficile, voire impossible, d'empêcher ces projets d'être intégrés dans des systèmes commerciaux, où ils pourraient être utilisés par des acteurs malveillants.
Dans un exemple récent, Stable Diffusion, un système d'IA open source qui génère des images à partir d'invites textuelles, a été publié avec une licence interdisant certains types de contenu. Mais il a rapidement trouvé un public au sein de communautés qui utilisent de tels outils d'IA pour créer des deepfakes pornographiques de célébrités. Oren Etzioni, PDG fondateur de l'Institut Allen pour l'IA, reconnaît que la version actuelle de la loi sur l'IA est problématique. Dans une interview , Etzioni a déclaré que les charges introduites par les règles pourraient avoir un effet dissuasif sur des domaines tels que le développement de systèmes ouverts de génération de texte, qui, selon lui, permettent aux développeurs de « rattraper » les entreprises Big Tech comme Google et Meta.
« La route vers l'enfer de la réglementation est pavée des bonnes intentions de l'UE. Les développeurs de logiciels libres ne devraient pas être soumis au même fardeau que ceux qui développent des logiciels commerciaux. Il devrait toujours être possible de fournir un logiciel libre 'tel quel' - prenons le cas d'un étudiant seul qui développe une capacité d'IA ; il n'a pas les moyens de se conformer aux réglementations de l'UE et peut être contraint de ne pas distribuer son logiciel, ce qui a un effet dissuasif sur les progrès universitaires et sur la reproductibilité des résultats scientifiques, a déclaré Etzioni».
Au lieu de chercher à réglementer les technologies de l'IA de manière générale, les régulateurs de l'UE devraient se concentrer sur des applications spécifiques de l'IA, affirme Etzioni. « Il y a trop d'incertitude et de changements rapides dans l'IA pour que le processus réglementaire lent soit efficace. Au lieu de cela, les applications de l'IA telles que les véhicules autonomes, les bots ou les jouets devraient faire l'objet d'une réglementation », a-t-il déclaré.
Tous les praticiens ne pensent pas que la loi sur l'IA a besoin d'être encore modifiée
Mike Cook, un chercheur en IA qui fait partie du collectif Knives and Paintbrushes, pense qu'il est « parfaitement correct » de réglementer l'IA open source « un peu plus lourdement » que nécessaire. Selon lui, l'établissement d'une norme, quelle qu'elle soit, peut être un moyen de montrer la voie à suivre au niveau mondial, en espérant que d'autres suivront. « Les discours alarmistes sur l'étouffement de l'innovation proviennent principalement de personnes qui veulent supprimer toute réglementation et avoir le champ libre, et ce n'est généralement pas un point de vue auquel j'accorde beaucoup d'importance. Je pense qu'il est normal de légiférer au nom d'un monde meilleur, plutôt que de s'inquiéter de savoir si votre voisin va réglementer moins que vous et en tirer profit d'une manière ou d'une autre, a déclaré Cook.
Une analyse rédigée par Lilian Edwards, professeur de droit à la Newcastle School et conseiller juridique à temps partiel à l'Institut Ada Lovelace, se demande si les fournisseurs de systèmes tels que les grands modèles de langage à code source ouvert (par exemple GPT-3) pourraient être responsables après tout en vertu de la loi sur l'IA. Selon Edwards, le libellé de la législation fait peser la responsabilité de la gestion des utilisations et de l'impact d'un système d'IA sur les diffuseurs en aval, et pas nécessairement sur le développeur initial. « La façon dont les déployeurs en aval utilisent l'IA et l'adaptent peut être aussi importante que la façon dont elle est construite à l'origine. La loi sur l'IA en tient compte dans une certaine mesure, mais pas suffisamment, et ne parvient donc pas à réglementer de manière appropriée les nombreux acteurs qui s'impliquent de diverses manières 'en aval' dans la chaîne d'approvisionnement de l'IA, écrit Edwards.
Chez la startup d'IA Hugging Face, le PDG Clément Delangue, le conseiller Carlos Muñoz Ferrandis et l'experte en politique Irene Solaiman disent qu'ils accueillent favorablement les réglementations visant à protéger les garanties des consommateurs, mais que la loi sur l'IA telle que proposée est trop vague. Par exemple, ils disent qu'il n'est pas clair si la législation s'applique aux modèles d'apprentissage automatique "préentraînés" au cœur des logiciels d'IA ou seulement aux logiciels eux-mêmes. « Ce manque de clarté, associé au non-respect des initiatives de gouvernance communautaire en cours, telles que les licences d'IA ouvertes et responsables, pourrait entraver l'innovation en amont, tout en haut de la chaîne de valeur de l'IA, ce qui est une grande priorité pour nous à Hugging Face. Du point de vue de la concurrence et de l'innovation, si vous imposez déjà des charges trop lourdes sur les fonctionnalités ouvertement publiées au sommet du flux d'innovation de l'IA, vous risquez d'entraver l'innovation incrémentale, la différenciation des produits et la concurrence dynamique, cette dernière étant essentielle sur les marchés technologiques émergents tels que ceux liés à l'IA... Le règlement devrait tenir compte de la dynamique d'innovation des marchés de l'IA et ainsi identifier clairement et protéger les sources essentielles d'innovation sur ces marchés », ont déclaré Delangue, Ferrandis et Solaiman dans une annonce commune.
Quant à Hugging Face, l'entreprise plaide pour des outils de gouvernance de l'IA améliorés, quel que soit le langage final de la loi sur l'IA, comme des licences d'IA « responsables » et des cartes modèles qui incluent des informations telles que l'utilisation prévue d'un système d'IA et son fonctionnement. Delangue, Ferrandis et Solaiman soulignent que l'octroi de licences responsables commence à devenir une pratique courante pour les principales versions de l'IA, comme le modèle linguistique OPT-175 de Meta. « L'innovation ouverte et l'innovation responsable dans le domaine de l'IA ne sont pas des objectifs qui s'excluent mutuellement, mais plutôt des objectifs complémentaires. L'intersection entre les deux devrait être une cible centrale des efforts de réglementation en cours, comme elle l'est actuellement pour la communauté de l'IA », ont déclaré Delangue, Ferrandis et Solaiman. Cela pourrait bien être réalisable. Compte tenu des nombreuses parties mobiles impliquées dans l'élaboration de la réglementation européenne et il faudra probablement des années avant que la réglementation de l'IA dans le bloc ne commence à prendre forme.
Source : Brookings Institution
Et vous ?
:fleche: Quel est votre avis sur le sujet ?
Voir aussi :
:fleche: L'organisation européenne des consommateurs estime que la proposition de loi de l'Europe sur l'IA est faible, en matière de protection des consommateurs
:fleche: Intelligence artificielle : la feuille de route du Parlement européen, l'UE veut porter les investissements dans le secteur de l'IA à 20 milliards d'euros d'ici 2030
1 pièce(s) jointe(s)
Le PDG de GitHub veut que les développeurs de logiciels libres soient exemptés de la loi européenne sur l'IA
Le PDG de GitHub explique pourquoi les développeurs de logiciels libres devraient être exemptés de la loi européenne sur l'IA
ajoutant que cela pourrait aider l'UE à devenir le leader du secteur
Thomas Dohmke, PDG de GitHub, estime que le projet de loi sur le développement et la recherche sur l'IA (AI Act) que l'Union européenne s'apprête à voter ne devrait pas s'appliquer aux développeurs de logiciels libres. Partant du fait que l'open source constitue le fondement de l'IA en Europe, Dohmke a déclaré que les nouvelles règles impacteraient négativement les développeurs et limiteraient leur capacité à entraîner efficacement leurs systèmes d'IA. En outre, il estime que l'Europe peut toujours prendre la tête de file dans le développement et la recherche et sur l'IA, à condition qu'elle n'impose pas des règles trop contraignantes aux acteurs du domaine.
La loi de l'UE sur l'intelligence artificielle (AI Act) a été initialement proposée en avril 2021 pour faire face à l'influence grandissante de l'IA dans notre vie quotidienne. Les règles régiraient les applications de l'IA en fonction des risques perçus, et seraient effectivement les premières lois axées sur l'IA introduites par un organisme de réglementation majeur. Le Parlement européen devrait voter sur une version préliminaire de la loi sur l'IA dans les mois à venir, et en fonction des discussions et des débats qui suivront, elle pourrait être adoptée d'ici la fin de 2023. Cependant, tout le monde n'est pas enthousiasmé par les règles qu'introduirait cette loi.
C'est le cas du PDG de GitHub, Thomas Dohmke. Pour lui, les développeurs de logiciels libres devraient être exemptés de la nouvelle réglementation de l'UE sur l'IA. « L'open source constitue le fondement de l'IA en Europe. Les États-Unis et la Chine ne sont pas obligés de tout gagner », a-t-il déclaré sur la scène du sommet politique de l'UE sur l'open source à Bruxelles. En effet, l'open source et l'IA sont intrinsèquement liés, étant donné que la collaboration et le partage des données sont essentiels au développement des systèmes d'IA. Ainsi, les critiques de la loi sur l'IA craignent qu'elle nuise au développement de l'IA et entrave les progrès dans le domaine.
Aussi bien intentionnée que soit la loi de l'UE sur l'IA, Dohmke et d'autres détracteurs estiment qu'elle pourrait probablement créer une responsabilité juridique pour les systèmes d'IA à usage général, et conférerait davantage de pouvoir et de contrôle aux Big Tech, étant donné que les développeurs indépendants de logiciels libres n'ont pas les ressources nécessaires pour faire face aux querelles juridiques. Cependant, pourquoi GitHub - une société américaine qui pèse environ 7,5 milliards de dollars appartenant au géant des logiciels Microsoft - s'inquiète-t-elle des réglementations en vigueur de l'autre côté de l'Atlantique ? Les raisons sont multiples.
Les logiciels libres sont par nature distribués, et GitHub, qui a récemment annoncé avoir dépassé les 100 millions d'utilisateurs, s'appuie sur des développeurs du monde entier. Un rapport publié la semaine dernière par la société de capital-risque Runa Capital indique que 58 % des startups du secteur de l'open source qui connaissent la plus forte croissance sont basées en dehors des États-Unis, notamment en Allemagne, en France et au Royaume-Uni. Il est important de rappeler que le Royaume-Uni n'est pas régi par la réglementation européenne. Ainsi, les analystes estiment qu'une fois votée, la loi de l'UE sur l'IA pourrait avoir les mêmes effets que le RGPD.
Avec son RGPD (le règlement GDPR sur la protection des données), l'Europe s'est imposée comme une force motrice en matière de réglementation des technologies. En d'autres termes, ce qui se passe en Europe peut se répercuter dans d'autres pays et devenir rapidement une norme mondiale. Entrée en vigueur dans l'UE en mai 2018, le RGPD sert de guide et de modèle dans plusieurs juridictions dans le monde. Il a également inspiré d'autres règlements typiques comme la loi californienne sur la protection des données personnelles du consommateur (California Consumer Privacy Act, CCPA). Plusieurs projets de loi de ce type sont à l'étude dans le monde.
« La loi sur l'IA est tellement cruciale. Cette politique pourrait bien établir le précédent sur la façon dont le monde réglemente l'IA. Elle est d'une importance capitale. Elle est importante pour le leadership de l'Europe dans le domaine technologique, et pour l'avenir de l'économie européenne elle-même. Elle doit être juste et équilibré pour la communauté open source », a déclaré Dohmke sur scène. Toutefois, tout le monde n'est pas d'accord avec le point de vue de Dohmke. Certains estiment que la loi de l'UE sur l'IA devrait s'appliquer à tous, car elle vise à créer un cadre "idéal" pour le développement de systèmes d'IA "éthiques et responsables".
« Si l'open source constitue le fondement de l'IA en Europe, il devrait être la cible première de la loi européenne sur l'IA, et non en être exempté. Apparemment, l'avis de Dohmke est que les réglementations sont destinées à choisir les gagnants et les perdants, et non à être un avantage pour la société. Et qu'y a-t-il de mal à rendre des comptes ? La dernière chose dont on a besoin est d'exempter certains développeurs afin qu'ils puissent concourir plus facilement tout en n'étant pas responsables de ce que leur négligence pourrait causer », a écrit un critique en réponse aux commentaires du PDG de GitHub sur le projet de loi de l'UE sur l'IA.
Selon les analystes, Microsoft et GitHub ont tout à gagner d'un paysage open source fertile, comme en témoigne leur outil Copilot, potentiellement lucratif, qui aide les développeurs à coder en utilisant une technologie formée sur le travail des développeurs open source. Toutefois, Microsoft, GitHub et le laboratoire de recherche en IA OpenAI, dans lequel Microsoft a fortement investi, font l'objet d'un recours collectif pour leurs activités. En outre, le commissaire européen au marché intérieur, Thierry Breton, a déclaré que les applications transformatrices et de grande envergure de ChatGPT soulignaient la nécessité d'une réglementation solide.
« Comme l'a montré ChatGPT, les solutions d'IA peuvent offrir de grandes opportunités aux entreprises et aux citoyens, mais peuvent également présenter des risques. C'est pourquoi nous avons besoin d'un cadre réglementaire solide pour garantir une IA digne de confiance basée sur des données de haute qualité », a déclaré Thierry Breton à Reuters lors d'une récente interview. Selon les analystes, à peu près tout le monde de l'IA tel que nous le connaissons aujourd'hui a été construit sur une base open source. Ainsi, quiconque a un intérêt à commercialiser l'IA a besoin du statu quo open source pour continuer à développer ses systèmes.
Les grandes entreprises technologiques, y compris Google et Microsoft, reconnaissent qu'elles pourraient avoir plus de batailles juridiques sur les bras en raison de la réglementation imminente de l'IA, mais à tout le moins, elles ne veulent pas que les développeurs open source soient dissuadés de leur travail. Dohmke a déclaré que la loi sur l'IA peut apporter "les avantages de l'IA conformément aux valeurs européennes et aux droits fondamentaux". « C'est pourquoi je pense que les développeurs open source devraient être exemptés de la loi sur l'IA. Parce qu'en fin de compte, cela revient à des personnes », a-t-il déclaré.
« La communauté open source n'est pas une communauté d'entités. C'est une communauté de personnes et la charge de la conformité devrait incomber aux entités, aux entreprises qui livrent des produits. Les développeurs de logiciels libres sont souvent des bénévoles, beaucoup d'entre eux ont deux emplois. Ce sont aussi bien des amateurs que des scientifiques, des universitaires que des médecins, des professeurs que des étudiants, et ils n'ont généralement pas l'intention de tirer profit de leurs contributions. Ils n'ont certainement pas de gros budgets ni leur propre département de conformité », a ajouté Dohmke.
Source : Thomas Dohmke, PDG de GitHub
Et vous ?
:fleche: Que pensez-vous du projet de loi européenne sur l'IA ?
:fleche: Que pensez-vous des commentaires du PDG de GitHub sur la loi de l'UE sur l'IA ?
:fleche: Selon vous, quels impacts pourrait-elle avoir sur le développement et la recherche sur l'IA ?
:fleche: Pensez-vous que la communauté open source devrait être exemptée de la loi européenne sur l'IA ?
Voir aussi
:fleche: La loi européenne sur l'intelligence artificielle peut avoir un effet dissuasif sur les efforts en matière de logiciels libres, avertissent les experts de la Brookings Institution
:fleche: L'organisme européen de protection de la vie privée estime que la reconnaissance faciale devrait être interdite, en raison de son intrusion profonde et non démocratique dans la vie privée des gens
:fleche: Le Parlement européen a voté en faveur d'une interdiction totale de la surveillance biométrique de masse par les forces de l'ordre
:fleche: L'UE s'apprête à établir des règles en matière d'IA qui interdisent la surveillance et le classement du comportement social, les amendes pouvant atteindre 4 % du chiffre d'affaires
1 pièce(s) jointe(s)
La loi européenne sur l'intelligence artificielle est retardée, les législateurs étant dans l'impasse
La loi européenne sur l'intelligence artificielle est retardée, les législateurs n'ayant pas réussi à se mettre d'accord sur un ensemble de propositions de base
Les projets de l'Union européenne visant à réglementer l'intelligence artificielle (IA) sont confrontés à une nouvelle pierre d'achoppement, les législateurs n'ayant pas réussi à se mettre d'accord sur un ensemble de propositions de base.
La très attendue loi sur l'IA devrait être soumise au vote du Parlement européen à la fin du mois de mars, après quoi chaque pays commencera à négocier les conditions finales de la législation.
Cependant, à l'issue d'une réunion cruciale de cinq heures à Bruxelles mercredi, les députés européens n'ont pas encore réussi à se mettre d'accord sur un ensemble de principes de base.
Au cœur de leur différend se trouve la nécessité de trouver un équilibre entre les droits fondamentaux, tels que la confidentialité des données et la participation démocratique, et la nécessité d'éviter d'étouffer l'innovation et l'investissement dans le secteur.
L'un des points les plus controversés du débat consiste à déterminer quels systèmes d'IA seraient classés dans la catégorie "à haut risque", par exemple ceux qui affectent la sécurité d'une personne ou portent atteinte aux droits fondamentaux. Ceux qui déploient de tels systèmes seraient soumis à des règles strictes de transparence et de contrôle.
"La tension évidente ici est entre l'accent mis sur les droits fondamentaux, d'une part, et ceux qui disent que ceux-ci entrent nécessairement en conflit avec l'innovation", a déclaré l'eurodéputé des Verts Sergey Lagodinsky.
Une source au Parlement européen a déclaré que des négociations étaient en cours en vue de convenir d'un texte fort.
"Le dossier est long et complexe, les députés européens travaillent dur pour parvenir à un accord sur leur mandat de négociation. Cependant, il n'y a pas de date limite ou de calendrier sur les prochaines étapes."
Source : Parlement Européen
Et vous ?
:fleche: Qu'en pensez-vous ?
:fleche: À votre avis, ces règlementations de l'intelligence artificielle vont-elles empêcher l'innovation dans le secteur ?
Voir aussi :
:fleche: La loi européenne sur l'intelligence artificielle peut avoir un effet dissuasif sur les efforts en matière de logiciels libres, avertissent les experts de la Brookings Institution
:fleche: L'organisation européenne des consommateurs estime que la proposition de loi de l'Europe sur l'IA est faible, en matière de protection des consommateurs
:fleche: Le PDG de GitHub explique pourquoi les développeurs de logiciels libres devraient être exemptés de la loi européenne sur l'IA, ajoutant que cela pourrait aider l'UE à devenir le leader du secteur
1 pièce(s) jointe(s)
L'outil d'IA ChatGPT aurait brisé le plan de l'UE pour réglementer l'IA
L'outil d'IA ChatGPT aurait brisé le plan de l'UE pour réglementer l'IA
le plan initial de l'Europe visant à encadrer l'IA ne suffit pas pour faire face au nouvel outil d'OpenAI
ChatGPT a pris le monde d'assaut depuis son lancement en novembre, avec son habileté à écrire des essais, des articles, des poèmes et du code informatique en quelques secondes seulement. Mais après des mois d’euphorie, et de critiques alarmistes de la part de ses détracteurs - la technologie confronte maintenant les régulateurs de l'Union européenne à une question surprenante : Comment pouvons-nous contrôler cet outil d’IA ?
La technologie a déjà bouleversé le travail effectué par la Commission européenne, le Parlement européen et le Conseil de l'UE sur le projet de règlement de l'intelligence artificielle. Mi-juin 2018, la Commission européenne a nommé 52 experts au sein du nouveau groupe de haut niveau sur l'intelligence artificielle (le High Level Expert Group on Artificial Intelligence). Le groupe, composé de représentants du monde universitaire, des entreprises et de la société civile, avait pour vocation de soutenir la mise en œuvre de la communication de l'UE sur l'intelligence artificielle publiée en avril 2018.
Dans un document intitulé « La démocratie constitutionnelle et la technologie à l'ère de l'intelligence artificielle » et publié en septembre 2018, Paul Nemitz (conseiller principal à la Commission européenne et professeur de droit au Collège d’Europe de Bruges) décrit, pour ce qui est, selon lui, les quatre éléments centraux responsables de la concentration du pouvoir aux mains des grandes entreprises informatiques. Ces éléments constituent à la fois une menace pour la démocratie et le bon fonctionnement des marchés, dit-il. Dans le même document, il présente l’expérience acquise avec l'Internet sans loi et la relation entre la technologie et le droit telle qu'elle s'est développée dans l'économie numérique.
En 2021, la Commission européenne, le bras exécutif politiquement indépendant de l'UE, a publié le texte de la loi sur l'IA, qui vise à promouvoir le déploiement d'une « IA digne de confiance » dans l'UE, alors qu'ils sollicitent les commentaires de l'industrie avant un vote cet automne. Les institutions cherchent à apporter des modifications aux règlements qui tentent d'équilibrer l'innovation et la responsabilité. Mais selon certains experts, la loi sur l'IA, telle qu'elle est rédigée, imposerait des exigences onéreuses aux efforts ouverts de développement de systèmes d'IA.
La législation prévoit des exceptions pour certaines catégories d'IA open source, comme celles utilisées exclusivement pour la recherche et avec des contrôles pour éviter les abus.
Le règlement, proposé par la Commission en 2021, a été conçu pour interdire certaines applications de l'IA comme le scoring social, la manipulation et certains cas de reconnaissance faciale. Il désignerait également certaines utilisations spécifiques de l'IA comme étant à « haut risque », obligeant les développeurs à respecter des exigences plus strictes en matière de transparence, de sécurité et de surveillance humaine.
ChatGPT est un grand modèle de langage général (LLM) développé récemment par OpenAI, une société d'intelligence artificielle basée à San Francisco, connue pour son célèbre DALL-E, un modèle d'apprentissage profond qui génère des images à partir d'instructions textuelles appelées « prompts ».
Alors que la classe précédente de modèles d'intelligence artificielle était principalement constituée de modèles d'apprentissage profond (Deep Learning, DL), conçus pour apprendre et reconnaître des modèles dans les données, les LLM sont un nouveau type d'algorithme d'intelligence artificielle formé pour prédire la probabilité d'une séquence de mots donnée en fonction du contexte des mots qui la précèdent.
Ainsi, si les LLM sont formés sur des quantités suffisamment importantes de données textuelles, ils sont capables de générer de nouvelles séquences de mots jamais observées auparavant par le modèle, mais qui représentent des séquences plausibles basées sur le langage humain naturel.
ChatGPT est alimenté par GPT3.5, un LLM entraîné sur le modèle OpenAI 175B parameter foundation et un grand corpus de données textuelles provenant d'Internet via des méthodes d'apprentissage par renforcement et supervisé. Une utilisation anecdotique indique que ChatGPT présente des preuves de raisonnement déductif et de chaîne de pensée, ainsi que des compétences de dépendance à long terme.
Les résultats mettent en évidence certaines forces et faiblesses potentielles de ChatGPT
ChatGPT est un modèle linguistique d'intelligence artificielle introduit en novembre 2022 qui fournit des réponses conversationnelles générées à des questions incitatives. Le modèle est formé à l'aide d'un mélange d'algorithmes d'apprentissage par renforcement et d'entrées humaines sur plus de 150 milliards de paramètres. La plateforme a atteint un million d'utilisateurs dès sa première semaine d'ouverture au public et a été rapidement qualifiée de « prochain grand perturbateur de l'industrie » en raison de la qualité perçue des réponses fournies par le modèle.
Certains chercheurs soupçonnent que ChatGPT est particulièrement fort pour prendre un ensemble de textes externes et les connecter (l'essence d'une idée de recherche), ou pour prendre des sections facilement identifiables d'un document et les ajuster (un exemple est le résumé des données - un « morceau de texte » facilement identifiable dans la plupart des études de recherche).
Il n'est pas surprenant que l'utilisation de ces chatbots intéresse les éditeurs universitaires. Une récente étude, publiée dans Finance Research Letters, a montré que ChatGPT pouvait être utilisé pour rédiger un article financier qui serait accepté par une revue universitaire.
Les chercheurs ont montré, en se basant sur les évaluations des résultats générés par les évaluateurs des revues financières, que le chatbot IA ChatGPT peut contribuer de manière significative à la recherche financière. « En principe, ces résultats devraient pouvoir être généralisés à d'autres domaines de recherche. Les avantages sont évidents pour la génération d'idées et l'identification de données. Cependant, la technologie est plus faible en ce qui concerne la synthèse de la littérature et le développement de cadres de test appropriés », concluent-ils.
La réflexion était la suivante : s'il est facile d'obtenir de bons résultats avec ChatGPT en l'utilisant simplement, peut-être pouvons-nous faire quelque chose de plus pour transformer ces bons résultats en excellents résultats. Les chercheurs ont d'abord demandé à ChatGPT de générer les quatre parties standard d'une étude de recherche : l'idée de recherche, l'analyse documentaire (une évaluation des recherches universitaires précédentes sur le même sujet), l'ensemble des données et les suggestions de tests et d'examens. Ils ont spécifié que le sujet général et que le résultat devait pouvoir être publié dans « une bonne revue financière ».
C'est la première version choisie pour utiliser ChatGPT. Pour la deuxième version, ils ont collé dans la fenêtre de ChatGPT un peu moins de 200 résumés d'études pertinentes et existantes. Ils ont ensuite demandé au programme de les prendre en compte lors de la création des quatre étapes de recherche. Enfin, pour la version 3, ils ont ajouté « l'expertise du domaine », c'est-à-dire la contribution de chercheurs universitaires. « Nous avons lu les réponses produites par le programme informatique et fait des suggestions d'amélioration. Ce faisant, nous avons intégré notre expertise à celle de ChatGPT », ont-ils dit.
« Nous avons ensuite demandé à un panel de 32 évaluateurs d'examiner chacun une version de la manière dont ChatGPT peut être utilisé pour générer une étude universitaire. Les examinateurs ont été invités à évaluer si le résultat était suffisamment complet et correct, et s'il apportait une contribution suffisamment nouvelle pour être publié dans une "bonne" revue financière universitaire », ajoutent-ils.
La grande leçon à retenir est que toutes ces études ont été généralement considérées comme acceptables par les experts. Ce qui parait assez étonnant, de l’avis de certains observateurs. Cela soulève des questions fondamentales sur la signification de la créativité et la propriété des idées créatives - des questions auxquelles personne n'a encore de réponses solides.
« Ces systèmes n'ont aucune compréhension éthique du monde, n'ont aucun sens de la vérité et ne sont pas fiables », a déclaré Gary Marcus, expert en IA et critique virulent. Ces IA « sont comme des moteurs. Ce sont des moteurs et des algorithmes très puissants qui peuvent faire un grand nombre de choses et qui, eux-mêmes, ne sont pas encore affectés à un objectif », a déclaré Dragoș Tudorache, un législateur roumain libéral qui, avec le législateur italien S&D Brando Benifei, est chargé de faire passer la loi sur l'IA au Parlement européen.
Des exigences plus strictes aux développeurs et aux utilisateurs de ChatGPT
La technologie a déjà incité les institutions européennes à réécrire leurs projets. Le Conseil, qui représente les capitales nationales, a approuvé en décembre sa version du projet de loi sur l'IA, qui confie à la Commission le soin d'établir des exigences en matière de cybersécurité, de transparence et de gestion des risques pour les IA à usage général. L'essor de ChatGPT oblige désormais le Parlement européen à lui emboîter le pas.
En revanche, les militants et les observateurs estiment que la proposition ne fait qu'effleurer l'énigme de l'IA à usage général. « Il ne suffit pas de placer les systèmes de création de textes sur la liste des systèmes à haut risque : il existe d'autres systèmes d'IA à usage général qui présentent des risques et qui devraient également être réglementés », a déclaré Mark Brakel, directeur des politiques au Future of Life Institute, une organisation à but non lucratif axée sur la politique de l'IA.
Les deux principaux législateurs du Parlement travaillent également à imposer des exigences plus strictes aux développeurs et aux utilisateurs de ChatGPT et de modèles d'IA similaires, notamment en matière de gestion des risques liés à la technologie et de transparence de son fonctionnement. Ils tentent également d'imposer des restrictions plus strictes aux grands fournisseurs de services tout en maintenant un régime plus léger pour les utilisateurs quotidiens qui jouent avec la technologie.
Les professionnels de secteurs tels que l'éducation, l'emploi, la banque et les services répressifs doivent être conscients « de ce qu'implique l'utilisation de ce type de système à des fins présentant un risque important pour les droits fondamentaux des personnes », a déclaré Benifei. Si le Parlement a du mal à se faire une idée de la réglementation ChatGPT, Bruxelles se prépare aux négociations qui suivront.
La Commission européenne, le Conseil de l'UE et le Parlement discuteront des détails d'une loi définitive sur l'IA lors de négociations tripartites qui devraient débuter en avril au plus tôt. Là, ChatGPT pourrait bien amener les négociateurs dans une impasse, alors que les trois parties cherchent une solution commune à cette nouvelle technologie.
Les grandes entreprises technologiques, en particulier celles qui ont leur mot à dire, comme Microsoft et Google, suivent de près l'évolution de la situation. La loi européenne sur l'IA doit « rester axée sur les cas d'utilisation à haut risque », a déclaré Natasha Crampton, responsable en chef de l'IA chez Microsoft, suggérant que les systèmes d'IA à usage général tels que ChatGPT ne sont guère utilisés pour des activités à risque, mais plutôt pour rédiger des documents et aider à écrire du code.
« Nous voulons nous assurer que les cas d'utilisation de grande valeur et à faible risque continuent d'être disponibles pour les Européens », a déclaré Crampton. Une enquête récente menée par le groupe d'activistes pour la transparence Corporate Europe Observatory aurait également révélé que les acteurs de l'industrie, y compris Microsoft et Google, avaient fait pression avec acharnement sur les décideurs politiques de l'UE pour exclure l'IA polyvalente comme ChatGPT des obligations imposées aux systèmes d'IA à haut risque.
Source : Politico
Et vous ?
:fleche: Quel est votre avis sur le sujet ?
:fleche: Que pensez-vous de la feuille de route du Parlement européen ?
Voir aussi :
:fleche: L'UE s'apprête à établir des règles en matière d'IA qui interdisent la surveillance et le classement du comportement social, les amendes pouvant atteindre 4 % du chiffre d'affaires
:fleche: ChatGPT produirait de faux documents universitaires, alors que des professions se sentent menacées par le célèbre outil d'OpenAI
1 pièce(s) jointe(s)
La Chambre de commerce des États-Unis demande une réglementation de l'IA.
La Chambre de commerce des États-Unis demande une réglementation de l'IA,
pour que l'IA ne nuise pas à la croissance ou ne devienne pas un risque pour la sécurité
La Chambre de commerce des États-Unis a appelé jeudi à une réglementation des technologies d'intelligence artificielle afin de s'assurer qu'elles ne nuisent pas à la croissance ou ne deviennent pas un risque pour la sécurité nationale, s'écartant ainsi de la position antiréglementaire habituelle du groupe de lobbying des entreprises.
Bien qu'il n'y ait que peu de propositions législatives concernant l'IA, le programme d'intelligence artificielle ChatGPT, qui connaît une croissance rapide et qui a été salué pour sa capacité à rédiger rapidement des réponses à un large éventail de questions, a suscité l'inquiétude des législateurs américains quant à son impact sur la sécurité nationale et sur l'éducation.
Selon le rapport de la Chambre de commerce, les décideurs politiques et les chefs d'entreprise doivent rapidement intensifier leurs efforts pour établir un « cadre réglementaire fondé sur les risques » qui garantira que l'IA est déployée de manière responsable.
Il ajoute que l'IA devrait ajouter 13 000 milliards de dollars à la croissance économique mondiale d'ici à 2030 et qu'elle a apporté d'importantes contributions, comme la réduction de la pénurie d'infirmières dans les hôpitaux et la cartographie des incendies de forêt afin d'accélérer la réponse des responsables de la gestion des urgences. Le rapport insiste sur la nécessité de se préparer à l'omniprésence imminente de la technologie et à ses dangers potentiels.
Le rapport affirme que d'ici 20 ans, "pratiquement toutes" les entreprises et les agences gouvernementales utiliseront l'IA.
Fruit des travaux d'une commission sur l'intelligence artificielle créée l'année dernière par la Chambre de commerce, le rapport reconnaît en partie le rôle essentiel que jouera le monde des affaires dans le déploiement et la gestion de l'IA, selon la Chambre de commerce.
Tout en appelant à davantage de réglementation, la Chambre de commerce prend soin de préciser qu'il peut y avoir de larges exceptions à la manière dont la réglementation est appliquée.
« Plutôt que d'essayer de développer un cadre réglementaire unique, cette approche de la réglementation de l'IA permet de développer des orientations et de meilleures pratiques flexibles et spécifiques à l'industrie », indique le rapport.
Source : Le rapport de la Chambre de commerce des États-Unis
Et vous ?
:fleche: Quel est votre avis sur le sujet ?
Voir aussi :
:fleche: « Le développement de l'IA sans réglementation induit une menace existentielle pour l'humanité », d'après Elon Musk, dont une société développe des puces à insérer dans le cerveau pour contrer l'IA
:fleche: Le Vatican, IBM et Microsoft ensemble pour appeler à une réglementation de la reconnaissance faciale et de façon générale, à une régulation de l'IA pour le bien de l'humanité
:fleche: Microsoft appelle à la réglementation de la reconnaissance faciale afin d'éviter des dérives potentielles et propose des axes de réflexion
:fleche: Le président de Microsoft a déclaré que sans la réglementation de la technologie de reconnaissance faciale, 2024 pourrait ressembler au roman « 1984 »
1 pièce(s) jointe(s)
L'UE envisagerait des règles très strictes pour les chatbots dans le cadre de son projet de loi sur l'IA
L'UE envisagerait des règles très strictes pour les chatbots dans le cadre de son projet de loi sur l'IA
elle devrait exiger la divulgation de l'utilisation du matériel protégé par le droit d'auteur
L'UE pourrait introduire prochainement une réglementation très stricte en ce qui concerne le développement et le déploiement des chatbots d'IA. Les nouvelles règles, qui seraient en cours de préparation au Parlement européen, proposeraient d'obliger les fabricants de chatbots d'IA à révéler s'ils utilisent du matériel protégé par des droits d'auteur. Cela pourrait permettre aux créateurs de contenu de jouir d'une redevance de droit d'auteur. L'IA générative a donné lieu à de nombreuses plaintes en matière de violation de droit d'auteur et l'UE veut y mettre un terme. À mesure que la loi sur l'IA évolue, les chatbots pourraient faire l'objet d'une surveillance accrue.
Les discussions se poursuivent à Bruxelles concernant les propositions de la loi européenne sur l'IA (EU AI Act). C'est la première loi sur l'IA émanant d'une autorité de régulation majeure dans le monde. Elle classe les applications d'IA dans trois catégories de risque. Premièrement, les applications et les systèmes qui créent un risque inacceptable, tels que les systèmes de notation sociale gérés par le gouvernement, comme ceux utilisés en Chine, sont interdits. Deuxièmement, les applications d'IA à haut risque, comme un outil de balayage de CV qui classe les candidats à l'emploi, sont soumises à des exigences légales spécifiques par les régulateurs de l'UE.
Enfin, les applications qui ne sont pas explicitement interdites ou répertoriées comme présentant un risque élevé échappent en grande partie à la réglementation. Les chatbots d'IA pourraient être classés dans cette catégorie. Ainsi, des sources au fait des discussions à Bruxelles rapportent que l'UE prépare de nouvelles réglementations qui pourraient avoir un impact majeur sur le développement et le déploiement des outils d'IA. Parmi les mesures susceptibles d'être proposées figure l'obligation pour les développeurs de produits tels que ChatGPT d'OpenAI de déclarer si du matériel protégé par des droits d'auteur est utilisé pour entraîner leurs modèles d'IA.
La mesure semble être conçue pour permettre aux créateurs de contenu d'exiger un paiement (une redevance de droit d'auteur). En effet, l'IA générative a pris tout le monde court par son essor rapide. Aucun régulateur, gouvernement ou analyste ne peut s'enorgueillir d'avoir anticipé brièvement les bouleversements radicaux qu'elle a déjà introduits et qu'elle pourrait encore introduire à l'avenir en raison de ses puissantes capacités et de son adoption généralisée. Cela a contraint certains pays à prendre des mesures d'urgence. Fin mars, l'Italie a bloqué temporairement le chatbot d'IA ChatGPT d'OpenAI, invoquant des violations présumées de la vie privée.
Le commissaire allemand à la protection des données envisage une interdiction similaire et la France se pencherait également sur la question après plusieurs plaintes déposées auprès de la CNIL contre OpenAI. En outre, l'IA générative soulève également des questions sur la violation du droit d'auteur. Les régulateurs et les tribunaux se demandent si les programmes basés sur une IA générative peuvent porter atteinte au droit d'auteur sur des œuvres existantes, soit en faisant des copies d'œuvres existantes pour entraîner l'IA, soit en générant des résultats qui ressemblent à ces œuvres existantes. Les tribunaux ont enregistré de nombreuses plaintes à ce sujet.
Les modèles d'IA de génération de texte (comme ChatGPT et Claude) et les modèles d'IA de génération d'œuvre d'art (comme Stable Diffusion, Midjourney et DALL-E 2) peuvent des résultats fascinants. De plus, la qualité et la vitesse de création sont élevées par rapport à la performance humaine moyenne. Cependant, si l'on peut penser que ces nouveaux outils d'IA peuvent faire surgir de nouveaux éléments de l'éther, ce n'est pas tout à fait le cas. Les plateformes d'IA générative sont formées sur des lacs de données et des extraits de questions (des milliards de paramètres construits par des logiciels qui traitent d'énormes archives d'images et de textes).
Les outils d'IA récupèrent des modèles et des relations, qu'elles utilisent ensuite pour créer des règles, puis pour émettre des jugements et des prédictions, lorsqu'elles répondent à une question. Ce processus comporte des risques juridiques, notamment en matière de violation de la propriété intellectuelle. Dans de nombreux cas, il pose également des questions juridiques qui sont encore en cours de résolution. Par exemple, la violation des droits d'auteur, des brevets et des marques s'applique-t-elle aux créations de l'IA ? Qui est réellement le propriétaire du contenu que les plateformes d'IA générative créent pour vous ou pour vos clients ?
Comme indiqué précédemment, OpenAI a refusé de partager des détails sur la formation de GPT-4, à la grande déception des chercheurs en IA qui plaident en faveur d'une plus grande transparence. Ce refus illustre toutefois le virage à 180 degrés d'OpenAI par rapport à ses fondements initiaux. Fondé en tant qu'organisation à but non lucratif en 2015, l'entreprise a viré de bord en 2019 pour aller vers la recherche du profit et a reçu des milliards de dollars d'investissement de la part de Microsoft. OpenAI, qui voulait démocratiser l'IA et le rendre accessible à tous, est devenue une entreprise très fermée, accordant un accès spécial à ses produits à Microsoft.
Pour l'instant, la proposition visant à obliger les créateurs de chatbots à divulguer le matériel protégé par un droit d'auteur n'est qu'une rumeur et la loi sur l'IA est en cours d'élaboration depuis 2021. Peu de détails sont disponibles sur les propositions. Toutefois, les sources indiquent que le débat sur les règles supplémentaires relatives aux chatbots suggère que le processus de finalisation de la loi ne s'achèvera pas avant au moins 2024. Dans l'intervalle, les États membres de l'UE continuent d'élaborer leurs propres politiques, créant ainsi un réseau complexe de critères de gouvernance dans lequel des entreprises comme OpenAI doivent naviguer.
Selon les sources, une autre proposition à l'étude exigerait que les chatbots d'IA informent les utilisateurs humains qu'ils ne sont pas en train de converser avec un autre humain. Compte tenu des cas où des personnes se sont attachées à des chatbots et où certaines ont même cru qu'ils étaient sensibles, les législateurs estiment qu'une telle divulgation est une première étape fondamentale. Elles ont ajouté que les députés européens souhaiteraient également que la responsabilité de l'utilisation abusive des programmes d'IA incombe aux développeurs tels que l'OpenAI, plutôt qu'aux petites entreprises qui l'utilisent. Rien n'est encore officiel toutefois.
Avant que les entreprises puissent profiter pleinement des avantages de l'IA générative, elles doivent en comprendre les risques et savoir comment se protéger. Dragoș Tudorache, un membre du Parlement européen qui dirige les négociations sur la loi sur l'IA, a souligné l'importance des réglementations pour garantir un déploiement sûr. « C'est une technologie pionnière, et nous devons l'exploiter, ce qui signifie mettre en place des règles. L'autorégulation des entreprises ne suffit pas », a-t-il déclaré.
Et vous ?
:fleche: Quel est votre avis sur le sujet ?
:fleche: Que pensez-vous de la proposition des parlementaires européens ?
:fleche: En quoi ces nouvelles règles potentielles peuvent-elles être bénéfiques pour les créateurs de contenu ?
:fleche: Selon vous, quelles seraient les conséquences d'une telle réglementation pour les créateurs de chatbots d'IA ?
Voir aussi
:fleche: « Nous nous dirigeons à grands pas vers un Internet fortement influencé par l'IA, bourré de pépins, de spams et d'escroqueries », affirme un journaliste senior du MIT Technology Review
:fleche: « Les appels à suspendre le développement des systèmes d'IA ne résoudront pas les défis liés à leur mise sur pied », d'après Bill Gates qui entrevoit l'échec d'un consensus à l'échelle mondiale
:fleche: La loi européenne sur l'intelligence artificielle est retardée, les législateurs n'ayant pas réussi à se mettre d'accord sur un ensemble de propositions de base