IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #21
    Chroniqueur Actualités

    Homme Profil pro
    Dirigeant
    Inscrit en
    Juin 2016
    Messages
    3 160
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Dirigeant
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Juin 2016
    Messages : 3 160
    Points : 66 256
    Points
    66 256
    Par défaut Intelligence artificielle : la feuille de route du Parlement européen
    Intelligence artificielle : la feuille de route du Parlement européen
    l'UE veut porter les investissements dans le secteur de l'IA à 20 milliards d'euros d'ici 2030

    Le Parlement européen a adopté le 3 mai un rapport sur l'intelligence artificielle, qui établit une liste de demandes visant à garantir la position de l'UE dans le domaine de l'IA, et désigne la recherche comme l'un des principaux moyens d'atteindre cet objectif. Le rapport vise notamment à établir une feuille de route pour l'intelligence artificielle (IA) à l'horizon 2030, avec plus de 150 recommandations politiques sur la gouvernance, le partage des données, l'infrastructure numérique, l'investissement, l'e-santé, l'e-gouvernance, l'industrie et la sécurité.

    Le rapport en question est l'aboutissement d'un an et demi de travail de la commission spéciale du Parlement sur l'IA (AIDA). Il alimentera les travaux sur la future loi sur l'IA, première réglementation majeure de l'IA au niveau mondial, qui fixera des règles pour les utilisations de l'IA en fonction de leur niveau de risque. Les députés européens estiment que l'UE doit agir rapidement pour établir des règles claires en matière d'IA si elle veut avoir son mot à dire sur l'avenir de cette technologie. « Nous avons l'occasion de fixer des normes mondiales », a déclaré le rapporteur du Parlement pour le dossier, Axel Voss, lors du dernier débat en plénière.

    « Si nous nous permettons de perdre notre position de leader, nous nous résignerons au statut de colonies numériques assujetties à d'autres régions qui ne partagent pas nos valeurs », a-t-il ajouté. En l'état actuel des choses, les États-Unis sont en tête de la course à l'IA en matière d'investissements, de recherche et d'attraction de talents, tandis que leurs entreprises sont le fer de lance du développement technologique. La Chine est derrière les États-Unis, mais elle rattrape son retard. L'UE a encore du chemin à parcourir, mais les décideurs politiques pensent qu'avec des réglementations claires et un effort d'investissement, elle peut rattraper ses concurrents.

    Nom : 20220427PHT28002-cl.jpg
Affichages : 2219
Taille : 98,0 Ko

    Le rapport de l'AIDA désigne la recherche comme l'un des principaux moyens d'atteindre cet objectif. L'objectif est de porter les investissements publics et privés à 20 milliards d'euros d'ici à la fin de la décennie. Aujourd'hui, ils s'élèvent à 14 milliards d'euros. Si le Parlement européen souhaite que davantage de fonds soient alloués à la recherche, il estime que des règles claires doivent d'abord être définies. L'UE estime en effet que la fragmentation du marché est le principal obstacle qu'il faut franchir. « L'obstacle majeur est certainement la fragmentation du marché, qui affecte à son tour les investissements et la recherche », a déclaré Voss.

    « En l'absence d'un marché unique numérique véritablement harmonisé, le manque d'investissements transfrontaliers qui en résulte ainsi que l'échange transfrontalier de données interdisent toute forme d'innovation », a-t-il ajouté. Pour résoudre ce problème, comme exposé dans le rapport, le Parlement veut augmenter les investissements de l'UE dans l'IA et d'autres technologies clés. Le Parlement souhaite que les États membres stimulent également les investissements, à la fois dans le cadre de leurs budgets nationaux et en renforçant les programmes européens de recherche et de numérisation, Horizon Europe et Digital Europe.

    Pour faciliter la vie des chercheurs, le Parlement invite la Commission européenne à "simplifier la structure du financement de la recherche, y compris les exigences et les processus de demande de subventions". Cela devrait aller de pair avec l'amélioration de la qualité et de la cohérence des examens des propositions afin de garantir que les bons projets soient financés au bon moment. En matière d'éducation, le Parlement souhaite que les universités offrent davantage de postes d'enseignants en IA, assortis de salaires adéquats. En outre, des infrastructures de soutien sont également nécessaires pour atteindre ces objectifs.

    À cet effet, les députés invitent la Commission à créer des centres de données sur l'IA et soulignent l'importance des sites d'essai. La coopération entre les institutions sera essentielle pour établir des pôles d'excellence capables d'attirer les talents. Pour cela, le Parlement demande à la Commission d'établir des phares de l'IA dans le cadre d'Horizon Europe, afin de former des réseaux d'organisations de recherche qui sont impliquées dans l'IA. Voss a déclaré que les phares, voire les régions phares, sont un moyen de mettre en commun et de combiner les ressources européennes afin de permettre l'innovation au-delà des frontières.

    Selon lui, cela permettrait également de tester de nouveaux produits et de nouvelles idées, en dehors de règles et de procédures fragmentées. La Commission travaille déjà sur un réseau de centres d'excellence en IA. Margrethe Vestager, vice-présidente de la Commission chargée de la politique numérique, a déclaré que cela visait « à rassembler l'excellence, car nous savons que le talent attire le talent, et si nous voulons que les meilleurs viennent ici, nous devons investir ». Enfin, tous ces efforts devraient être axés sur une IA durable et socialement responsable, en accord avec les valeurs de l'UE.

    En somme, le rapport préconise une approche de l'IA centrée sur l'homme et digne de confiance, fondée sur les droits fondamentaux, qui gère efficacement les risques connexes, notamment l'identification des risques pour le droit à la vie privée, tout en libérant le potentiel de l'IA. À cet égard, le rapport formule un certain nombre de recommandations relatives à un cadre juridique pour l'IA, qui alimenteront les travaux à venir sur la proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées en matière d'intelligence artificielle ("loi sur l'IA").

    Cette loi doit être votée par les commissions du marché intérieur et de la protection des consommateurs ("IMCO") et des libertés civiles, de la justice et des affaires intérieures (LIBE) en septembre 2022. Notamment, le rapport souligne l'importance de faire la distinction entre les systèmes d'IA à haut risque et à faible risque, concluant que la première catégorie nécessite des garanties législatives supplémentaires strictes, tandis que les cas d'utilisation à faible risque peuvent, dans de nombreux cas, nécessiter des exigences de transparence pour les utilisateurs finaux et les consommateurs.

    La loi sur l'IA fera suite à d'autres règlements de l'UE dans la sphère numérique que la Commission a enchaînés ces derniers mois. Il s'agit notamment de la loi sur les services numériques (DSA) et de la loi sur les marchés numériques (DMA) visant à limiter l'influence des grandes entreprises technologiques, qui ont été adoptées par les décideurs politiques ces dernières semaines. La loi sur l'IA devrait être négociée au début de l'année prochaine.

    Source : Rapport de l'AIDA

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de la feuille de route du Parlement européen ?
    Ces propositions permettront-elles à l'UE de rattraper son retard sur la Chine et les États-Unis ?

    Voir aussi

    L'UE se prépare à construire un énorme système international de reconnaissance faciale, des propositions de loi permettent aux forces de police de l'UE de relier leurs bases de données photos

    La Commission européenne annonce l'Alliance européenne pour les données et le cloud, elle contribuera à façonner la prochaine génération de services, d'infrastructures et de cloud sécurisé

    Les autorités antitrust de l'UE interrogent les rivaux et les clients de Microsoft sur ses activités de cloud computing et ses accords de licence, ce qui pourrait conduire à une enquête formelle

    L'UE cherche à établir des normes mondiales pour l'utilisation de l'IA, mais des groupes de défense des droits civils s'inquiètent
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #22
    Membre extrêmement actif
    Avatar de Madmac
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Juin 2004
    Messages
    1 685
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : Alimentation

    Informations forums :
    Inscription : Juin 2004
    Messages : 1 685
    Points : 1 376
    Points
    1 376
    Billets dans le blog
    7
    Par défaut
    Citation Envoyé par Mingolito Voir le message
    On voie bien qu'une fois de plus l'Europe est victime des lobbies, ici clairement le lobby des trafiquants de drogues et autres criminels, les mêmes mêmes lobby qui ont réussi à faire maintenir la prohibition sur le cannabis pour continuer à faire leur petits business illégal sur une simple plante médicinale aux nombreuses vertus millénaires.

    En vrai pour bien faire il faudrait encourager la reconnaissance faciale et en installer à chaque coin de rue, et surtout faire fermer la CNIL qui ne sert à rien pour pouvoir enfin interconnecter entre eux tous les fichiers pour pouvoir comme il se doit suivre tout citoyen à la trace, et recouper toutes les informations. Par exemple pouvoir être interconnecté aux fichiers de santé et pouvoir coincer un covïdique qui a rompu sa quarantaine et pouvoir le faire incarcérer séance tenante dans un Covidorium dument habilité.

    En théorie, cela peut rendre de grand service. Jusqu'au jours que tu te retrouve avec une despote comme Trudeau, alors là tu réalise le danger.

    Le passé est garant de l'avenir. Et les dirigeants de UE désirent utiliser l'intelligence artificielle de la même façon que la Chine. La preuve est aucun de ces spécialistes n'a pensé que cela pourait-être utile pour lutter contre Covid. Une machine n'a pas de biais politique et ne peut-être acheté.

  3. #23
    Membre émérite Avatar de Cpt Anderson
    Profil pro
    Développeur informatique
    Inscrit en
    Novembre 2005
    Messages
    624
    Détails du profil
    Informations personnelles :
    Âge : 49
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Novembre 2005
    Messages : 624
    Points : 2 479
    Points
    2 479
    Par défaut
    Il n'y a rien de bien clair dans ce rapport : ni les buts, ni la façon de se donner les moyens de créer des pôles d'excellences. C'est flou.
    Je le dis et je le répète encore, mais ailleurs, c'est le complexe militaro-industriel qui donne le tempo sur le développement de l'IA. Est les buts sont avant tout militaires.

    Au niveau européen, on a pas de complexe militaro-industriel, donc ça ne marchera pas : les industriels privés veulent un retour sur investissent, il faut du concret.
    Voici la méthode de mon chef:

    copy (DateTimeToStr(Now),7,4)+
    copy (DateTimeToStr(Now),4,2)+copy (DateTimeToStr(Now),1,2)+copy (DateTimeToStr(Now),12,2)+
    copy (DateTimeToStr(Now),15,2)+copy (DateTimeToStr(Now),18,2)

    Je lui ai dit que FormatDateTime irait surement mieux


  4. #24
    Nouveau membre du Club
    Homme Profil pro
    Développeur Web
    Inscrit en
    Mai 2014
    Messages
    18
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 45
    Localisation : France, Indre et Loire (Centre)

    Informations professionnelles :
    Activité : Développeur Web
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : Mai 2014
    Messages : 18
    Points : 28
    Points
    28
    Par défaut l'ia officialisé
    Ca y est, on y est. L'IA est maintenant reconnue officiellement.

    Ca promet d'être intéressant.

    Il y a un film comme ça qui s'appelle Terminator; avec un peu de chance c'est peut-être pour bientôt (moins de 50 ans?)

  5. #25
    Membre extrêmement actif
    Avatar de Madmac
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Juin 2004
    Messages
    1 685
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : Alimentation

    Informations forums :
    Inscription : Juin 2004
    Messages : 1 685
    Points : 1 376
    Points
    1 376
    Billets dans le blog
    7
    Par défaut
    Citation Envoyé par Cpt Anderson Voir le message
    Il n'y a rien de bien clair dans ce rapport : ni les buts, ni la façon de se donner les moyens de créer des pôles d'excellences. C'est flou.
    Je le dis et je le répète encore, mais ailleurs, c'est le complexe militaro-industriel qui donne le tempo sur le développement de l'IA. Est les buts sont avant tout militaires.

    Au niveau européen, on a pas de complexe militaro-industriel, donc ça ne marchera pas : les industriels privés veulent un retour sur investissent, il faut du concret.
    J'en serai pas aussi sûr. Les dirigeants de l'UE ont des liens serrés avec le WEF (Le Forum économique mondial) qui tent de vous vendre un monde oû "vous n'auriez rien, mais vous allez être heureux!". En Chine, ils sont en train de mettre en place un modèle de surveillence qui s'assurent que tu adhère aux idées du parti et que tu es d'une parfaite soumission. Et pour implanter "Le grand frère de 1984", notre savoir est assez avancé pour ce se soit une réalité possible. Je ne sais pas à quel point les ordinateurs comprennent le Mandarin. Mais si j'était un Chinois.

    Ils tentent de vous imposez une armée européenne. Si vous ne faite pas attention, le quatrième Reich va vous baisez en beauté.

  6. #26
    Expert éminent sénior

    Femme Profil pro
    Rédacteur Web
    Inscrit en
    Mars 2020
    Messages
    838
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur Web

    Informations forums :
    Inscription : Mars 2020
    Messages : 838
    Points : 58 035
    Points
    58 035
    Par défaut La loi européenne sur l'IA peut avoir un effet dissuasif sur les efforts en matière de logiciels libres.
    La loi européenne sur l'intelligence artificielle peut avoir un effet dissuasif sur les efforts en matière de logiciels libres,
    avertissent les experts de la Brookings Institution

    Le groupe de réflexion non partisan Brookings Institution a publié cette semaine un article décriant la réglementation de l'IA open source de l'Union européenne, affirmant qu'elle créerait une responsabilité juridique pour les systèmes d'IA à usage général tout en nuisant à leur développement. Selon le projet de loi sur l'IA de l'UE, les développeurs de logiciels libres devraient respecter des lignes directrices en matière de gestion des risques, de gouvernance des données, de documentation technique et de transparence, ainsi que des normes de précision et de cybersécurité. Les règles proposées par l'UE pourraient limiter le type de recherche qui produit des outils d'IA de pointe comme GPT-3, avertissent les experts dans une nouvelle étude.

    Nom : Screenshot_2022-09-07 loi IA EU – Recherche Google.png
Affichages : 2250
Taille : 449,2 Ko

    La réglementation de l'IA à usage général est débattue par les organes législatifs de l'Union européenne, qui travaillent sur la loi sur l'IA. Une proposition de modification émanant du Conseil de l'UE prendrait la mesure inhabituelle, et néfaste, de réglementer l'IA à code source ouvert. Et, d’après le groupe de réflexion non partisan Brookings, bien que cette mesure vise à permettre une utilisation plus sûre de ces outils, cette proposition créerait une responsabilité juridique pour les modèles d’IA à usage général à code source ouvert, ce qui nuirait à leur développement. Cela pourrait concentrer davantage le pouvoir sur l'avenir de l'IA dans les grandes entreprises technologiques et empêcher la recherche qui est essentielle à la compréhension de l'IA par le public.

    Si une entreprise devait déployer un système d'IA open source dont le résultat serait désastreux, il n'est pas inconcevable qu'elle puisse tenter de se dégager de sa responsabilité en poursuivant les développeurs open source sur lesquels elle a construit son produit. « Cela pourrait concentrer davantage le pouvoir sur l'avenir de l'IA dans les grandes entreprises technologiques et empêcher la recherche qui est essentielle à la compréhension de l'IA par le public. En fin de compte, la tentative de l'UE de réglementer l'open-source pourrait créer un ensemble d'exigences alambiquées qui mettent en danger les contributeurs d'IA open-source, probablement sans améliorer l'utilisation de l'IA à usage général », écrit Alex Engler, l'analyste de Brookings qui a publié l'article.

    En 2021, la Commission européenne, le bras exécutif politiquement indépendant de l'UE, a publié le texte de la loi sur l'IA, qui vise à promouvoir le déploiement d'une « IA digne de confiance » dans l'UE, alors qu'ils sollicitent les commentaires de l'industrie avant un vote cet automne. Les institutions cherchent à apporter des modifications aux règlements qui tentent d'équilibrer l'innovation et la responsabilité. Mais selon certains experts, la loi sur l'IA, telle qu'elle est rédigée, imposerait des exigences onéreuses aux efforts ouverts de développement de systèmes d'IA. La législation prévoit des exceptions pour certaines catégories d'IA open source, comme celles utilisées exclusivement pour la recherche et avec des contrôles pour éviter les abus. Mais, comme le fait remarquer Engler, il serait difficile, voire impossible, d'empêcher ces projets d'être intégrés dans des systèmes commerciaux, où ils pourraient être utilisés par des acteurs malveillants.

    Dans un exemple récent, Stable Diffusion, un système d'IA open source qui génère des images à partir d'invites textuelles, a été publié avec une licence interdisant certains types de contenu. Mais il a rapidement trouvé un public au sein de communautés qui utilisent de tels outils d'IA pour créer des deepfakes pornographiques de célébrités. Oren Etzioni, PDG fondateur de l'Institut Allen pour l'IA, reconnaît que la version actuelle de la loi sur l'IA est problématique. Dans une interview , Etzioni a déclaré que les charges introduites par les règles pourraient avoir un effet dissuasif sur des domaines tels que le développement de systèmes ouverts de génération de texte, qui, selon lui, permettent aux développeurs de « rattraper » les entreprises Big Tech comme Google et Meta.

    « La route vers l'enfer de la réglementation est pavée des bonnes intentions de l'UE. Les développeurs de logiciels libres ne devraient pas être soumis au même fardeau que ceux qui développent des logiciels commerciaux. Il devrait toujours être possible de fournir un logiciel libre 'tel quel' - prenons le cas d'un étudiant seul qui développe une capacité d'IA ; il n'a pas les moyens de se conformer aux réglementations de l'UE et peut être contraint de ne pas distribuer son logiciel, ce qui a un effet dissuasif sur les progrès universitaires et sur la reproductibilité des résultats scientifiques, a déclaré Etzioni».

    Au lieu de chercher à réglementer les technologies de l'IA de manière générale, les régulateurs de l'UE devraient se concentrer sur des applications spécifiques de l'IA, affirme Etzioni. « Il y a trop d'incertitude et de changements rapides dans l'IA pour que le processus réglementaire lent soit efficace. Au lieu de cela, les applications de l'IA telles que les véhicules autonomes, les bots ou les jouets devraient faire l'objet d'une réglementation », a-t-il déclaré.

    Tous les praticiens ne pensent pas que la loi sur l'IA a besoin d'être encore modifiée

    Mike Cook, un chercheur en IA qui fait partie du collectif Knives and Paintbrushes, pense qu'il est « parfaitement correct » de réglementer l'IA open source « un peu plus lourdement » que nécessaire. Selon lui, l'établissement d'une norme, quelle qu'elle soit, peut être un moyen de montrer la voie à suivre au niveau mondial, en espérant que d'autres suivront. « Les discours alarmistes sur l'étouffement de l'innovation proviennent principalement de personnes qui veulent supprimer toute réglementation et avoir le champ libre, et ce n'est généralement pas un point de vue auquel j'accorde beaucoup d'importance. Je pense qu'il est normal de légiférer au nom d'un monde meilleur, plutôt que de s'inquiéter de savoir si votre voisin va réglementer moins que vous et en tirer profit d'une manière ou d'une autre, a déclaré Cook.

    Une analyse rédigée par Lilian Edwards, professeur de droit à la Newcastle School et conseiller juridique à temps partiel à l'Institut Ada Lovelace, se demande si les fournisseurs de systèmes tels que les grands modèles de langage à code source ouvert (par exemple GPT-3) pourraient être responsables après tout en vertu de la loi sur l'IA. Selon Edwards, le libellé de la législation fait peser la responsabilité de la gestion des utilisations et de l'impact d'un système d'IA sur les diffuseurs en aval, et pas nécessairement sur le développeur initial. « La façon dont les déployeurs en aval utilisent l'IA et l'adaptent peut être aussi importante que la façon dont elle est construite à l'origine. La loi sur l'IA en tient compte dans une certaine mesure, mais pas suffisamment, et ne parvient donc pas à réglementer de manière appropriée les nombreux acteurs qui s'impliquent de diverses manières 'en aval' dans la chaîne d'approvisionnement de l'IA, écrit Edwards.

    Chez la startup d'IA Hugging Face, le PDG Clément Delangue, le conseiller Carlos Muñoz Ferrandis et l'experte en politique Irene Solaiman disent qu'ils accueillent favorablement les réglementations visant à protéger les garanties des consommateurs, mais que la loi sur l'IA telle que proposée est trop vague. Par exemple, ils disent qu'il n'est pas clair si la législation s'applique aux modèles d'apprentissage automatique "préentraînés" au cœur des logiciels d'IA ou seulement aux logiciels eux-mêmes. « Ce manque de clarté, associé au non-respect des initiatives de gouvernance communautaire en cours, telles que les licences d'IA ouvertes et responsables, pourrait entraver l'innovation en amont, tout en haut de la chaîne de valeur de l'IA, ce qui est une grande priorité pour nous à Hugging Face. Du point de vue de la concurrence et de l'innovation, si vous imposez déjà des charges trop lourdes sur les fonctionnalités ouvertement publiées au sommet du flux d'innovation de l'IA, vous risquez d'entraver l'innovation incrémentale, la différenciation des produits et la concurrence dynamique, cette dernière étant essentielle sur les marchés technologiques émergents tels que ceux liés à l'IA... Le règlement devrait tenir compte de la dynamique d'innovation des marchés de l'IA et ainsi identifier clairement et protéger les sources essentielles d'innovation sur ces marchés », ont déclaré Delangue, Ferrandis et Solaiman dans une annonce commune.

    Quant à Hugging Face, l'entreprise plaide pour des outils de gouvernance de l'IA améliorés, quel que soit le langage final de la loi sur l'IA, comme des licences d'IA « responsables » et des cartes modèles qui incluent des informations telles que l'utilisation prévue d'un système d'IA et son fonctionnement. Delangue, Ferrandis et Solaiman soulignent que l'octroi de licences responsables commence à devenir une pratique courante pour les principales versions de l'IA, comme le modèle linguistique OPT-175 de Meta. « L'innovation ouverte et l'innovation responsable dans le domaine de l'IA ne sont pas des objectifs qui s'excluent mutuellement, mais plutôt des objectifs complémentaires. L'intersection entre les deux devrait être une cible centrale des efforts de réglementation en cours, comme elle l'est actuellement pour la communauté de l'IA », ont déclaré Delangue, Ferrandis et Solaiman. Cela pourrait bien être réalisable. Compte tenu des nombreuses parties mobiles impliquées dans l'élaboration de la réglementation européenne et il faudra probablement des années avant que la réglementation de l'IA dans le bloc ne commence à prendre forme.

    Source : Brookings Institution

    Et vous ?

    Quel est votre avis sur le sujet ?

    Voir aussi :

    L'organisation européenne des consommateurs estime que la proposition de loi de l'Europe sur l'IA est faible, en matière de protection des consommateurs

    Intelligence artificielle : la feuille de route du Parlement européen, l'UE veut porter les investissements dans le secteur de l'IA à 20 milliards d'euros d'ici 2030
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  7. #27
    Membre extrêmement actif
    Femme Profil pro
    Webmarketer
    Inscrit en
    Janvier 2021
    Messages
    399
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France, Seine et Marne (Île de France)

    Informations professionnelles :
    Activité : Webmarketer

    Informations forums :
    Inscription : Janvier 2021
    Messages : 399
    Points : 743
    Points
    743
    Par défaut
    Nous avons connu toute cette panique lorsque le RGPD était nouveau, mais l'UE conçoit généralement ces choses pour éviter ce genre de problèmes.
    Les développeurs de logiciels libres pourraient être responsables des données qu'ils utilisent pour la formation . Le dirait d'auteur et rgpd couvrent les ensembles de données d'entraînement. Vous ne pouvez pas simplement aller gratter des photos pour entraîner votre IA.

    Si elle fini par être biaisée, a moins que vous ne l'ayez annoncée comme étant prête pour la production et pas seulement comme un travail encours, vous ne serez pas rzponables si un entreprise la deploie. Les développeurs d'IA responsables influeront de toute façon des avertissements dans leurs codes

  8. #28
    Membre habitué
    Homme Profil pro
    Webmarketer
    Inscrit en
    Août 2021
    Messages
    83
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 37
    Localisation : Canada

    Informations professionnelles :
    Activité : Webmarketer

    Informations forums :
    Inscription : Août 2021
    Messages : 83
    Points : 199
    Points
    199
    Par défaut
    Exactement. La seule raison susciter une fausse panique ici est que vous êtes une entreprise commerciale qui n'en veut pas se conformer a ces exigences minimales et qui par conséquent, nourrit des fantasmes de dommages catastrophique

  9. #29
    Chroniqueur Actualités

    Homme Profil pro
    Dirigeant
    Inscrit en
    Juin 2016
    Messages
    3 160
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Dirigeant
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Juin 2016
    Messages : 3 160
    Points : 66 256
    Points
    66 256
    Par défaut Le PDG de GitHub veut que les développeurs de logiciels libres soient exemptés de la loi européenne sur l'IA
    Le PDG de GitHub explique pourquoi les développeurs de logiciels libres devraient être exemptés de la loi européenne sur l'IA
    ajoutant que cela pourrait aider l'UE à devenir le leader du secteur

    Thomas Dohmke, PDG de GitHub, estime que le projet de loi sur le développement et la recherche sur l'IA (AI Act) que l'Union européenne s'apprête à voter ne devrait pas s'appliquer aux développeurs de logiciels libres. Partant du fait que l'open source constitue le fondement de l'IA en Europe, Dohmke a déclaré que les nouvelles règles impacteraient négativement les développeurs et limiteraient leur capacité à entraîner efficacement leurs systèmes d'IA. En outre, il estime que l'Europe peut toujours prendre la tête de file dans le développement et la recherche et sur l'IA, à condition qu'elle n'impose pas des règles trop contraignantes aux acteurs du domaine.

    La loi de l'UE sur l'intelligence artificielle (AI Act) a été initialement proposée en avril 2021 pour faire face à l'influence grandissante de l'IA dans notre vie quotidienne. Les règles régiraient les applications de l'IA en fonction des risques perçus, et seraient effectivement les premières lois axées sur l'IA introduites par un organisme de réglementation majeur. Le Parlement européen devrait voter sur une version préliminaire de la loi sur l'IA dans les mois à venir, et en fonction des discussions et des débats qui suivront, elle pourrait être adoptée d'ici la fin de 2023. Cependant, tout le monde n'est pas enthousiasmé par les règles qu'introduirait cette loi.

    C'est le cas du PDG de GitHub, Thomas Dohmke. Pour lui, les développeurs de logiciels libres devraient être exemptés de la nouvelle réglementation de l'UE sur l'IA. « L'open source constitue le fondement de l'IA en Europe. Les États-Unis et la Chine ne sont pas obligés de tout gagner », a-t-il déclaré sur la scène du sommet politique de l'UE sur l'open source à Bruxelles. En effet, l'open source et l'IA sont intrinsèquement liés, étant donné que la collaboration et le partage des données sont essentiels au développement des systèmes d'IA. Ainsi, les critiques de la loi sur l'IA craignent qu'elle nuise au développement de l'IA et entrave les progrès dans le domaine.

    Nom : AI-Act-Europe.png
Affichages : 2434
Taille : 204,2 Ko

    Aussi bien intentionnée que soit la loi de l'UE sur l'IA, Dohmke et d'autres détracteurs estiment qu'elle pourrait probablement créer une responsabilité juridique pour les systèmes d'IA à usage général, et conférerait davantage de pouvoir et de contrôle aux Big Tech, étant donné que les développeurs indépendants de logiciels libres n'ont pas les ressources nécessaires pour faire face aux querelles juridiques. Cependant, pourquoi GitHub - une société américaine qui pèse environ 7,5 milliards de dollars appartenant au géant des logiciels Microsoft - s'inquiète-t-elle des réglementations en vigueur de l'autre côté de l'Atlantique ? Les raisons sont multiples.

    Les logiciels libres sont par nature distribués, et GitHub, qui a récemment annoncé avoir dépassé les 100 millions d'utilisateurs, s'appuie sur des développeurs du monde entier. Un rapport publié la semaine dernière par la société de capital-risque Runa Capital indique que 58 % des startups du secteur de l'open source qui connaissent la plus forte croissance sont basées en dehors des États-Unis, notamment en Allemagne, en France et au Royaume-Uni. Il est important de rappeler que le Royaume-Uni n'est pas régi par la réglementation européenne. Ainsi, les analystes estiment qu'une fois votée, la loi de l'UE sur l'IA pourrait avoir les mêmes effets que le RGPD.

    Avec son RGPD (le règlement GDPR sur la protection des données), l'Europe s'est imposée comme une force motrice en matière de réglementation des technologies. En d'autres termes, ce qui se passe en Europe peut se répercuter dans d'autres pays et devenir rapidement une norme mondiale. Entrée en vigueur dans l'UE en mai 2018, le RGPD sert de guide et de modèle dans plusieurs juridictions dans le monde. Il a également inspiré d'autres règlements typiques comme la loi californienne sur la protection des données personnelles du consommateur (California Consumer Privacy Act, CCPA). Plusieurs projets de loi de ce type sont à l'étude dans le monde.

    « La loi sur l'IA est tellement cruciale. Cette politique pourrait bien établir le précédent sur la façon dont le monde réglemente l'IA. Elle est d'une importance capitale. Elle est importante pour le leadership de l'Europe dans le domaine technologique, et pour l'avenir de l'économie européenne elle-même. Elle doit être juste et équilibré pour la communauté open source », a déclaré Dohmke sur scène. Toutefois, tout le monde n'est pas d'accord avec le point de vue de Dohmke. Certains estiment que la loi de l'UE sur l'IA devrait s'appliquer à tous, car elle vise à créer un cadre "idéal" pour le développement de systèmes d'IA "éthiques et responsables".

    « Si l'open source constitue le fondement de l'IA en Europe, il devrait être la cible première de la loi européenne sur l'IA, et non en être exempté. Apparemment, l'avis de Dohmke est que les réglementations sont destinées à choisir les gagnants et les perdants, et non à être un avantage pour la société. Et qu'y a-t-il de mal à rendre des comptes ? La dernière chose dont on a besoin est d'exempter certains développeurs afin qu'ils puissent concourir plus facilement tout en n'étant pas responsables de ce que leur négligence pourrait causer », a écrit un critique en réponse aux commentaires du PDG de GitHub sur le projet de loi de l'UE sur l'IA.

    Selon les analystes, Microsoft et GitHub ont tout à gagner d'un paysage open source fertile, comme en témoigne leur outil Copilot, potentiellement lucratif, qui aide les développeurs à coder en utilisant une technologie formée sur le travail des développeurs open source. Toutefois, Microsoft, GitHub et le laboratoire de recherche en IA OpenAI, dans lequel Microsoft a fortement investi, font l'objet d'un recours collectif pour leurs activités. En outre, le commissaire européen au marché intérieur, Thierry Breton, a déclaré que les applications transformatrices et de grande envergure de ChatGPT soulignaient la nécessité d'une réglementation solide.

    « Comme l'a montré ChatGPT, les solutions d'IA peuvent offrir de grandes opportunités aux entreprises et aux citoyens, mais peuvent également présenter des risques. C'est pourquoi nous avons besoin d'un cadre réglementaire solide pour garantir une IA digne de confiance basée sur des données de haute qualité », a déclaré Thierry Breton à Reuters lors d'une récente interview. Selon les analystes, à peu près tout le monde de l'IA tel que nous le connaissons aujourd'hui a été construit sur une base open source. Ainsi, quiconque a un intérêt à commercialiser l'IA a besoin du statu quo open source pour continuer à développer ses systèmes.

    Les grandes entreprises technologiques, y compris Google et Microsoft, reconnaissent qu'elles pourraient avoir plus de batailles juridiques sur les bras en raison de la réglementation imminente de l'IA, mais à tout le moins, elles ne veulent pas que les développeurs open source soient dissuadés de leur travail. Dohmke a déclaré que la loi sur l'IA peut apporter "les avantages de l'IA conformément aux valeurs européennes et aux droits fondamentaux". « C'est pourquoi je pense que les développeurs open source devraient être exemptés de la loi sur l'IA. Parce qu'en fin de compte, cela revient à des personnes », a-t-il déclaré.

    « La communauté open source n'est pas une communauté d'entités. C'est une communauté de personnes et la charge de la conformité devrait incomber aux entités, aux entreprises qui livrent des produits. Les développeurs de logiciels libres sont souvent des bénévoles, beaucoup d'entre eux ont deux emplois. Ce sont aussi bien des amateurs que des scientifiques, des universitaires que des médecins, des professeurs que des étudiants, et ils n'ont généralement pas l'intention de tirer profit de leurs contributions. Ils n'ont certainement pas de gros budgets ni leur propre département de conformité », a ajouté Dohmke.

    Source : Thomas Dohmke, PDG de GitHub

    Et vous ?

    Que pensez-vous du projet de loi européenne sur l'IA ?
    Que pensez-vous des commentaires du PDG de GitHub sur la loi de l'UE sur l'IA ?
    Selon vous, quels impacts pourrait-elle avoir sur le développement et la recherche sur l'IA ?
    Pensez-vous que la communauté open source devrait être exemptée de la loi européenne sur l'IA ?

    Voir aussi

    La loi européenne sur l'intelligence artificielle peut avoir un effet dissuasif sur les efforts en matière de logiciels libres, avertissent les experts de la Brookings Institution

    L'organisme européen de protection de la vie privée estime que la reconnaissance faciale devrait être interdite, en raison de son intrusion profonde et non démocratique dans la vie privée des gens

    Le Parlement européen a voté en faveur d'une interdiction totale de la surveillance biométrique de masse par les forces de l'ordre

    L'UE s'apprête à établir des règles en matière d'IA qui interdisent la surveillance et le classement du comportement social, les amendes pouvant atteindre 4 % du chiffre d'affaires
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  10. #30
    Membre extrêmement actif
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Août 2022
    Messages
    755
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 43
    Localisation : France, Hauts de Seine (Île de France)

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Août 2022
    Messages : 755
    Points : 0
    Points
    0
    Par défaut
    Citation Envoyé par Arya Nawel Voir le message
    Nous avons connu toute cette panique lorsque le RGPD était nouveau, mais l'UE conçoit généralement ces choses pour éviter ce genre de problèmes.
    Les développeurs de logiciels libres pourraient être responsables des données qu'ils utilisent pour la formation . Le dirait d'auteur et rgpd couvrent les ensembles de données d'entraînement. Vous ne pouvez pas simplement aller gratter des photos pour entraîner votre IA.

    Si elle fini par être biaisée, a moins que vous ne l'ayez annoncée comme étant prête pour la production et pas seulement comme un travail encours, vous ne serez pas rzponables si un entreprise la deploie. Les développeurs d'IA responsables influeront de toute façon des avertissements dans leurs codes
    La RGPD n'a pas été inventée par l'EU.

    Mais par des idéalistes qui ont fait pressions et ont proposés à tout les habitants des pays de l'UE de signer une pétition qui est devenue par la suite la RGPD, car l'Europe n'a pas eu d'autres choix que de valider cette pétition au vu du nombre de signataire et surtout, au vu du fait que dans le lot, il y avait des gens reconnus comme étant de véritables cerveaux.

    L'Europe a proprement parlé, c'est-à-dire ceux qui sont en charge de réfléchir à l'aspect moral, eux, sont des branquignols et jamais, la RGPD ne serait venu d'eux.

    Donc non, navré mais concernant ce que tu as écrit :
    l'UE conçoit généralement ces choses pour éviter ce genre de problèmes
    L'UE ne conçoit rien du tout, c'est un organe qui a totalement outrepassé sa fonction et qui est devenu un parasite qui vampirise les états membres, qui se permet de dicter sa loi et de dire aux divers pays Européens ce qu'ils doivent faire, en imposant des choses folles, en enrichissant les uns sur le fait de faire couler les autres et j'en passe.

    Il ne faut pas sortir de l'Europe, car nous en avons besoin, mais il faut faire un très, très grande ménage dans ce cancer sur pate.

  11. #31
    Membre à l'essai Avatar de Thibaut_D
    Homme Profil pro
    Étudiant
    Inscrit en
    Septembre 2014
    Messages
    6
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 27
    Localisation : France, Meurthe et Moselle (Lorraine)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Septembre 2014
    Messages : 6
    Points : 14
    Points
    14
    Par défaut
    Citation Envoyé par HaryRoseAndMac Voir le message
    La RGPD n'a pas été inventée par l'EU.
    Le RGPD à été proposé par la commission pour remplacer un ancien texte (Directive 95/46/CE sur la protection des données personnelles) voté en 1995. Ce n'est pas à cause d'une petition


    Citation Envoyé par HaryRoseAndMac Voir le message
    L'UE ne conçoit rien du tout, c'est un organe qui a totalement outrepassé sa fonction et qui est devenu un parasite qui vampirise les états membres, qui se permet de dicter sa loi et de dire aux divers pays Européens ce qu'ils doivent faire, en imposant des choses folles, en enrichissant les uns sur le fait de faire couler les autres et j'en passe.

    Il ne faut pas sortir de l'Europe, car nous en avons besoin, mais il faut faire un très, très grande ménage dans ce cancer sur pate.
    Ce sont les pays membres qui forme l'UE. La commission européenne (exécutif) est formée de 27 commissaires nommé par chaque état membre (1 commissaire par pays). Ce sont donc les états membres qui agissent sur l'UE. Il y a aussi le parlement européen (législatif) dont les députés sont élus par les citoyens de l'Union.

    C'est la commission européenne qui à proposé en RGPD donc les états membres donc parfaitement dans ses droits.

  12. #32
    Communiqués de presse

    Femme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2018
    Messages
    2 135
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Âge : 33
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Mai 2018
    Messages : 2 135
    Points : 158 434
    Points
    158 434
    Par défaut La loi européenne sur l'intelligence artificielle est retardée, les législateurs étant dans l'impasse
    La loi européenne sur l'intelligence artificielle est retardée, les législateurs n'ayant pas réussi à se mettre d'accord sur un ensemble de propositions de base

    Les projets de l'Union européenne visant à réglementer l'intelligence artificielle (IA) sont confrontés à une nouvelle pierre d'achoppement, les législateurs n'ayant pas réussi à se mettre d'accord sur un ensemble de propositions de base.

    La très attendue loi sur l'IA devrait être soumise au vote du Parlement européen à la fin du mois de mars, après quoi chaque pays commencera à négocier les conditions finales de la législation.

    Cependant, à l'issue d'une réunion cruciale de cinq heures à Bruxelles mercredi, les députés européens n'ont pas encore réussi à se mettre d'accord sur un ensemble de principes de base.

    Au cœur de leur différend se trouve la nécessité de trouver un équilibre entre les droits fondamentaux, tels que la confidentialité des données et la participation démocratique, et la nécessité d'éviter d'étouffer l'innovation et l'investissement dans le secteur.

    L'un des points les plus controversés du débat consiste à déterminer quels systèmes d'IA seraient classés dans la catégorie "à haut risque", par exemple ceux qui affectent la sécurité d'une personne ou portent atteinte aux droits fondamentaux. Ceux qui déploient de tels systèmes seraient soumis à des règles strictes de transparence et de contrôle.

    Nom : europe-drapeau.jpg
Affichages : 1734
Taille : 19,8 Ko

    "La tension évidente ici est entre l'accent mis sur les droits fondamentaux, d'une part, et ceux qui disent que ceux-ci entrent nécessairement en conflit avec l'innovation", a déclaré l'eurodéputé des Verts Sergey Lagodinsky.

    Une source au Parlement européen a déclaré que des négociations étaient en cours en vue de convenir d'un texte fort.

    "Le dossier est long et complexe, les députés européens travaillent dur pour parvenir à un accord sur leur mandat de négociation. Cependant, il n'y a pas de date limite ou de calendrier sur les prochaines étapes."

    Source : Parlement Européen

    Et vous ?

    Qu'en pensez-vous ?
    À votre avis, ces règlementations de l'intelligence artificielle vont-elles empêcher l'innovation dans le secteur ?

    Voir aussi :

    La loi européenne sur l'intelligence artificielle peut avoir un effet dissuasif sur les efforts en matière de logiciels libres, avertissent les experts de la Brookings Institution

    L'organisation européenne des consommateurs estime que la proposition de loi de l'Europe sur l'IA est faible, en matière de protection des consommateurs

    Le PDG de GitHub explique pourquoi les développeurs de logiciels libres devraient être exemptés de la loi européenne sur l'IA, ajoutant que cela pourrait aider l'UE à devenir le leader du secteur
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  13. #33
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 842
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 842
    Points : 36 242
    Points
    36 242
    Par défaut L'outil d'IA ChatGPT aurait brisé le plan de l'UE pour réglementer l'IA
    L'outil d'IA ChatGPT aurait brisé le plan de l'UE pour réglementer l'IA
    le plan initial de l'Europe visant à encadrer l'IA ne suffit pas pour faire face au nouvel outil d'OpenAI

    ChatGPT a pris le monde d'assaut depuis son lancement en novembre, avec son habileté à écrire des essais, des articles, des poèmes et du code informatique en quelques secondes seulement. Mais après des mois d’euphorie, et de critiques alarmistes de la part de ses détracteurs - la technologie confronte maintenant les régulateurs de l'Union européenne à une question surprenante : Comment pouvons-nous contrôler cet outil d’IA ?

    La technologie a déjà bouleversé le travail effectué par la Commission européenne, le Parlement européen et le Conseil de l'UE sur le projet de règlement de l'intelligence artificielle. Mi-juin 2018, la Commission européenne a nommé 52 experts au sein du nouveau groupe de haut niveau sur l'intelligence artificielle (le High Level Expert Group on Artificial Intelligence). Le groupe, composé de représentants du monde universitaire, des entreprises et de la société civile, avait pour vocation de soutenir la mise en œuvre de la communication de l'UE sur l'intelligence artificielle publiée en avril 2018.

    Nom : ChatGPT.png
Affichages : 1973
Taille : 125,0 Ko

    Dans un document intitulé « La démocratie constitutionnelle et la technologie à l'ère de l'intelligence artificielle » et publié en septembre 2018, Paul Nemitz (conseiller principal à la Commission européenne et professeur de droit au Collège d’Europe de Bruges) décrit, pour ce qui est, selon lui, les quatre éléments centraux responsables de la concentration du pouvoir aux mains des grandes entreprises informatiques. Ces éléments constituent à la fois une menace pour la démocratie et le bon fonctionnement des marchés, dit-il. Dans le même document, il présente l’expérience acquise avec l'Internet sans loi et la relation entre la technologie et le droit telle qu'elle s'est développée dans l'économie numérique.

    En 2021, la Commission européenne, le bras exécutif politiquement indépendant de l'UE, a publié le texte de la loi sur l'IA, qui vise à promouvoir le déploiement d'une « IA digne de confiance » dans l'UE, alors qu'ils sollicitent les commentaires de l'industrie avant un vote cet automne. Les institutions cherchent à apporter des modifications aux règlements qui tentent d'équilibrer l'innovation et la responsabilité. Mais selon certains experts, la loi sur l'IA, telle qu'elle est rédigée, imposerait des exigences onéreuses aux efforts ouverts de développement de systèmes d'IA.

    La législation prévoit des exceptions pour certaines catégories d'IA open source, comme celles utilisées exclusivement pour la recherche et avec des contrôles pour éviter les abus.

    Le règlement, proposé par la Commission en 2021, a été conçu pour interdire certaines applications de l'IA comme le scoring social, la manipulation et certains cas de reconnaissance faciale. Il désignerait également certaines utilisations spécifiques de l'IA comme étant à « haut risque », obligeant les développeurs à respecter des exigences plus strictes en matière de transparence, de sécurité et de surveillance humaine.

    ChatGPT est un grand modèle de langage général (LLM) développé récemment par OpenAI, une société d'intelligence artificielle basée à San Francisco, connue pour son célèbre DALL-E, un modèle d'apprentissage profond qui génère des images à partir d'instructions textuelles appelées « prompts ».

    Alors que la classe précédente de modèles d'intelligence artificielle était principalement constituée de modèles d'apprentissage profond (Deep Learning, DL), conçus pour apprendre et reconnaître des modèles dans les données, les LLM sont un nouveau type d'algorithme d'intelligence artificielle formé pour prédire la probabilité d'une séquence de mots donnée en fonction du contexte des mots qui la précèdent.

    Ainsi, si les LLM sont formés sur des quantités suffisamment importantes de données textuelles, ils sont capables de générer de nouvelles séquences de mots jamais observées auparavant par le modèle, mais qui représentent des séquences plausibles basées sur le langage humain naturel.

    ChatGPT est alimenté par GPT3.5, un LLM entraîné sur le modèle OpenAI 175B parameter foundation et un grand corpus de données textuelles provenant d'Internet via des méthodes d'apprentissage par renforcement et supervisé. Une utilisation anecdotique indique que ChatGPT présente des preuves de raisonnement déductif et de chaîne de pensée, ainsi que des compétences de dépendance à long terme.

    Les résultats mettent en évidence certaines forces et faiblesses potentielles de ChatGPT

    ChatGPT est un modèle linguistique d'intelligence artificielle introduit en novembre 2022 qui fournit des réponses conversationnelles générées à des questions incitatives. Le modèle est formé à l'aide d'un mélange d'algorithmes d'apprentissage par renforcement et d'entrées humaines sur plus de 150 milliards de paramètres. La plateforme a atteint un million d'utilisateurs dès sa première semaine d'ouverture au public et a été rapidement qualifiée de « prochain grand perturbateur de l'industrie » en raison de la qualité perçue des réponses fournies par le modèle.

    Certains chercheurs soupçonnent que ChatGPT est particulièrement fort pour prendre un ensemble de textes externes et les connecter (l'essence d'une idée de recherche), ou pour prendre des sections facilement identifiables d'un document et les ajuster (un exemple est le résumé des données - un « morceau de texte » facilement identifiable dans la plupart des études de recherche).

    Il n'est pas surprenant que l'utilisation de ces chatbots intéresse les éditeurs universitaires. Une récente étude, publiée dans Finance Research Letters, a montré que ChatGPT pouvait être utilisé pour rédiger un article financier qui serait accepté par une revue universitaire.

    Les chercheurs ont montré, en se basant sur les évaluations des résultats générés par les évaluateurs des revues financières, que le chatbot IA ChatGPT peut contribuer de manière significative à la recherche financière. « En principe, ces résultats devraient pouvoir être généralisés à d'autres domaines de recherche. Les avantages sont évidents pour la génération d'idées et l'identification de données. Cependant, la technologie est plus faible en ce qui concerne la synthèse de la littérature et le développement de cadres de test appropriés », concluent-ils.

    La réflexion était la suivante : s'il est facile d'obtenir de bons résultats avec ChatGPT en l'utilisant simplement, peut-être pouvons-nous faire quelque chose de plus pour transformer ces bons résultats en excellents résultats. Les chercheurs ont d'abord demandé à ChatGPT de générer les quatre parties standard d'une étude de recherche : l'idée de recherche, l'analyse documentaire (une évaluation des recherches universitaires précédentes sur le même sujet), l'ensemble des données et les suggestions de tests et d'examens. Ils ont spécifié que le sujet général et que le résultat devait pouvoir être publié dans « une bonne revue financière ».

    C'est la première version choisie pour utiliser ChatGPT. Pour la deuxième version, ils ont collé dans la fenêtre de ChatGPT un peu moins de 200 résumés d'études pertinentes et existantes. Ils ont ensuite demandé au programme de les prendre en compte lors de la création des quatre étapes de recherche. Enfin, pour la version 3, ils ont ajouté « l'expertise du domaine », c'est-à-dire la contribution de chercheurs universitaires. « Nous avons lu les réponses produites par le programme informatique et fait des suggestions d'amélioration. Ce faisant, nous avons intégré notre expertise à celle de ChatGPT », ont-ils dit.

    « Nous avons ensuite demandé à un panel de 32 évaluateurs d'examiner chacun une version de la manière dont ChatGPT peut être utilisé pour générer une étude universitaire. Les examinateurs ont été invités à évaluer si le résultat était suffisamment complet et correct, et s'il apportait une contribution suffisamment nouvelle pour être publié dans une "bonne" revue financière universitaire », ajoutent-ils.

    La grande leçon à retenir est que toutes ces études ont été généralement considérées comme acceptables par les experts. Ce qui parait assez étonnant, de l’avis de certains observateurs. Cela soulève des questions fondamentales sur la signification de la créativité et la propriété des idées créatives - des questions auxquelles personne n'a encore de réponses solides.

    « Ces systèmes n'ont aucune compréhension éthique du monde, n'ont aucun sens de la vérité et ne sont pas fiables », a déclaré Gary Marcus, expert en IA et critique virulent. Ces IA « sont comme des moteurs. Ce sont des moteurs et des algorithmes très puissants qui peuvent faire un grand nombre de choses et qui, eux-mêmes, ne sont pas encore affectés à un objectif », a déclaré Dragoș Tudorache, un législateur roumain libéral qui, avec le législateur italien S&D Brando Benifei, est chargé de faire passer la loi sur l'IA au Parlement européen.

    Des exigences plus strictes aux développeurs et aux utilisateurs de ChatGPT

    La technologie a déjà incité les institutions européennes à réécrire leurs projets. Le Conseil, qui représente les capitales nationales, a approuvé en décembre sa version du projet de loi sur l'IA, qui confie à la Commission le soin d'établir des exigences en matière de cybersécurité, de transparence et de gestion des risques pour les IA à usage général. L'essor de ChatGPT oblige désormais le Parlement européen à lui emboîter le pas.

    En revanche, les militants et les observateurs estiment que la proposition ne fait qu'effleurer l'énigme de l'IA à usage général. « Il ne suffit pas de placer les systèmes de création de textes sur la liste des systèmes à haut risque : il existe d'autres systèmes d'IA à usage général qui présentent des risques et qui devraient également être réglementés », a déclaré Mark Brakel, directeur des politiques au Future of Life Institute, une organisation à but non lucratif axée sur la politique de l'IA.

    Les deux principaux législateurs du Parlement travaillent également à imposer des exigences plus strictes aux développeurs et aux utilisateurs de ChatGPT et de modèles d'IA similaires, notamment en matière de gestion des risques liés à la technologie et de transparence de son fonctionnement. Ils tentent également d'imposer des restrictions plus strictes aux grands fournisseurs de services tout en maintenant un régime plus léger pour les utilisateurs quotidiens qui jouent avec la technologie.

    Les professionnels de secteurs tels que l'éducation, l'emploi, la banque et les services répressifs doivent être conscients « de ce qu'implique l'utilisation de ce type de système à des fins présentant un risque important pour les droits fondamentaux des personnes », a déclaré Benifei. Si le Parlement a du mal à se faire une idée de la réglementation ChatGPT, Bruxelles se prépare aux négociations qui suivront.

    La Commission européenne, le Conseil de l'UE et le Parlement discuteront des détails d'une loi définitive sur l'IA lors de négociations tripartites qui devraient débuter en avril au plus tôt. Là, ChatGPT pourrait bien amener les négociateurs dans une impasse, alors que les trois parties cherchent une solution commune à cette nouvelle technologie.

    Les grandes entreprises technologiques, en particulier celles qui ont leur mot à dire, comme Microsoft et Google, suivent de près l'évolution de la situation. La loi européenne sur l'IA doit « rester axée sur les cas d'utilisation à haut risque », a déclaré Natasha Crampton, responsable en chef de l'IA chez Microsoft, suggérant que les systèmes d'IA à usage général tels que ChatGPT ne sont guère utilisés pour des activités à risque, mais plutôt pour rédiger des documents et aider à écrire du code.

    « Nous voulons nous assurer que les cas d'utilisation de grande valeur et à faible risque continuent d'être disponibles pour les Européens », a déclaré Crampton. Une enquête récente menée par le groupe d'activistes pour la transparence Corporate Europe Observatory aurait également révélé que les acteurs de l'industrie, y compris Microsoft et Google, avaient fait pression avec acharnement sur les décideurs politiques de l'UE pour exclure l'IA polyvalente comme ChatGPT des obligations imposées aux systèmes d'IA à haut risque.

    Source : Politico

    Et vous ?

    Quel est votre avis sur le sujet ?

    Que pensez-vous de la feuille de route du Parlement européen ?

    Voir aussi :

    L'UE s'apprête à établir des règles en matière d'IA qui interdisent la surveillance et le classement du comportement social, les amendes pouvant atteindre 4 % du chiffre d'affaires

    ChatGPT produirait de faux documents universitaires, alors que des professions se sentent menacées par le célèbre outil d'OpenAI
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  14. #34
    Membre du Club
    Profil pro
    Inscrit en
    Mars 2012
    Messages
    20
    Détails du profil
    Informations personnelles :
    Localisation : Belgique

    Informations forums :
    Inscription : Mars 2012
    Messages : 20
    Points : 53
    Points
    53
    Par défaut
    "ChatGPT présente des preuves de raisonnement déductif et de chaîne de pensée"
    Je l'ai essayé pour voir s'il pouvait faire des preuves en géométrie et c'est vraiment pas fameux. Ses démonstrations ressemblent beaucoup aux tentatives d'enfumage de certains de mes étudiants quand ils ne maîtrisent le sujet.

  15. #35
    Membre émérite
    Profil pro
    Inscrit en
    Juin 2009
    Messages
    907
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Juin 2009
    Messages : 907
    Points : 2 814
    Points
    2 814
    Par défaut
    Citation Envoyé par ciola Voir le message
    "ChatGPT présente des preuves de raisonnement déductif et de chaîne de pensée"
    Je l'ai essayé pour voir s'il pouvait faire des preuves en géométrie et c'est vraiment pas fameux. Ses démonstrations ressemblent beaucoup aux tentatives d'enfumage de certains de mes étudiants quand ils ne maîtrisent le sujet.
    En soi on le sait déjà que les maths sont pas son point fort.

    En même temps c'est une IA qui est faite pour des "conversations" plus que des "démonstrations scientifiques".

  16. #36
    Expert éminent sénior

    Femme Profil pro
    Rédacteur Web
    Inscrit en
    Mars 2020
    Messages
    838
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur Web

    Informations forums :
    Inscription : Mars 2020
    Messages : 838
    Points : 58 035
    Points
    58 035
    Par défaut La Chambre de commerce des États-Unis demande une réglementation de l'IA.
    La Chambre de commerce des États-Unis demande une réglementation de l'IA,
    pour que l'IA ne nuise pas à la croissance ou ne devienne pas un risque pour la sécurité

    La Chambre de commerce des États-Unis a appelé jeudi à une réglementation des technologies d'intelligence artificielle afin de s'assurer qu'elles ne nuisent pas à la croissance ou ne deviennent pas un risque pour la sécurité nationale, s'écartant ainsi de la position antiréglementaire habituelle du groupe de lobbying des entreprises.

    Nom : Screenshot_2023-03-10 U S Chamber of Commerce calls for AI regulation.png
Affichages : 2795
Taille : 203,2 Ko

    Bien qu'il n'y ait que peu de propositions législatives concernant l'IA, le programme d'intelligence artificielle ChatGPT, qui connaît une croissance rapide et qui a été salué pour sa capacité à rédiger rapidement des réponses à un large éventail de questions, a suscité l'inquiétude des législateurs américains quant à son impact sur la sécurité nationale et sur l'éducation.

    Selon le rapport de la Chambre de commerce, les décideurs politiques et les chefs d'entreprise doivent rapidement intensifier leurs efforts pour établir un « cadre réglementaire fondé sur les risques » qui garantira que l'IA est déployée de manière responsable.

    Il ajoute que l'IA devrait ajouter 13 000 milliards de dollars à la croissance économique mondiale d'ici à 2030 et qu'elle a apporté d'importantes contributions, comme la réduction de la pénurie d'infirmières dans les hôpitaux et la cartographie des incendies de forêt afin d'accélérer la réponse des responsables de la gestion des urgences. Le rapport insiste sur la nécessité de se préparer à l'omniprésence imminente de la technologie et à ses dangers potentiels.

    Le rapport affirme que d'ici 20 ans, "pratiquement toutes" les entreprises et les agences gouvernementales utiliseront l'IA.

    Fruit des travaux d'une commission sur l'intelligence artificielle créée l'année dernière par la Chambre de commerce, le rapport reconnaît en partie le rôle essentiel que jouera le monde des affaires dans le déploiement et la gestion de l'IA, selon la Chambre de commerce.

    Tout en appelant à davantage de réglementation, la Chambre de commerce prend soin de préciser qu'il peut y avoir de larges exceptions à la manière dont la réglementation est appliquée.

    « Plutôt que d'essayer de développer un cadre réglementaire unique, cette approche de la réglementation de l'IA permet de développer des orientations et de meilleures pratiques flexibles et spécifiques à l'industrie », indique le rapport.

    Source : Le rapport de la Chambre de commerce des États-Unis

    Et vous ?

    Quel est votre avis sur le sujet ?

    Voir aussi :

    « Le développement de l'IA sans réglementation induit une menace existentielle pour l'humanité », d'après Elon Musk, dont une société développe des puces à insérer dans le cerveau pour contrer l'IA

    Le Vatican, IBM et Microsoft ensemble pour appeler à une réglementation de la reconnaissance faciale et de façon générale, à une régulation de l'IA pour le bien de l'humanité

    Microsoft appelle à la réglementation de la reconnaissance faciale afin d'éviter des dérives potentielles et propose des axes de réflexion

    Le président de Microsoft a déclaré que sans la réglementation de la technologie de reconnaissance faciale, 2024 pourrait ressembler au roman « 1984 »
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  17. #37
    Chroniqueur Actualités

    Homme Profil pro
    Dirigeant
    Inscrit en
    Juin 2016
    Messages
    3 160
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Dirigeant
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Juin 2016
    Messages : 3 160
    Points : 66 256
    Points
    66 256
    Par défaut L'UE envisagerait des règles très strictes pour les chatbots dans le cadre de son projet de loi sur l'IA
    L'UE envisagerait des règles très strictes pour les chatbots dans le cadre de son projet de loi sur l'IA
    elle devrait exiger la divulgation de l'utilisation du matériel protégé par le droit d'auteur

    L'UE pourrait introduire prochainement une réglementation très stricte en ce qui concerne le développement et le déploiement des chatbots d'IA. Les nouvelles règles, qui seraient en cours de préparation au Parlement européen, proposeraient d'obliger les fabricants de chatbots d'IA à révéler s'ils utilisent du matériel protégé par des droits d'auteur. Cela pourrait permettre aux créateurs de contenu de jouir d'une redevance de droit d'auteur. L'IA générative a donné lieu à de nombreuses plaintes en matière de violation de droit d'auteur et l'UE veut y mettre un terme. À mesure que la loi sur l'IA évolue, les chatbots pourraient faire l'objet d'une surveillance accrue.

    Les discussions se poursuivent à Bruxelles concernant les propositions de la loi européenne sur l'IA (EU AI Act). C'est la première loi sur l'IA émanant d'une autorité de régulation majeure dans le monde. Elle classe les applications d'IA dans trois catégories de risque. Premièrement, les applications et les systèmes qui créent un risque inacceptable, tels que les systèmes de notation sociale gérés par le gouvernement, comme ceux utilisés en Chine, sont interdits. Deuxièmement, les applications d'IA à haut risque, comme un outil de balayage de CV qui classe les candidats à l'emploi, sont soumises à des exigences légales spécifiques par les régulateurs de l'UE.

    Enfin, les applications qui ne sont pas explicitement interdites ou répertoriées comme présentant un risque élevé échappent en grande partie à la réglementation. Les chatbots d'IA pourraient être classés dans cette catégorie. Ainsi, des sources au fait des discussions à Bruxelles rapportent que l'UE prépare de nouvelles réglementations qui pourraient avoir un impact majeur sur le développement et le déploiement des outils d'IA. Parmi les mesures susceptibles d'être proposées figure l'obligation pour les développeurs de produits tels que ChatGPT d'OpenAI de déclarer si du matériel protégé par des droits d'auteur est utilisé pour entraîner leurs modèles d'IA.

    Nom : AI-Act-Europe.png
Affichages : 2512
Taille : 204,2 Ko

    La mesure semble être conçue pour permettre aux créateurs de contenu d'exiger un paiement (une redevance de droit d'auteur). En effet, l'IA générative a pris tout le monde court par son essor rapide. Aucun régulateur, gouvernement ou analyste ne peut s'enorgueillir d'avoir anticipé brièvement les bouleversements radicaux qu'elle a déjà introduits et qu'elle pourrait encore introduire à l'avenir en raison de ses puissantes capacités et de son adoption généralisée. Cela a contraint certains pays à prendre des mesures d'urgence. Fin mars, l'Italie a bloqué temporairement le chatbot d'IA ChatGPT d'OpenAI, invoquant des violations présumées de la vie privée.

    Le commissaire allemand à la protection des données envisage une interdiction similaire et la France se pencherait également sur la question après plusieurs plaintes déposées auprès de la CNIL contre OpenAI. En outre, l'IA générative soulève également des questions sur la violation du droit d'auteur. Les régulateurs et les tribunaux se demandent si les programmes basés sur une IA générative peuvent porter atteinte au droit d'auteur sur des œuvres existantes, soit en faisant des copies d'œuvres existantes pour entraîner l'IA, soit en générant des résultats qui ressemblent à ces œuvres existantes. Les tribunaux ont enregistré de nombreuses plaintes à ce sujet.

    Les modèles d'IA de génération de texte (comme ChatGPT et Claude) et les modèles d'IA de génération d'œuvre d'art (comme Stable Diffusion, Midjourney et DALL-E 2) peuvent des résultats fascinants. De plus, la qualité et la vitesse de création sont élevées par rapport à la performance humaine moyenne. Cependant, si l'on peut penser que ces nouveaux outils d'IA peuvent faire surgir de nouveaux éléments de l'éther, ce n'est pas tout à fait le cas. Les plateformes d'IA générative sont formées sur des lacs de données et des extraits de questions (des milliards de paramètres construits par des logiciels qui traitent d'énormes archives d'images et de textes).

    Les outils d'IA récupèrent des modèles et des relations, qu'elles utilisent ensuite pour créer des règles, puis pour émettre des jugements et des prédictions, lorsqu'elles répondent à une question. Ce processus comporte des risques juridiques, notamment en matière de violation de la propriété intellectuelle. Dans de nombreux cas, il pose également des questions juridiques qui sont encore en cours de résolution. Par exemple, la violation des droits d'auteur, des brevets et des marques s'applique-t-elle aux créations de l'IA ? Qui est réellement le propriétaire du contenu que les plateformes d'IA générative créent pour vous ou pour vos clients ?

    Comme indiqué précédemment, OpenAI a refusé de partager des détails sur la formation de GPT-4, à la grande déception des chercheurs en IA qui plaident en faveur d'une plus grande transparence. Ce refus illustre toutefois le virage à 180 degrés d'OpenAI par rapport à ses fondements initiaux. Fondé en tant qu'organisation à but non lucratif en 2015, l'entreprise a viré de bord en 2019 pour aller vers la recherche du profit et a reçu des milliards de dollars d'investissement de la part de Microsoft. OpenAI, qui voulait démocratiser l'IA et le rendre accessible à tous, est devenue une entreprise très fermée, accordant un accès spécial à ses produits à Microsoft.

    Pour l'instant, la proposition visant à obliger les créateurs de chatbots à divulguer le matériel protégé par un droit d'auteur n'est qu'une rumeur et la loi sur l'IA est en cours d'élaboration depuis 2021. Peu de détails sont disponibles sur les propositions. Toutefois, les sources indiquent que le débat sur les règles supplémentaires relatives aux chatbots suggère que le processus de finalisation de la loi ne s'achèvera pas avant au moins 2024. Dans l'intervalle, les États membres de l'UE continuent d'élaborer leurs propres politiques, créant ainsi un réseau complexe de critères de gouvernance dans lequel des entreprises comme OpenAI doivent naviguer.

    Selon les sources, une autre proposition à l'étude exigerait que les chatbots d'IA informent les utilisateurs humains qu'ils ne sont pas en train de converser avec un autre humain. Compte tenu des cas où des personnes se sont attachées à des chatbots et où certaines ont même cru qu'ils étaient sensibles, les législateurs estiment qu'une telle divulgation est une première étape fondamentale. Elles ont ajouté que les députés européens souhaiteraient également que la responsabilité de l'utilisation abusive des programmes d'IA incombe aux développeurs tels que l'OpenAI, plutôt qu'aux petites entreprises qui l'utilisent. Rien n'est encore officiel toutefois.

    Avant que les entreprises puissent profiter pleinement des avantages de l'IA générative, elles doivent en comprendre les risques et savoir comment se protéger. Dragoș Tudorache, un membre du Parlement européen qui dirige les négociations sur la loi sur l'IA, a souligné l'importance des réglementations pour garantir un déploiement sûr. « C'est une technologie pionnière, et nous devons l'exploiter, ce qui signifie mettre en place des règles. L'autorégulation des entreprises ne suffit pas », a-t-il déclaré.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de la proposition des parlementaires européens ?
    En quoi ces nouvelles règles potentielles peuvent-elles être bénéfiques pour les créateurs de contenu ?
    Selon vous, quelles seraient les conséquences d'une telle réglementation pour les créateurs de chatbots d'IA ?

    Voir aussi

    « Nous nous dirigeons à grands pas vers un Internet fortement influencé par l'IA, bourré de pépins, de spams et d'escroqueries », affirme un journaliste senior du MIT Technology Review

    « Les appels à suspendre le développement des systèmes d'IA ne résoudront pas les défis liés à leur mise sur pied », d'après Bill Gates qui entrevoit l'échec d'un consensus à l'échelle mondiale

    La loi européenne sur l'intelligence artificielle est retardée, les législateurs n'ayant pas réussi à se mettre d'accord sur un ensemble de propositions de base
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  18. #38
    Membre éclairé
    Profil pro
    Account Manager
    Inscrit en
    Mars 2006
    Messages
    153
    Détails du profil
    Informations personnelles :
    Localisation : France, Dordogne (Aquitaine)

    Informations professionnelles :
    Activité : Account Manager

    Informations forums :
    Inscription : Mars 2006
    Messages : 153
    Points : 697
    Points
    697
    Par défaut
    Que pensez-vous de la proposition des parlementaires européens ?
    Qu'ils sont complètement dans le flou.

    Selon vous, quelles seraient les conséquences d'une telle réglementation pour les créateurs de chatbots d'IA ?
    Bah, on n'a pas de règles claires (en tout vas je n'en vois pas dans cet article) donc c'est dur de se prononcer.

    Par contre, la 1er régle donné elle est deja hors sol ou la virgule est mal placé. Je cite "...les applications et les systèmes qui créent un risque inacceptable, tels que les systèmes de notation sociale gérés par le gouvernement, comme ceux utilisés en Chine, sont interdits."
    Oui, un système notation basé sur l'IA doit être interdit dans tous les cas et on a beaucoup d'exemples dans le monde professionnel.
    Par contre parler de gouvernement chinois et de leur notation individuel est complètement à côté de la plaque vu que ce système n'existe pas.

    Extrait d'un article du MIT :
    Existe-t-il donc un score de crédit social centralisé calculé pour chaque citoyen chinois ?
    Non. Contrairement à la croyance populaire, il n'y a pas de score central de crédit social pour les individus. Et franchement, le gouvernement central chinois n'a jamais parlé d'en vouloir un.


    Y a-t-il une technologie de pointe, comme l'intelligence artificielle, impliquée dans le système ?
    Pour la plupart, non. C'est un autre mythe courant sur le système de crédit social en Chine : les gens s'imaginent que pour suivre les comportements sociaux de plus d'un milliard de personnes, il doit y avoir un puissant algorithme central qui peut collecter et traiter les données.

    Mais ce n'est pas vrai. Puisqu'il n'y a pas de système central qui note tout le monde, ce type d'algorithme puissant n'est même pas nécessaire. Les experts du système de crédit social chinois affirment que l'ensemble de l'infrastructure est étonnamment peu technologique. Alors que les responsables chinois nomment parfois des technologies telles que la blockchain et l'intelligence artificielle lorsqu'ils parlent du système, ils ne parlent jamais en détail de la manière dont ces technologies pourraient être utilisées. Si vous consultez le site Web de Credit China, ce n'est rien de plus qu'une bibliothèque numérisée de bases de données distinctes.


    Lien : https://www.technologyreview.com/202...-does-it-mean/

  19. #39
    Membre éclairé

    Profil pro
    Inscrit en
    Mai 2003
    Messages
    311
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Mai 2003
    Messages : 311
    Points : 739
    Points
    739
    Billets dans le blog
    1
    Par défaut
    Après le RGPD, le bandeau sur les cookies, j'ai hâte de voir la suite.

  20. #40
    Membre averti
    Homme Profil pro
    Consultant informatique
    Inscrit en
    Février 2018
    Messages
    81
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Côte d'Or (Bourgogne)

    Informations professionnelles :
    Activité : Consultant informatique

    Informations forums :
    Inscription : Février 2018
    Messages : 81
    Points : 425
    Points
    425
    Par défaut
    En fait il y a quand même quelque chose qui me dérange fortement dans ce qui est fait avec chatgpt: quand on a eu google et son robot d'indexation on pouvait indiquer qu'on ne voulait pas qu'une page soit indexée dans google. Là avec chatgpt, ils se sont permis de piller les données sans aucune autorisation et on a aucun moyen d'empêcher l'utilisation des données pour de futurs entrainement de chatgtp. Et en plus on nous annonce que ce pillage va faire perdre des millions d'emplois... C'est un peu comme si j'allais braquer une banque puis j'utilisais l'argent pour devenir actionnaire majoritaire de la banque.

Discussions similaires

  1. Réponses: 278
    Dernier message: 10/04/2024, 18h54
  2. Réponses: 2
    Dernier message: 20/10/2020, 16h13
  3. Réponses: 7
    Dernier message: 19/04/2020, 14h46
  4. Réponses: 2
    Dernier message: 04/12/2019, 11h35
  5. Les Etats-Unis veulent réglementer le commerce de failles logicielles
    Par Michael Guilloux dans le forum Actualités
    Réponses: 12
    Dernier message: 29/05/2015, 22h05

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo