IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #121
    Expert éminent sénior

    Homme Profil pro
    Directeur des systèmes d'information
    Inscrit en
    Avril 2002
    Messages
    2 838
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 64
    Localisation : Luxembourg

    Informations professionnelles :
    Activité : Directeur des systèmes d'information
    Secteur : Finance

    Informations forums :
    Inscription : Avril 2002
    Messages : 2 838
    Points : 19 233
    Points
    19 233
    Par défaut
    Citation Envoyé par Anselme45 Voir le message
    Pour s'en convaincre, il suffit de lire les news de ce site: La majorité des news traitent maintenant de l'IA... Apparemment les autres technologies numériques ne sont plus dignes d'intérêt
    C'est archifaux. Oui il y a sur developpez un tas de news sur l'IA mais c'est parfaitement normal, ça nous concerne, aussi bien les développeurs que les autres informaticiens.

    Il n'en reste pas moins que developpez est quasiment le seul et unique site francophone qui passe aussi un tas de news sur l'actualité de la programmation, les nouvelles versions des langages, les nouvelles sorties des EDI (Jetbrains, Microsoft, Embarcadero, ...) , etc. Et c'est surtout devenu le "Médiapart/Canard enchainé" de l'informatique avec toutes les news à scandales sur HP, Microsoft, Google, etc. Exemple l'énorme scandale sur les imprimantes HP avec des centaines de commentaires, et quel rapport avec l'IA ? aucun... D 'ailleurs toi même tu viens de répondre à un sujet à scandale n'ayant rien à voir avec l'IA, à savoir : Google peut garder votre téléphone si vous l’envoyez en réparation avec des pièces qui ne sont pas d’origine

    Regarde les rubriques programmation et EDI au lieu de dire n'importe quoi, et il y a toujours une colonne droite avec des tutoriels programmation et IT Pro, des articles gratuits alors que c'est devenu payant ailleurs (Udemy, Elephorm, etc). Developpez est devenu le meilleur site sur francophonie sur l'IA, mais il reste toujours le meilleur site pour les développeurs et même l'IT Pro, c'est bien simple il n'y en a pas d'autre de valables....

  2. #122
    Membre expert
    Homme Profil pro
    Étudiant
    Inscrit en
    Novembre 2021
    Messages
    1 194
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Drôme (Rhône Alpes)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Novembre 2021
    Messages : 1 194
    Points : 3 243
    Points
    3 243
    Par défaut
    Citation Envoyé par Pierre Louis Chevalier Voir le message
    C'est archifaux. Oui il y a sur developpez un tas de news sur l'IA mais c'est parfaitement normal, ça nous concerne, aussi bien les développeurs que les autres informaticiens.

    Il n'en reste pas moins que developpez est quasiment le seul et unique site francophone qui passe aussi un tas de news sur l'actualité de la programmation, les nouvelles versions des langages, les nouvelles sorties des EDI (Jetbrains, Microsoft, Embarcadero, ...) , etc. Et c'est surtout devenu le "Médiapart/Canard enchainé" de l'informatique avec toutes les news à scandales sur HP, Microsoft, Google, etc. Exemple l'énorme scandale sur les imprimantes HP avec des centaines de commentaires, et quel rapport avec l'IA ? aucun... D 'ailleurs toi même tu viens de répondre à un sujet à scandale n'ayant rien à voir avec l'IA, à savoir : Google peut garder votre téléphone si vous l’envoyez en réparation avec des pièces qui ne sont pas d’origine

    Regarde les rubriques programmation et EDI au lieu de dire n'importe quoi, et il y a toujours une colonne droite avec des tutoriels programmation et IT Pro, des articles gratuits alors que c'est devenu payant ailleurs (Udemy, Elephorm, etc). Developpez est devenu le meilleur site sur francophonie sur l'IA, mais il reste toujours le meilleur site pour les développeurs et même l'IT Pro, c'est bien simple il n'y en a pas d'autre de valables....
    Je suis totalement d'accord. Il y a de nombreuses informations que je ne trouve que sur developpez. Je pense que c'est sur le meilleurs média francophone traitant du numérique. Un bon exemple est le traitement de l'horrible projet de loi chatcontrol, où dans la presse francophone, seul developpez semble prendre la mesure de ce que ce projet de loi représente.
    Je rêve de trouver des sources aussi qualitative sur d'autres sujets.

  3. #123
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 930
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 930
    Points : 206 860
    Points
    206 860
    Par défaut Ari Emanuel qualifie Sam Altman « d'escroc » à qui l'on ne peut pas faire confiance en matière d'IA
    Ari Emanuel qualifie le PDG d'OpenAI Sam Altman « d'escroc » à qui l'on ne peut pas faire confiance en matière d'IA,
    le magnat des médias appelle à la mise en place de garde-fous pour cette technologie

    Lors du festival Aspen Ideas, Ari Emanuel, PDG du conglomérat médiatique Endeavor, a exprimé son opinion tranchante sur Sam Altman, le PDG d’OpenAI. Selon lui, Altman est un « manipulateur » qui ne peut pas être digne de confiance en matière d’intelligence artificielle. Il a également appelé à la mise en place de garde-fous pour cette technologie.

    Ari Emanuel, PDG d'Endeavor, le conglomérat du sport et du divertissement, a qualifié Sam Altman, PDG d'OpenAI, « d'escroc » à qui l'on ne peut pas faire confiance en matière d'intelligence artificielle.

    Lors du festival d'idées d'Aspen vendredi, Tina Brown, rédactrice en chef fondatrice du Daily Beast, a demandé au géant des médias de partager ses réflexions sur l'intelligence artificielle et les assurances que des innovateurs tels qu'Altman donnent à propos de la technologie.

    Emanuel a d'abord pensé à Elon Musk, qu’il considère comme un « ami », notant qu'ils n'étaient pas d'accord sur de nombreux points, mais pas sur les risques de l'IA. « Si Elon Musk est inquiet, alors nous devrions l’être aussi », a-t-il déclaré. « Nous avons besoin de garde-fous. »

    En ce qui concerne Sam Altman, Emanuel a été moins indulgent. Il a critiqué la façon dont OpenAI, initialement une organisation à but non lucratif, est désormais devenue lucrative. Altman ne détient pas directement d’actions dans OpenAI, mais la structure de l’entreprise est inhabituelle : une partie à but lucratif est gérée par une organisation à but non lucratif. Cette structure visait à garantir que l’IA générale bénéficie à l’humanité avant de privilégier les profits. Cependant, ces derniers mois, l’engagement d’OpenAI envers cette mission a été remis en question.

    Deux jours avant l'intervention d'Emanuel au festival, Altman et le PDG d'Airbnb, Brian Chesky, étaient présents au même événement et ont déclaré que la mise au point d'une IA responsable nécessiterait la participation de la société.

    « Nous devons apprendre à créer des technologies sûres », a déclaré Altman. « Nous devons trouver comment construire des produits sûrs, et cela passe par un dialogue permanent avec la société ».

    Emanuel a déclaré que les personnes comme Altman sont probablement très intelligentes et qu'il ne veut pas étouffer l'innovation ; cependant, il ne croit pas que les innovateurs aient bien pesé les avantages de l'IA par rapport à ses inconvénients. « J'ai pensé à toute une série de choses qui sont mauvaises », a-t-il déclaré. « Vous me dites que vous avez fait le calcul et que les avantages l'emportent sur les inconvénients. Je ne crois pas ».

    Le PDG d'Endeavor a ajouté que la réglementation gouvernementale sera nécessaire à mesure que l'IA se développera.

    « Je ne veux pas non plus étouffer l'innovation, car je pense que nous avons besoin de l'IA. Mais nous devons l'encadrer », a-t-il déclaré. « Je sais que beaucoup de gens dans la Silicon Valley n'aiment pas que le gouvernement intervienne - et ce n'est pas comme si le gouvernement avait obtenu de bons résultats dans ce domaine - mais il s'agit d'une technologie assez dynamique qui nécessite une réflexion approfondie sur ce qui peut et ne peut pas se produire ».

    Il est clair qu’Ari Emanuel estime que la confiance envers les acteurs de l’IA doit être examinée de près, et que des mesures de régulation sont nécessaires pour garantir une utilisation responsable de cette technologie

    Nom : secretaire.png
Affichages : 4544
Taille : 442,4 Ko
    Le secrétaire général de l'ONU, Antonio Guterres

    L'ONU veut créer une agence mondiale pour réguler l'IA

    La prolifération de la haine et des mensonges sur les plateformes numériques et la menace que l'intelligence artificielle puisse devenir un « monstre » incontrôlé exigent une action mondiale coordonnée, à commencer par un code de conduite pour les gouvernements, les entreprises technologiques et les annonceurs qui promeut la vérité et protège les droits de l'homme, selon une déclaration du secrétaire général de l'ONU.

    Antonio Guterres a déclaré qu'il prévoyait de nommer un conseil consultatif scientifique et un conseil consultatif sur l'intelligence artificielle en septembre 2023 pour préparer les initiatives que l'ONU pourrait prendre. Il a déclaré qu'il réagirait favorablement à une nouvelle agence de l'ONU sur l'intelligence artificielle et a suggéré comme modèle l'Agence internationale de l'énergie atomique, qui est basée sur la connaissance et dispose de certains pouvoirs de réglementation.

    Guterres a déclaré lors d'une conférence de presse qu'il prévoyait de mener de larges consultations sur les principes du Code de conduite des Nations Unies pour l'intégrité de l'information sur les plateformes numériques, qu'il publiera avant le Sommet de l'avenir des Nations Unies de l'année prochaine.

    Il a exprimé l'espoir que le code sera largement soutenu, mais lorsqu'on lui a demandé si les gouvernements et les entreprises technologiques étaient disposés à prendre des mesures pour rendre l'espace numérique plus sûr, il a répondu : « C'est la question que je me pose ».

    « Nous avons affaire à une entreprise qui génère des profits énormes, et nous avons aussi affaire dans certaines situations à des gouvernements qui ne respectent pas entièrement les droits de l'homme, c'est donc une bataille constante - et dans cette bataille constante, nous devons mobiliser tous ceux qui sont attachés à l'intégrité de l'information sur les plateformes numériques », a-t-il déclaré.

    Heidi Beirich, cofondatrice du Projet mondial contre la haine et l'extrémisme, a convenu que même si c'est une étape positive que l'ONU appelle à des solutions internationales à ce problème mondial, son code de conduite ne sera probablement pas suffisant pour arrêter le torrent d'informations fausses et haineuses en ligne.

    « Le fait est que les codes volontaires, y compris les propres conditions de service des entreprises sur ces questions, n'ont pas réussi à les maîtriser », a déclaré Beirich. « Le problème pour l'ONU est qu'ils ne peuvent pas faire ce qu'il semble devoir faire pour régler ce problème, qui est essentiellement une législation ».

    Guterres a déclaré que de nombreuses initiatives étaient en cours, notamment une loi et un code de conduite dans l'Union européenne pour ses 27 pays membres et un sommet britannique sur la sécurité de l'IA à l'automne. D'autres gouvernements étudient également des formes de réglementation. Mais il a dit qu'il y a une opinion selon laquelle la réglementation n'est pas facile parce que les choses évoluent très rapidement, et qu'une approche globale est donc nécessaire.

    Guterres a déclaré qu'un problème clé est que le modèle commercial de l'entreprise technologique donne la priorité à l'engagement plutôt qu'à la confidentialité, à la vérité et aux droits de l'homme. Il a déclaré que les entreprises technologiques doivent comprendre que des profits massifs ne peuvent être créés « au détriment d'un modèle d'engagement qui passe avant toute autre considération ».

    Le chef de l'ONU a déclaré que le code de conduite ne sera pas une solution, « mais il sera mondial » et il permettra aux gouvernements, aux entreprises technologiques, aux annonceurs et autres « de s'engager sur ce qui doit être fait pour garantir ou au moins pour promouvoir sérieusement l'intégrité de l'information sur les plateformes numériques ».

    Source : Ari Emanuel

    Et vous ?

    La confiance envers les entreprises d’IA : pensez-vous que les entreprises travaillant sur l’intelligence artificielle devraient être davantage régulées pour garantir une utilisation responsable de cette technologie ? Pourquoi ou pourquoi pas ?
    Le rôle du gouvernement : Ari Emanuel a suggéré que le gouvernement devrait intervenir pour mettre en place des garde-fous sur l’IA. Êtes-vous d’accord avec cette idée ? Quel devrait être le rôle du gouvernement dans la régulation de l’IA ?
    Mission d’OpenAI : OpenAI avait initialement pour mission de développer une IA bénéfique pour l’humanité. Pensez-vous que cette mission est toujours respectée, ou l’entreprise a-t-elle perdu de vue cet objectif initial ?
    Transparence et responsabilité : comment les entreprises d’IA devraient-elles rendre compte de leurs actions et de leurs décisions ? Quelles mesures devraient-elles prendre pour garantir la transparence et la responsabilité ?

  4. #124
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 930
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 930
    Points : 206 860
    Points
    206 860
    Par défaut Les nouvelles règles européennes en matière d'intelligence artificielle entrent en vigueur aujourd'hui
    AI Act : les nouvelles règles européennes en matière d'intelligence artificielle entrent en vigueur,
    l'objectif déclaré est d'encourager le développement et l'adoption de systèmes IA sûrs et fiables en UE

    Le 1er août 2024, le règlement sur l’intelligence artificielle (IA) de l’Union européenne est entré en vigueur. Cette législation vise à encourager le développement et l’adoption de systèmes d’IA sûrs et fiables sur le marché unique de l’UE, tant par les acteurs privés que publics. Elle s’efforce également de garantir le respect des droits fondamentaux des citoyens de l’UE tout en stimulant les investissements et l’innovation dans le domaine de l’intelligence artificielle en Europe.

    La rapidité spectaculaire du développement de l'intelligence artificielle au cours des deux dernières années a attiré l'attention du public et suscité des débats autour d'une nouvelle révolution technologique. La promesse de l'intelligence artificielle à l'humanité est qu'elle peut nous rendre plus efficaces - et donc nous permettre de consacrer nos esprits avancés à des activités plus importantes.

    Pourtant, il y a de nombreuses raisons de ne pas laisser cette version idéalisée du développement de l'IA s'installer trop longtemps dans notre esprit. Des universitaires, des scientifiques et même les concepteurs de l'IA eux-mêmes ont mis en garde contre les risques considérables que son développement rapide fait courir à l'humanité. À mesure que nous créons de nouvelles formes d'IA et que nous les alimentons avec des quantités de données de plus en plus importantes, leurs capacités sont susceptibles de s'affiner, et elles pourraient acquérir la capacité « d'apprendre », en ingérant des données pour se former elles-mêmes, ainsi qu'en créant potentiellement leurs propres techniques de manipulation à utiliser contre les humains.

    L'intelligence artificielle n'a pas besoin d'être sensible pour représenter un risque pour l'humanité. Sa maîtrise du langage, qui s'est produite bien plus rapidement que prévu, suffit à polariser nos sociétés grâce à sa capacité à manipuler les informations que nous absorbons en ligne. Ne pas savoir si une image est réelle ou générée par l'IA, ou si le discours d'un homme politique est un deepfake plutôt qu'une vidéo authentique, pourrait avoir d'immenses conséquences sur ce que les gens croient, sur les relations que nous construisons les uns avec les autres et créer des compréhensions radicalement différentes du monde qui nous entoure.

    Face à ces perspectives effrayantes, l'une des réponses actuellement sur la table est l'Artificial Intelligence Act de l'UE. La Commission européenne a initialement publié la proposition de loi sur l'intelligence artificielle (loi sur l'IA) en 2021, mais l'introduction du ChatGPT a semblé renforcer l'attention et l'urgence de sa mise en place. Ainsi, aux premières heures du samedi 9 décembre 2023, les institutions de l'UE ont trouvé un accord, finalisant ainsi la loi sur l'IA après trente-six longues heures de négociations.

    La loi sur l'IA est un texte législatif historique qui devrait servir de référence mondiale pendant des années, principalement grâce à un cadre réglementaire adaptable conçu pour être modifié au fur et à mesure que la technologie progresse. Sa flexibilité n'est pas le seul aspect qui fait de la loi sur l'IA un framework intéressant (dont s'inspire déjà d'ailleurs la Californie) : la législation est conçue autour de l'utilisation de la technologie plutôt que de réglementer la technologie elle-même.

    Cela signifie que des applications spécifiques, telles que l'utilisation de l'identification biométrique à distance par les forces de l'ordre, seront fortement restreintes, tout en permettant la poursuite de la recherche et du développement dans le domaine de l'IA. Pour ce faire, elle doit toutefois être en mesure d'équilibrer la réglementation et l'innovation, tout en laissant l'UE ouverte à la coopération avec les pays tiers.

    Nom : gen.png
Affichages : 7136
Taille : 199,1 Ko

    Vue d'ensemble

    La structure très axée sur le risque de cette législation a fait l'objet de critiques assez vives, en particulier de la part du monde des affaires. La plus importante est une lettre ouverte signée par 150 chefs d'entreprise qui craignent que la loi sur l'IA ne dissuade les startups et les entreprises européennes d'investir dans leurs propres systèmes d'IA ou de les développer.

    Si les entreprises d'IA décidaient de cesser leurs activités dans l'UE ou ne parvenaient pas à générer suffisamment d'investissements en raison d'un environnement réglementaire défavorable, la compétitivité internationale de l'UE par rapport à ses homologues américains et chinois pourrait s'en trouver sérieusement affectée. Le recours aux technologies étrangères est déjà une réalité au sein de l'UE. Cependant, l'UE tente désormais activement d'inverser cette situation par le biais de son discours sur la souveraineté numérique et le filtrage des investissements étrangers.

    Son argument est que les nouveaux développeurs seraient confrontés à des coûts d'entrée élevés sur le marché de l'IA en raison de tous les efforts à fournir pour se mettre en conformité. Un cadre législatif plus large serait préférable, d'autant plus que les applications modernes de l'IA sont très récentes et qu'elles évolueront rapidement dans les années, voire les mois, à venir. Les critiques soutiennent qu'un régime réglementaire strict désavantagerait l'UE et l'amènerait probablement à se laisser distancer davantage par les États-Unis et la Chine en termes de capacité technologique.

    L'entrée en vigueur de la loi européenne sur l'IA

    La loi européenne sur l'intelligence artificielle est entrée en vigueur ce jeudi et s'appliquera à tous les systèmes d'intelligence artificielle (IA) déjà en place ou en cours de développement. Cette loi est largement considérée comme la première législation au monde qui tente de réglementer l'intelligence artificielle en fonction des risques qu'elle présente.

    Les législateurs ont adopté la législation en mars, mais sa publication au Journal officiel de la Commission européenne en juillet a mis en branle le processus d'entrée en vigueur.

    La date du 1er août marque le début d'une série de dates et d'échéances au cours des mois et des années à venir, afin de préparer les entreprises qui utilisent l'IA à se familiariser avec la nouvelle législation et à s'y conformer.


    La loi sur l'IA évalue les entreprises en fonction des risques

    La loi européenne sur l'IA assigne ses règles à chaque entreprise utilisant des systèmes d'IA en fonction de quatre niveaux de risque, qui déterminent à leur tour les délais qui leur sont applicables. Les quatre types de risque sont les suivants : aucun risque, risque minimal, risque élevé et systèmes d'IA interdits.

    L'UE interdira totalement certaines pratiques à partir de février 2025. Il s'agit notamment de celles qui manipulent la prise de décision d'un utilisateur ou qui élargissent les bases de données de reconnaissance faciale par le biais du « scraping » sur internet.

    D'autres systèmes d'IA considérés comme présentant un risque élevé, tels que les IA qui collectent des données biométriques et les IA utilisées pour les infrastructures critiques ou les décisions en matière d'emploi, feront l'objet des réglementations les plus strictes.

    Ces entreprises devront notamment présenter leurs ensembles de données d'entraînement à l'IA et fournir la preuve d'une supervision humaine.

    Selon Thomas Regnier, porte-parole de la Commission européenne, environ 85 % des entreprises d'IA relèvent de la deuxième catégorie, celle du "risque minimal", qui ne nécessite que très peu de réglementation.

    Nom : ia.png
Affichages : 861
Taille : 207,8 Ko

    Les entreprises auront besoin d'une période comprise entre 3 et 6 mois pour se conformer

    Heather Dawe, responsable de l'IA responsable au sein de la société de conseil UST, travaille déjà avec des clients internationaux pour mettre leur utilisation de l'IA en conformité avec la nouvelle loi. Les clients internationaux de Dawe sont « d'accord » avec les nouvelles exigences de la loi parce qu'ils reconnaissent la nécessité d'une réglementation de l'IA.

    Selon elle, la mise en conformité avec la nouvelle loi pourrait prendre entre trois et six mois, en fonction de la taille de l'entreprise et de l'importance du rôle de l'IA dans son flux de travail. « Il existe un ensemble de lignes directrices claires sur ce qu'il faut faire », a déclaré Dawe. « Toute complication est due au fait que le processus n'a pas été lancé assez rapidement ».

    Les entreprises pourraient envisager de mettre en place des conseils internes de gouvernance de l'IA, a poursuivi Dawe, avec des experts en droit, en technologie et en sécurité pour effectuer un audit complet des technologies utilisées et de la manière dont elles doivent adhérer à la nouvelle loi.

    Si une entreprise n'est pas en conformité avec la loi sur l'IA dans les délais impartis, elle risque une amende pouvant aller jusqu'à 7 % de son chiffre d'affaires annuel global, a rappelé Regnier, de la Commission.

    Comment la Commission se prépare

    L'Office de l'IA de la Commission supervisera le respect des règles relatives aux modèles d'IA à usage général. Soixante membres du personnel de la Commission seront réorientés vers ce bureau et 80 autres candidats externes seront recrutés au cours de l'année prochaine, a indiqué Regnier.

    Un conseil de l'IA composé de délégués de haut niveau des 27 États membres de l'UE a « posé les bases » de la mise en œuvre de la loi lors de sa première réunion en juin, selon un communiqué de presse. Le conseil travaillera avec l'office de l'IA pour s'assurer que l'application de la loi est harmonisée dans toute l'UE, a ajouté Regnier.

    Plus de 700 entreprises ont déclaré qu'elles signeraient un pacte sur l'IA, dans lequel elles s'engagent à se conformer rapidement à la loi.

    Les États membres de l'UE ont jusqu'au mois d'août prochain pour mettre en place les autorités nationales compétentes qui superviseront l'application des règles dans leur pays.

    La Commission se prépare également à relancer ses investissements dans l'IA, avec une injection d'un milliard d'euros en 2024 et jusqu'à 20 milliards d'euros d'ici 2030.

    « Ce que l'on entend partout, c'est que ce que fait l'UE est purement réglementaire (...) et que cela va bloquer l'innovation. Ce n'est pas vrai », a déclaré Regnier. « La législation n'est pas là pour empêcher les entreprises de lancer leurs systèmes, bien au contraire ». « Nous voulons qu'elles opèrent dans l'UE, mais nous voulons aussi protéger nos citoyens et nos entreprises ».

    Pour la Commission, l'un des principaux défis est de réglementer les futures technologies d'IA, a déclaré Regnier, mais il pense que le système basé sur le risque signifie qu'elle peut rapidement réglementer tout nouveau système.

    Points de vue des critiques et des partisans

    Les inquiétudes concernant la capacité d'innovation de l'Union européenne sont certainement justifiées. Les fonctionnaires européens mentionnent constamment le manque de grandes entreprises technologiques sur le continent et le « retard » par rapport à d'autres grands acteurs mondiaux.

    Le développement moderne et rapide de l'intelligence artificielle pourrait présenter un scénario différent. Contrairement au développement de l'internet au début des années 90 et à la croissance des plateformes en ligne dans les années 2000, l'UE réglemente alors que l'utilisation et l'importance de la technologie augmentent à l'échelle mondiale.

    Alors que le marché de l'IA commence à exploser et que les modèles se développent correctement, l'Union européenne a anticipé l'importance et le caractère révolutionnaire de ces nouvelles technologies. La réglementation vise à protéger contre les dommages potentiels, ce qui a sans doute été fait trop tard dans le cas de l'internet et de l'essor des grands réseaux de médias sociaux.

    La loi sur les services numériques et la loi sur les marchés numériques, adoptées en 2022, étaient des tentatives pour contrôler les entreprises de la Big Tech dont les pratiques algorithmiques et les modèles commerciaux préjudiciables étaient déjà profondément enracinés. Cette fois, l'UE a l'occasion de créer un environnement sain permettant aux entreprises d'innover et de se développer dans ce nouveau secteur.

    Sources : parlement européen (1, 2), Europe AI Office, conseil de l'UE, lettre ouverte

    Et vous ?

    Évaluation des risques : Les entreprises doivent évaluer les risques liés à leurs systèmes d’IA et prendre des mesures pour minimiser ces risques.
    Interdiction des systèmes dangereux : Certains systèmes d’IA, tels que la surveillance de masse, sont interdits en raison de leur impact potentiellement néfaste.
    Transparence et documentation : Les développeurs d’IA doivent fournir des informations claires sur le fonctionnement de leurs systèmes et documenter leurs décisions.
    Surveillance indépendante : Des organismes de surveillance indépendants seront chargés de veiller à la conformité avec la législation.
    Images attachées Images attachées
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  5. #125
    Membre éprouvé Avatar de der§en
    Homme Profil pro
    Chambord
    Inscrit en
    Septembre 2005
    Messages
    864
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Loir et Cher (Centre)

    Informations professionnelles :
    Activité : Chambord
    Secteur : Transports

    Informations forums :
    Inscription : Septembre 2005
    Messages : 864
    Points : 1 225
    Points
    1 225
    Par défaut
    Petit pastiche d’une citation de Georges Clemenceau:

    L’Europe est un continent extrêmement fertile : on y plante des fonctionnaires non élus et il y pousse des règlements abscons !

  6. #126
    Membre habitué Avatar de Fluxgraveon
    Homme Profil pro
    mécanicien
    Inscrit en
    Mai 2024
    Messages
    84
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Lot (Midi Pyrénées)

    Informations professionnelles :
    Activité : mécanicien

    Informations forums :
    Inscription : Mai 2024
    Messages : 84
    Points : 132
    Points
    132
    Par défaut
    La Commission se prépare également à relancer ses investissements dans l'IA, avec une injection d'un milliard d'euros en 2024 et jusqu'à 20 milliards d'euros d'ici 2030.
    Ridicule.

  7. #127
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 930
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 930
    Points : 206 860
    Points
    206 860
    Par défaut Les grandes enseignes de la technologie cherchent à affaiblir la loi européenne sur l'IA
    Les grandes enseignes de la technologie cherchent à affaiblir la loi européenne sur l'IA,
    arguant que des exigences trop lourdes en matière de transparence et de documentation pourraient ralentir le développement de nouvelles technologies

    Depuis l’adoption de la loi sur l’intelligence artificielle (IA) par l’Union européenne, les plus grandes entreprises technologiques du monde ont intensifié leurs efforts pour influencer et atténuer les réglementations strictes prévues par cette législation historique : Amazon, Google, Meta et d'autres craignent que des réglementations trop strictes n’entravent l’innovation et n’entraînent des amendes de plusieurs milliards de dollars. Les entreprises estiment que des exigences trop lourdes en matière de transparence et de documentation pourraient ralentir le développement de nouvelles technologies et augmenter les coûts de conformité.

    Des entreprises telles que Stability AI et OpenAI ont été confrontées à la question de savoir si l'utilisation de livres à succès ou d'archives photographiques pour entraîner leurs modèles sans l'autorisation de leurs créateurs constituait une violation du droit d'auteur.


    La rapidité spectaculaire du développement de l'intelligence artificielle au cours des deux dernières années a attiré l'attention du public et suscité des débats autour d'une nouvelle révolution technologique. La promesse de l'intelligence artificielle à l'humanité est qu'elle peut nous rendre plus efficaces - et donc nous permettre de consacrer nos esprits avancés à des activités plus importantes.

    Pourtant, il y a de nombreuses raisons de ne pas laisser cette version idéalisée du développement de l'IA s'installer trop longtemps dans notre esprit. Des universitaires, des scientifiques et même les concepteurs de l'IA eux-mêmes ont mis en garde contre les risques considérables que son développement rapide fait courir à l'humanité. À mesure que nous créons de nouvelles formes d'IA et que nous les alimentons avec des quantités de données de plus en plus importantes, leurs capacités sont susceptibles de s'affiner, et elles pourraient acquérir la capacité « d'apprendre », en ingérant des données pour se former elles-mêmes, ainsi qu'en créant potentiellement leurs propres techniques de manipulation à utiliser contre les humains.

    L'intelligence artificielle n'a pas besoin d'être sensible pour représenter un risque pour l'humanité. Sa maîtrise du langage, qui s'est produite bien plus rapidement que prévu, suffit à polariser nos sociétés grâce à sa capacité à manipuler les informations que nous absorbons en ligne. Ne pas savoir si une image est réelle ou générée par l'IA, ou si le discours d'un homme politique est un deepfake plutôt qu'une vidéo authentique, pourrait avoir d'immenses conséquences sur ce que les gens croient, sur les relations que nous construisons les uns avec les autres et créer des compréhensions radicalement différentes du monde qui nous entoure.

    Face à ces perspectives effrayantes, l'une des réponses actuellement sur la table est l'Artificial Intelligence Act de l'UE. La Commission européenne a initialement publié la proposition de loi sur l'intelligence artificielle (loi sur l'IA) en 2021, mais l'introduction du ChatGPT a semblé renforcer l'attention et l'urgence de sa mise en place. Ainsi, aux premières heures du samedi 9 décembre 2023, les institutions de l'UE ont trouvé un accord, finalisant ainsi la loi sur l'IA après trente-six longues heures de négociations.

    La loi sur l'IA est un texte législatif historique qui devrait servir de référence mondiale pendant des années, principalement grâce à un cadre réglementaire adaptable conçu pour être modifié au fur et à mesure que la technologie progresse. Sa flexibilité n'est pas le seul aspect qui fait de la loi sur l'IA un framework intéressant (dont s'inspire déjà d'ailleurs la Californie) : la législation est conçue autour de l'utilisation de la technologie plutôt que de réglementer la technologie elle-même.

    Cela signifie que des applications spécifiques, telles que l'utilisation de l'identification biométrique à distance par les forces de l'ordre, seront fortement restreintes, tout en permettant la poursuite de la recherche et du développement dans le domaine de l'IA. Pour ce faire, elle doit toutefois être en mesure d'équilibrer la réglementation et l'innovation, tout en laissant l'UE ouverte à la coopération avec les pays tiers.

    La loi européenne sur l'intelligence artificielle est entrée en vigueur ce jeudi 1er août et s'appliquera à tous les systèmes d'intelligence artificielle (IA) déjà en place ou en cours de développement. Cette loi est largement considérée comme la première législation au monde qui tente de réglementer l'intelligence artificielle en fonction des risques qu'elle présente.

    Nom : public.png
Affichages : 2627
Taille : 199,8 Ko

    Pourquoi cette loi est-elle cruciale ?

    La loi sur l’IA vise à encadrer l’utilisation des systèmes d’IA, en particulier ceux à usage général comme ChatGPT d’OpenAI, afin de prévenir les abus et de protéger les droits des citoyens européens. Elle impose aux entreprises de fournir des résumés détaillés des données utilisées pour entraîner leurs modèles, ce qui pourrait permettre aux créateurs de contenu de demander des compensations si leurs œuvres sont utilisées sans autorisation. De plus, la loi exige que les systèmes d’IA à haut risque soient soumis à des évaluations rigoureuses avant leur mise sur le marché, garantissant ainsi leur sécurité et leur fiabilité.

    Les préoccupations des géants de la technologie

    Après des mois d'intenses négociations entre différents groupes politiques, les législateurs de l'UE ont adopté la loi sur l'IA, premier ensemble complet de règles régissant cette technologie.

    Toutefois, tant que les codes de pratique qui accompagnent la loi n'auront pas été finalisés, on ne sait pas avec quelle rigueur les règles relatives aux systèmes d'IA « à usage général », tels que le ChatGPT d'OpenAI, seront appliquées, ni combien de poursuites en matière de droits d'auteur et d'amendes de plusieurs milliards de dollars les entreprises risquent d'encourir.

    « Le code de bonnes pratiques est crucial. Si nous y parvenons, nous pourrons continuer à innover », a déclaré Boniface de Champris, responsable politique de l'organisation commerciale CCIA Europe, qui compte parmi ses membres Amazon, Google et Meta. « S'il est trop étroit ou trop spécifique, cela deviendra très difficile », a-t-il ajouté.

    L'UE a invité des entreprises, des universitaires et d'autres personnes à participer à la rédaction du code de bonnes pratiques, et a reçu près de 1 000 candidatures, un nombre inhabituellement élevé, selon certaines sources.

    Le code de bonnes pratiques en matière d'IA ne sera pas juridiquement contraignant lorsqu'il entrera en vigueur à la fin de l'année prochaine, mais il fournira aux entreprises une liste de contrôle qu'elles pourront utiliser pour prouver qu'elles respectent la loi.

    Une entreprise qui prétendrait respecter la loi tout en ignorant le code pourrait faire l'objet d'une action en justice.


    Les enjeux de la transparence et de la protection des données

    Un des points de friction majeurs concerne la transparence des données. Des entreprises telles que Stability AI et OpenAI ont été critiquées pour leur manque de clarté sur les données utilisées pour entraîner leurs modèles ; il a été plusieurs fois question de savoir si l'utilisation de livres à succès ou d'archives photographiques pour entraîner leurs modèles sans l'autorisation de leurs créateurs constituait une violation du droit d'auteur.

    En vertu de la loi sur l'IA, les entreprises seront tenues de fournir des « résumés détaillés » des données utilisées pour entraîner leurs modèles. En théorie, un créateur de contenu qui découvre que son travail a été utilisé pour entraîner un modèle d'IA peut être en mesure de demander une indemnisation, bien que cette possibilité soit en cours d'examen par les tribunaux.

    Certains chefs d'entreprise ont déclaré que les résumés requis devaient contenir peu de détails afin de protéger les secrets commerciaux, tandis que d'autres affirment que les détenteurs de droits d'auteur ont le droit de savoir si leur contenu a été utilisé sans autorisation.

    OpenAI, qui a été critiquée pour son refus de répondre aux questions concernant les données utilisées pour former ses modèles, a également demandé à faire partie des groupes de travail, selon une personne familière avec le sujet, qui a refusé d'être nommée. Google a également soumis une candidature. De son côté, Amazon a déclaré qu'elle espérait « apporter son expertise et veiller à ce que le code de bonnes pratiques soit couronné de succès ».

    Maximilian Gahntz, responsable de la politique en matière d'IA à la Fondation Mozilla, l'organisation à but non lucratif à l'origine du navigateur web Firefox, s'est dit préoccupé par le fait que les entreprises « font tout pour éviter la transparence ».

    « La loi sur l'IA représente la meilleure occasion de mettre en lumière cet aspect crucial et d'éclairer au moins une partie de la boîte noire », a-t-il déclaré.

    Nom : risques.png
Affichages : 399
Taille : 169,0 Ko

    Les implications pour l’innovation et la compétitivité

    Les critiques de la loi soutiennent que des réglementations trop strictes pourraient freiner l’innovation en Europe et rendre le continent moins compétitif par rapport à d’autres régions du monde. Ils craignent que les startups et les petites entreprises, qui n’ont pas les mêmes ressources que les géants de la technologie, soient particulièrement affectées par les coûts de conformité. Cependant, les partisans de la loi estiment que des règles claires et strictes sont nécessaires pour garantir que l’IA soit développée de manière éthique et responsable.

    Certains acteurs du monde des affaires ont reproché à l'UE de donner la priorité à la réglementation des technologies plutôt qu'à l'innovation, et les personnes chargées de rédiger le texte du code de bonnes pratiques s'efforceront de parvenir à un compromis. Il y a quelques jours, l'ancien directeur de la Banque centrale européenne, Mario Draghi, a déclaré que l'Union européenne avait besoin d'une politique industrielle mieux coordonnée, d'un processus décisionnel plus rapide et d'investissements massifs pour ne pas se laisser distancer par la Chine et les États-Unis.

    Dans un contexte de protectionnisme croissant au sein de l'UE, les entreprises technologiques locales espèrent que des exceptions seront introduites dans la loi sur l'IA au profit des jeunes entreprises européennes. « Nous avons insisté sur le fait que ces obligations devaient être gérables et, si possible, adaptées aux startups », a déclaré Maxime Ricard, responsable politique chez Allied for Startups, un réseau d'organisations commerciales représentant les petites entreprises technologiques.

    Une fois le code publié au début de l'année prochaine, les entreprises technologiques auront jusqu'au mois d'août 2025 pour que leurs efforts de mise en conformité soient évalués en fonction de ce code.

    Des organisations à but non lucratif, dont Access Now, le Future of Life Institute et Mozilla, ont également demandé à participer à la rédaction du code. Gahntz a déclaré : « Alors que nous entrons dans la phase où de nombreuses obligations de la loi sur l'IA sont énoncées plus en détail, nous devons veiller à ne pas permettre aux grands acteurs de l'IA d'édulcorer d'importants mandats de transparence. »

    Conclusion

    La bataille pour influencer la loi européenne sur l’IA est loin d’être terminée. Les géants de la technologie continuent de faire pression pour des réglementations plus souples, tandis que les législateurs européens cherchent à trouver un équilibre entre innovation et protection des droits des citoyens. La manière dont cette loi sera finalement mise en œuvre pourrait avoir des répercussions significatives sur l’avenir de l’IA en Europe et dans le monde entier.

    Source : Reuters

    Et vous ?

    Pensez-vous que les réglementations actuelles sur l’IA sont suffisantes pour protéger les droits des citoyens ? Pourquoi ou pourquoi pas ?
    Comment les entreprises technologiques peuvent-elles équilibrer innovation et respect des réglementations ?
    Quels sont, selon vous, les risques potentiels d’une réglementation trop stricte sur l’IA ?
    Croyez-vous que la transparence des données utilisées pour entraîner les modèles d’IA est essentielle ? Pourquoi ?
    Quels avantages et inconvénients voyez-vous dans l’obligation pour les entreprises de fournir des résumés détaillés des données d’entraînement ?
    Comment les législateurs peuvent-ils s’assurer que les réglementations sur l’IA ne freinent pas l’innovation tout en protégeant les droits des individus ?
    Pensez-vous que les géants de la technologie ont trop d’influence sur les politiques publiques ? Pourquoi ou pourquoi pas ?
    Quels seraient les impacts d’une réglementation européenne stricte sur l’IA sur les petites entreprises et les startups ?
    Comment voyez-vous l’avenir de l’IA en Europe avec la mise en œuvre de cette loi ?
    Quelles mesures supplémentaires proposeriez-vous pour améliorer la loi sur l’IA ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  8. #128
    Membre extrêmement actif Avatar de Jon Shannow
    Homme Profil pro
    Responsable de service informatique
    Inscrit en
    Avril 2011
    Messages
    4 522
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 60
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Responsable de service informatique
    Secteur : High Tech - Électronique et micro-électronique

    Informations forums :
    Inscription : Avril 2011
    Messages : 4 522
    Points : 10 270
    Points
    10 270
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    Et vous ?

    Croyez-vous que la transparence des données utilisées pour entraîner les modèles d’IA est essentielle ? Pourquoi ?
    C'est évident. Ne serait-ce que pour savoir si les données utilisées sont dignes de confiance ou risque d'être basées sur du grand n'importe quoi. Imaginons un AI entrainée à partir de TikTok et/ou X (twitter) !
    Ensuite, il n'y a pas de raison que le droit d'auteurs ne soit pas respecté par ces entreprises.
    Citation Envoyé par Stéphane le calme Voir le message
    Quelles mesures supplémentaires proposeriez-vous pour améliorer la loi sur l’IA ?
    Je pense qu'il est indispensable que les sociétés qui déploient ces AI soient pénalement responsables des résultats fournis par leurs outils. Ex du journaliste se voyant accusé à des affaires criminelles qu'il a couvert dans la cadre de son travail.
    Au nom du pèze, du fisc et du St Estephe
    Au nom du fric, on baisse son froc...

  9. #129
    Membre émérite
    Homme Profil pro
    Chargé de projets
    Inscrit en
    Décembre 2019
    Messages
    683
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 34
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Chargé de projets
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Décembre 2019
    Messages : 683
    Points : 2 531
    Points
    2 531
    Par défaut
    Citation Envoyé par Jon Shannow Voir le message
    Je pense qu'il est indispensable que les sociétés qui déploient ces AI soient pénalement responsables des résultats fournis par leurs outils.
    Indispensable ? Il est indispensable qu'il ne soit pas responsable oui. Pour la démocratie mais aussi par simple jugeotte.

    Smith & Wesson n'assiste pas à tout les procès de meurtre commis avec une arme fabriqué dans une de leur usine. Les fournisseurs d'accès à internet ne sont pas aux procès des pédophiles qui ont utilisés leurs services de communication et des résultats de référencement. Le pdg de nokia n'assiste pas les dealer qui ont vendu de la came avec un téléphone portable.

    Il est indispensable que la responsabilité individuelle soit maintenue et qu'on ne puisse pas accuser les autres quand on mange un sachet de lessive parce qu'on a vu un challenge sur tiktok. Et ainsi de suite.

    L'IA ne change rien au fait que les individus sont responsables de leurs actes, qu'ils mentent, désinforment, tue, vole ou qu'ils trafique ! Pas la peine de chercher de nouveau responsable comme si il s'agissait des nouveaux grands prêtre de la société.

    Ensuite la loi ne doit pas permettre aux gens d'être bête. L'IA non plus. Si je te dis de sauter du pont et que tu le fais en principe j'ai rien fait de mal sauf si je t'ai harcelé/menacé/manipulé pour que tu le fasses.

    J'enlève l'exemple du journalisme car écrire/sourcer/autres des articles avec l'IA c'est pas du journalisme à mon sens. De toute façon les journalistes sont déjà mis en sourdine par la censure collective et étatique pas besoin de l'IA. J'ai plutôt le sentiment que l'IA va nous servir de la belle désinformation et va être mise massivement au service du contrôle social.

    Tout le monde sera charlie, vacciné, pro Ukraine, pour les hausses d'impôts et l'émigration et n'oubliera bien sûr jamais Gaza !

  10. #130
    Membre extrêmement actif Avatar de Jon Shannow
    Homme Profil pro
    Responsable de service informatique
    Inscrit en
    Avril 2011
    Messages
    4 522
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 60
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Responsable de service informatique
    Secteur : High Tech - Électronique et micro-électronique

    Informations forums :
    Inscription : Avril 2011
    Messages : 4 522
    Points : 10 270
    Points
    10 270
    Par défaut
    Citation Envoyé par Jules34 Voir le message
    Indispensable ? Il est indispensable qu'il ne soit pas responsable oui. Pour la démocratie mais aussi par simple jugeotte.

    Smith & Wesson n'assiste pas à tout les procès de meurtre commis avec une arme fabriqué dans une de leur usine. Les fournisseurs d'accès à internet ne sont pas aux procès des pédophiles qui ont utilisés leurs services de communication et des résultats de référencement. Le pdg de nokia n'assiste pas les dealer qui ont vendu de la came avec un téléphone portable.

    Il est indispensable que la responsabilité individuelle soit maintenue et qu'on ne puisse pas accuser les autres quand on mange un sachet de lessive parce qu'on a vu un challenge sur tiktok. Et ainsi de suite.

    L'IA ne change rien au fait que les individus sont responsables de leurs actes, qu'ils mentent, désinforment, tue, vole ou qu'ils trafique ! Pas la peine de chercher de nouveau responsable comme si il s'agissait des nouveaux grands prêtre de la société.

    Ensuite la loi ne doit pas permettre aux gens d'être bête. L'IA non plus. Si je te dis de sauter du pont et que tu le fais en principe j'ai rien fait de mal sauf si je t'ai harcelé/menacé/manipulé pour que tu le fasses.

    J'enlève l'exemple du journalisme car écrire/sourcer/autres des articles avec l'IA c'est pas du journalisme à mon sens. De toute façon les journalistes sont déjà mis en sourdine par la censure collective et étatique pas besoin de l'IA. J'ai plutôt le sentiment que l'IA va nous servir de la belle désinformation et va être mise massivement au service du contrôle social.

    Tout le monde sera charlie, vacciné, pro Ukraine, pour les hausses d'impôts et l'émigration et n'oubliera bien sûr jamais Gaza !
    Je pense que tu n'as pas compris ce que j'ai dit.
    Je vais prendre deux exemples différents pour éclaircir mes propos.

    Cas 1 : Une personne demande à un logiciel IA de créer des photos d'une personnalité connue faisant quelque chose d’illégale. L'IA réalise ce qui est demandé et la personne le publie en faisant croire que c'est une vraie info.
    Dans ce cas, la personne est responsable et la société conceptrice et productrice de l'IA n'a rien à se reprocher.

    Cas 2 : Une personne demande des informations concernant une autre personne a un logiciel d'IA. L'IA renvoie des données fausses et préjudiciables sur cette personne. Le demandeur publie ces infos renvoyées pas l'IA. Alors, pour moi, l'IA est responsable, et donc la société conceptrice et productrice de l'IA est responsable.

    Si je reprends ton exemple sur Smith&Wesson, si l'arme explose blessant son propriétaire et les personnes qui sont autour, qui est responsable ?
    Au nom du pèze, du fisc et du St Estephe
    Au nom du fric, on baisse son froc...

Discussions similaires

  1. Réponses: 285
    Dernier message: 22/08/2024, 20h05
  2. Réponses: 2
    Dernier message: 20/10/2020, 16h13
  3. Réponses: 7
    Dernier message: 19/04/2020, 14h46
  4. Réponses: 2
    Dernier message: 04/12/2019, 11h35
  5. Les Etats-Unis veulent réglementer le commerce de failles logicielles
    Par Michael Guilloux dans le forum Actualités
    Réponses: 12
    Dernier message: 29/05/2015, 22h05

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo