IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #121
    Expert éminent sénior

    Homme Profil pro
    Directeur des systèmes d'information
    Inscrit en
    Avril 2002
    Messages
    2 835
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 64
    Localisation : Luxembourg

    Informations professionnelles :
    Activité : Directeur des systèmes d'information
    Secteur : Finance

    Informations forums :
    Inscription : Avril 2002
    Messages : 2 835
    Points : 19 204
    Points
    19 204
    Par défaut
    Citation Envoyé par Anselme45 Voir le message
    Pour s'en convaincre, il suffit de lire les news de ce site: La majorité des news traitent maintenant de l'IA... Apparemment les autres technologies numériques ne sont plus dignes d'intérêt
    C'est archifaux. Oui il y a sur developpez un tas de news sur l'IA mais c'est parfaitement normal, ça nous concerne, aussi bien les développeurs que les autres informaticiens.

    Il n'en reste pas moins que developpez est quasiment le seul et unique site francophone qui passe aussi un tas de news sur l'actualité de la programmation, les nouvelles versions des langages, les nouvelles sorties des EDI (Jetbrains, Microsoft, Embarcadero, ...) , etc. Et c'est surtout devenu le "Médiapart/Canard enchainé" de l'informatique avec toutes les news à scandales sur HP, Microsoft, Google, etc. Exemple l'énorme scandale sur les imprimantes HP avec des centaines de commentaires, et quel rapport avec l'IA ? aucun... D 'ailleurs toi même tu viens de répondre à un sujet à scandale n'ayant rien à voir avec l'IA, à savoir : Google peut garder votre téléphone si vous l’envoyez en réparation avec des pièces qui ne sont pas d’origine

    Regarde les rubriques programmation et EDI au lieu de dire n'importe quoi, et il y a toujours une colonne droite avec des tutoriels programmation et IT Pro, des articles gratuits alors que c'est devenu payant ailleurs (Udemy, Elephorm, etc). Developpez est devenu le meilleur site sur francophonie sur l'IA, mais il reste toujours le meilleur site pour les développeurs et même l'IT Pro, c'est bien simple il n'y en a pas d'autre de valables....

  2. #122
    Membre expert
    Homme Profil pro
    Étudiant
    Inscrit en
    Novembre 2021
    Messages
    1 189
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Drôme (Rhône Alpes)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Novembre 2021
    Messages : 1 189
    Points : 3 258
    Points
    3 258
    Par défaut
    Citation Envoyé par Pierre Louis Chevalier Voir le message
    C'est archifaux. Oui il y a sur developpez un tas de news sur l'IA mais c'est parfaitement normal, ça nous concerne, aussi bien les développeurs que les autres informaticiens.

    Il n'en reste pas moins que developpez est quasiment le seul et unique site francophone qui passe aussi un tas de news sur l'actualité de la programmation, les nouvelles versions des langages, les nouvelles sorties des EDI (Jetbrains, Microsoft, Embarcadero, ...) , etc. Et c'est surtout devenu le "Médiapart/Canard enchainé" de l'informatique avec toutes les news à scandales sur HP, Microsoft, Google, etc. Exemple l'énorme scandale sur les imprimantes HP avec des centaines de commentaires, et quel rapport avec l'IA ? aucun... D 'ailleurs toi même tu viens de répondre à un sujet à scandale n'ayant rien à voir avec l'IA, à savoir : Google peut garder votre téléphone si vous l’envoyez en réparation avec des pièces qui ne sont pas d’origine

    Regarde les rubriques programmation et EDI au lieu de dire n'importe quoi, et il y a toujours une colonne droite avec des tutoriels programmation et IT Pro, des articles gratuits alors que c'est devenu payant ailleurs (Udemy, Elephorm, etc). Developpez est devenu le meilleur site sur francophonie sur l'IA, mais il reste toujours le meilleur site pour les développeurs et même l'IT Pro, c'est bien simple il n'y en a pas d'autre de valables....
    Je suis totalement d'accord. Il y a de nombreuses informations que je ne trouve que sur developpez. Je pense que c'est sur le meilleurs média francophone traitant du numérique. Un bon exemple est le traitement de l'horrible projet de loi chatcontrol, où dans la presse francophone, seul developpez semble prendre la mesure de ce que ce projet de loi représente.
    Je rêve de trouver des sources aussi qualitative sur d'autres sujets.

  3. #123
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 874
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 874
    Points : 205 854
    Points
    205 854
    Par défaut Ari Emanuel qualifie Sam Altman « d'escroc » à qui l'on ne peut pas faire confiance en matière d'IA
    Ari Emanuel qualifie le PDG d'OpenAI Sam Altman « d'escroc » à qui l'on ne peut pas faire confiance en matière d'IA,
    le magnat des médias appelle à la mise en place de garde-fous pour cette technologie

    Lors du festival Aspen Ideas, Ari Emanuel, PDG du conglomérat médiatique Endeavor, a exprimé son opinion tranchante sur Sam Altman, le PDG d’OpenAI. Selon lui, Altman est un « manipulateur » qui ne peut pas être digne de confiance en matière d’intelligence artificielle. Il a également appelé à la mise en place de garde-fous pour cette technologie.

    Ari Emanuel, PDG d'Endeavor, le conglomérat du sport et du divertissement, a qualifié Sam Altman, PDG d'OpenAI, « d'escroc » à qui l'on ne peut pas faire confiance en matière d'intelligence artificielle.

    Lors du festival d'idées d'Aspen vendredi, Tina Brown, rédactrice en chef fondatrice du Daily Beast, a demandé au géant des médias de partager ses réflexions sur l'intelligence artificielle et les assurances que des innovateurs tels qu'Altman donnent à propos de la technologie.

    Emanuel a d'abord pensé à Elon Musk, qu’il considère comme un « ami », notant qu'ils n'étaient pas d'accord sur de nombreux points, mais pas sur les risques de l'IA. « Si Elon Musk est inquiet, alors nous devrions l’être aussi », a-t-il déclaré. « Nous avons besoin de garde-fous. »

    En ce qui concerne Sam Altman, Emanuel a été moins indulgent. Il a critiqué la façon dont OpenAI, initialement une organisation à but non lucratif, est désormais devenue lucrative. Altman ne détient pas directement d’actions dans OpenAI, mais la structure de l’entreprise est inhabituelle : une partie à but lucratif est gérée par une organisation à but non lucratif. Cette structure visait à garantir que l’IA générale bénéficie à l’humanité avant de privilégier les profits. Cependant, ces derniers mois, l’engagement d’OpenAI envers cette mission a été remis en question.

    Deux jours avant l'intervention d'Emanuel au festival, Altman et le PDG d'Airbnb, Brian Chesky, étaient présents au même événement et ont déclaré que la mise au point d'une IA responsable nécessiterait la participation de la société.

    « Nous devons apprendre à créer des technologies sûres », a déclaré Altman. « Nous devons trouver comment construire des produits sûrs, et cela passe par un dialogue permanent avec la société ».

    Emanuel a déclaré que les personnes comme Altman sont probablement très intelligentes et qu'il ne veut pas étouffer l'innovation ; cependant, il ne croit pas que les innovateurs aient bien pesé les avantages de l'IA par rapport à ses inconvénients. « J'ai pensé à toute une série de choses qui sont mauvaises », a-t-il déclaré. « Vous me dites que vous avez fait le calcul et que les avantages l'emportent sur les inconvénients. Je ne crois pas ».

    Le PDG d'Endeavor a ajouté que la réglementation gouvernementale sera nécessaire à mesure que l'IA se développera.

    « Je ne veux pas non plus étouffer l'innovation, car je pense que nous avons besoin de l'IA. Mais nous devons l'encadrer », a-t-il déclaré. « Je sais que beaucoup de gens dans la Silicon Valley n'aiment pas que le gouvernement intervienne - et ce n'est pas comme si le gouvernement avait obtenu de bons résultats dans ce domaine - mais il s'agit d'une technologie assez dynamique qui nécessite une réflexion approfondie sur ce qui peut et ne peut pas se produire ».

    Il est clair qu’Ari Emanuel estime que la confiance envers les acteurs de l’IA doit être examinée de près, et que des mesures de régulation sont nécessaires pour garantir une utilisation responsable de cette technologie

    Nom : secretaire.png
Affichages : 4415
Taille : 442,4 Ko
    Le secrétaire général de l'ONU, Antonio Guterres

    L'ONU veut créer une agence mondiale pour réguler l'IA

    La prolifération de la haine et des mensonges sur les plateformes numériques et la menace que l'intelligence artificielle puisse devenir un « monstre » incontrôlé exigent une action mondiale coordonnée, à commencer par un code de conduite pour les gouvernements, les entreprises technologiques et les annonceurs qui promeut la vérité et protège les droits de l'homme, selon une déclaration du secrétaire général de l'ONU.

    Antonio Guterres a déclaré qu'il prévoyait de nommer un conseil consultatif scientifique et un conseil consultatif sur l'intelligence artificielle en septembre 2023 pour préparer les initiatives que l'ONU pourrait prendre. Il a déclaré qu'il réagirait favorablement à une nouvelle agence de l'ONU sur l'intelligence artificielle et a suggéré comme modèle l'Agence internationale de l'énergie atomique, qui est basée sur la connaissance et dispose de certains pouvoirs de réglementation.

    Guterres a déclaré lors d'une conférence de presse qu'il prévoyait de mener de larges consultations sur les principes du Code de conduite des Nations Unies pour l'intégrité de l'information sur les plateformes numériques, qu'il publiera avant le Sommet de l'avenir des Nations Unies de l'année prochaine.

    Il a exprimé l'espoir que le code sera largement soutenu, mais lorsqu'on lui a demandé si les gouvernements et les entreprises technologiques étaient disposés à prendre des mesures pour rendre l'espace numérique plus sûr, il a répondu : « C'est la question que je me pose ».

    « Nous avons affaire à une entreprise qui génère des profits énormes, et nous avons aussi affaire dans certaines situations à des gouvernements qui ne respectent pas entièrement les droits de l'homme, c'est donc une bataille constante - et dans cette bataille constante, nous devons mobiliser tous ceux qui sont attachés à l'intégrité de l'information sur les plateformes numériques », a-t-il déclaré.

    Heidi Beirich, cofondatrice du Projet mondial contre la haine et l'extrémisme, a convenu que même si c'est une étape positive que l'ONU appelle à des solutions internationales à ce problème mondial, son code de conduite ne sera probablement pas suffisant pour arrêter le torrent d'informations fausses et haineuses en ligne.

    « Le fait est que les codes volontaires, y compris les propres conditions de service des entreprises sur ces questions, n'ont pas réussi à les maîtriser », a déclaré Beirich. « Le problème pour l'ONU est qu'ils ne peuvent pas faire ce qu'il semble devoir faire pour régler ce problème, qui est essentiellement une législation ».

    Guterres a déclaré que de nombreuses initiatives étaient en cours, notamment une loi et un code de conduite dans l'Union européenne pour ses 27 pays membres et un sommet britannique sur la sécurité de l'IA à l'automne. D'autres gouvernements étudient également des formes de réglementation. Mais il a dit qu'il y a une opinion selon laquelle la réglementation n'est pas facile parce que les choses évoluent très rapidement, et qu'une approche globale est donc nécessaire.

    Guterres a déclaré qu'un problème clé est que le modèle commercial de l'entreprise technologique donne la priorité à l'engagement plutôt qu'à la confidentialité, à la vérité et aux droits de l'homme. Il a déclaré que les entreprises technologiques doivent comprendre que des profits massifs ne peuvent être créés « au détriment d'un modèle d'engagement qui passe avant toute autre considération ».

    Le chef de l'ONU a déclaré que le code de conduite ne sera pas une solution, « mais il sera mondial » et il permettra aux gouvernements, aux entreprises technologiques, aux annonceurs et autres « de s'engager sur ce qui doit être fait pour garantir ou au moins pour promouvoir sérieusement l'intégrité de l'information sur les plateformes numériques ».

    Source : Ari Emanuel

    Et vous ?

    La confiance envers les entreprises d’IA : pensez-vous que les entreprises travaillant sur l’intelligence artificielle devraient être davantage régulées pour garantir une utilisation responsable de cette technologie ? Pourquoi ou pourquoi pas ?
    Le rôle du gouvernement : Ari Emanuel a suggéré que le gouvernement devrait intervenir pour mettre en place des garde-fous sur l’IA. Êtes-vous d’accord avec cette idée ? Quel devrait être le rôle du gouvernement dans la régulation de l’IA ?
    Mission d’OpenAI : OpenAI avait initialement pour mission de développer une IA bénéfique pour l’humanité. Pensez-vous que cette mission est toujours respectée, ou l’entreprise a-t-elle perdu de vue cet objectif initial ?
    Transparence et responsabilité : comment les entreprises d’IA devraient-elles rendre compte de leurs actions et de leurs décisions ? Quelles mesures devraient-elles prendre pour garantir la transparence et la responsabilité ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  4. #124
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 874
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 874
    Points : 205 854
    Points
    205 854
    Par défaut Les nouvelles règles européennes en matière d'intelligence artificielle entrent en vigueur aujourd'hui
    AI Act : les nouvelles règles européennes en matière d'intelligence artificielle entrent en vigueur,
    l'objectif déclaré est d'encourager le développement et l'adoption de systèmes IA sûrs et fiables en UE

    Le 1er août 2024, le règlement sur l’intelligence artificielle (IA) de l’Union européenne est entré en vigueur. Cette législation vise à encourager le développement et l’adoption de systèmes d’IA sûrs et fiables sur le marché unique de l’UE, tant par les acteurs privés que publics. Elle s’efforce également de garantir le respect des droits fondamentaux des citoyens de l’UE tout en stimulant les investissements et l’innovation dans le domaine de l’intelligence artificielle en Europe.

    La rapidité spectaculaire du développement de l'intelligence artificielle au cours des deux dernières années a attiré l'attention du public et suscité des débats autour d'une nouvelle révolution technologique. La promesse de l'intelligence artificielle à l'humanité est qu'elle peut nous rendre plus efficaces - et donc nous permettre de consacrer nos esprits avancés à des activités plus importantes.

    Pourtant, il y a de nombreuses raisons de ne pas laisser cette version idéalisée du développement de l'IA s'installer trop longtemps dans notre esprit. Des universitaires, des scientifiques et même les concepteurs de l'IA eux-mêmes ont mis en garde contre les risques considérables que son développement rapide fait courir à l'humanité. À mesure que nous créons de nouvelles formes d'IA et que nous les alimentons avec des quantités de données de plus en plus importantes, leurs capacités sont susceptibles de s'affiner, et elles pourraient acquérir la capacité « d'apprendre », en ingérant des données pour se former elles-mêmes, ainsi qu'en créant potentiellement leurs propres techniques de manipulation à utiliser contre les humains.

    L'intelligence artificielle n'a pas besoin d'être sensible pour représenter un risque pour l'humanité. Sa maîtrise du langage, qui s'est produite bien plus rapidement que prévu, suffit à polariser nos sociétés grâce à sa capacité à manipuler les informations que nous absorbons en ligne. Ne pas savoir si une image est réelle ou générée par l'IA, ou si le discours d'un homme politique est un deepfake plutôt qu'une vidéo authentique, pourrait avoir d'immenses conséquences sur ce que les gens croient, sur les relations que nous construisons les uns avec les autres et créer des compréhensions radicalement différentes du monde qui nous entoure.

    Face à ces perspectives effrayantes, l'une des réponses actuellement sur la table est l'Artificial Intelligence Act de l'UE. La Commission européenne a initialement publié la proposition de loi sur l'intelligence artificielle (loi sur l'IA) en 2021, mais l'introduction du ChatGPT a semblé renforcer l'attention et l'urgence de sa mise en place. Ainsi, aux premières heures du samedi 9 décembre 2023, les institutions de l'UE ont trouvé un accord, finalisant ainsi la loi sur l'IA après trente-six longues heures de négociations.

    La loi sur l'IA est un texte législatif historique qui devrait servir de référence mondiale pendant des années, principalement grâce à un cadre réglementaire adaptable conçu pour être modifié au fur et à mesure que la technologie progresse. Sa flexibilité n'est pas le seul aspect qui fait de la loi sur l'IA un framework intéressant (dont s'inspire déjà d'ailleurs la Californie) : la législation est conçue autour de l'utilisation de la technologie plutôt que de réglementer la technologie elle-même.

    Cela signifie que des applications spécifiques, telles que l'utilisation de l'identification biométrique à distance par les forces de l'ordre, seront fortement restreintes, tout en permettant la poursuite de la recherche et du développement dans le domaine de l'IA. Pour ce faire, elle doit toutefois être en mesure d'équilibrer la réglementation et l'innovation, tout en laissant l'UE ouverte à la coopération avec les pays tiers.

    Nom : gen.png
Affichages : 6837
Taille : 199,1 Ko

    Vue d'ensemble

    La structure très axée sur le risque de cette législation a fait l'objet de critiques assez vives, en particulier de la part du monde des affaires. La plus importante est une lettre ouverte signée par 150 chefs d'entreprise qui craignent que la loi sur l'IA ne dissuade les startups et les entreprises européennes d'investir dans leurs propres systèmes d'IA ou de les développer.

    Si les entreprises d'IA décidaient de cesser leurs activités dans l'UE ou ne parvenaient pas à générer suffisamment d'investissements en raison d'un environnement réglementaire défavorable, la compétitivité internationale de l'UE par rapport à ses homologues américains et chinois pourrait s'en trouver sérieusement affectée. Le recours aux technologies étrangères est déjà une réalité au sein de l'UE. Cependant, l'UE tente désormais activement d'inverser cette situation par le biais de son discours sur la souveraineté numérique et le filtrage des investissements étrangers.

    Son argument est que les nouveaux développeurs seraient confrontés à des coûts d'entrée élevés sur le marché de l'IA en raison de tous les efforts à fournir pour se mettre en conformité. Un cadre législatif plus large serait préférable, d'autant plus que les applications modernes de l'IA sont très récentes et qu'elles évolueront rapidement dans les années, voire les mois, à venir. Les critiques soutiennent qu'un régime réglementaire strict désavantagerait l'UE et l'amènerait probablement à se laisser distancer davantage par les États-Unis et la Chine en termes de capacité technologique.

    L'entrée en vigueur de la loi européenne sur l'IA

    La loi européenne sur l'intelligence artificielle est entrée en vigueur ce jeudi et s'appliquera à tous les systèmes d'intelligence artificielle (IA) déjà en place ou en cours de développement. Cette loi est largement considérée comme la première législation au monde qui tente de réglementer l'intelligence artificielle en fonction des risques qu'elle présente.

    Les législateurs ont adopté la législation en mars, mais sa publication au Journal officiel de la Commission européenne en juillet a mis en branle le processus d'entrée en vigueur.

    La date du 1er août marque le début d'une série de dates et d'échéances au cours des mois et des années à venir, afin de préparer les entreprises qui utilisent l'IA à se familiariser avec la nouvelle législation et à s'y conformer.


    La loi sur l'IA évalue les entreprises en fonction des risques

    La loi européenne sur l'IA assigne ses règles à chaque entreprise utilisant des systèmes d'IA en fonction de quatre niveaux de risque, qui déterminent à leur tour les délais qui leur sont applicables. Les quatre types de risque sont les suivants : aucun risque, risque minimal, risque élevé et systèmes d'IA interdits.

    L'UE interdira totalement certaines pratiques à partir de février 2025. Il s'agit notamment de celles qui manipulent la prise de décision d'un utilisateur ou qui élargissent les bases de données de reconnaissance faciale par le biais du « scraping » sur internet.

    D'autres systèmes d'IA considérés comme présentant un risque élevé, tels que les IA qui collectent des données biométriques et les IA utilisées pour les infrastructures critiques ou les décisions en matière d'emploi, feront l'objet des réglementations les plus strictes.

    Ces entreprises devront notamment présenter leurs ensembles de données d'entraînement à l'IA et fournir la preuve d'une supervision humaine.

    Selon Thomas Regnier, porte-parole de la Commission européenne, environ 85 % des entreprises d'IA relèvent de la deuxième catégorie, celle du "risque minimal", qui ne nécessite que très peu de réglementation.

    Nom : ia.png
Affichages : 757
Taille : 207,8 Ko

    Les entreprises auront besoin d'une période comprise entre 3 et 6 mois pour se conformer

    Heather Dawe, responsable de l'IA responsable au sein de la société de conseil UST, travaille déjà avec des clients internationaux pour mettre leur utilisation de l'IA en conformité avec la nouvelle loi. Les clients internationaux de Dawe sont « d'accord » avec les nouvelles exigences de la loi parce qu'ils reconnaissent la nécessité d'une réglementation de l'IA.

    Selon elle, la mise en conformité avec la nouvelle loi pourrait prendre entre trois et six mois, en fonction de la taille de l'entreprise et de l'importance du rôle de l'IA dans son flux de travail. « Il existe un ensemble de lignes directrices claires sur ce qu'il faut faire », a déclaré Dawe. « Toute complication est due au fait que le processus n'a pas été lancé assez rapidement ».

    Les entreprises pourraient envisager de mettre en place des conseils internes de gouvernance de l'IA, a poursuivi Dawe, avec des experts en droit, en technologie et en sécurité pour effectuer un audit complet des technologies utilisées et de la manière dont elles doivent adhérer à la nouvelle loi.

    Si une entreprise n'est pas en conformité avec la loi sur l'IA dans les délais impartis, elle risque une amende pouvant aller jusqu'à 7 % de son chiffre d'affaires annuel global, a rappelé Regnier, de la Commission.

    Comment la Commission se prépare

    L'Office de l'IA de la Commission supervisera le respect des règles relatives aux modèles d'IA à usage général. Soixante membres du personnel de la Commission seront réorientés vers ce bureau et 80 autres candidats externes seront recrutés au cours de l'année prochaine, a indiqué Regnier.

    Un conseil de l'IA composé de délégués de haut niveau des 27 États membres de l'UE a « posé les bases » de la mise en œuvre de la loi lors de sa première réunion en juin, selon un communiqué de presse. Le conseil travaillera avec l'office de l'IA pour s'assurer que l'application de la loi est harmonisée dans toute l'UE, a ajouté Regnier.

    Plus de 700 entreprises ont déclaré qu'elles signeraient un pacte sur l'IA, dans lequel elles s'engagent à se conformer rapidement à la loi.

    Les États membres de l'UE ont jusqu'au mois d'août prochain pour mettre en place les autorités nationales compétentes qui superviseront l'application des règles dans leur pays.

    La Commission se prépare également à relancer ses investissements dans l'IA, avec une injection d'un milliard d'euros en 2024 et jusqu'à 20 milliards d'euros d'ici 2030.

    « Ce que l'on entend partout, c'est que ce que fait l'UE est purement réglementaire (...) et que cela va bloquer l'innovation. Ce n'est pas vrai », a déclaré Regnier. « La législation n'est pas là pour empêcher les entreprises de lancer leurs systèmes, bien au contraire ». « Nous voulons qu'elles opèrent dans l'UE, mais nous voulons aussi protéger nos citoyens et nos entreprises ».

    Pour la Commission, l'un des principaux défis est de réglementer les futures technologies d'IA, a déclaré Regnier, mais il pense que le système basé sur le risque signifie qu'elle peut rapidement réglementer tout nouveau système.

    Points de vue des critiques et des partisans

    Les inquiétudes concernant la capacité d'innovation de l'Union européenne sont certainement justifiées. Les fonctionnaires européens mentionnent constamment le manque de grandes entreprises technologiques sur le continent et le « retard » par rapport à d'autres grands acteurs mondiaux.

    Le développement moderne et rapide de l'intelligence artificielle pourrait présenter un scénario différent. Contrairement au développement de l'internet au début des années 90 et à la croissance des plateformes en ligne dans les années 2000, l'UE réglemente alors que l'utilisation et l'importance de la technologie augmentent à l'échelle mondiale.

    Alors que le marché de l'IA commence à exploser et que les modèles se développent correctement, l'Union européenne a anticipé l'importance et le caractère révolutionnaire de ces nouvelles technologies. La réglementation vise à protéger contre les dommages potentiels, ce qui a sans doute été fait trop tard dans le cas de l'internet et de l'essor des grands réseaux de médias sociaux.

    La loi sur les services numériques et la loi sur les marchés numériques, adoptées en 2022, étaient des tentatives pour contrôler les entreprises de la Big Tech dont les pratiques algorithmiques et les modèles commerciaux préjudiciables étaient déjà profondément enracinés. Cette fois, l'UE a l'occasion de créer un environnement sain permettant aux entreprises d'innover et de se développer dans ce nouveau secteur.

    Sources : parlement européen (1, 2), Europe AI Office, conseil de l'UE, lettre ouverte

    Et vous ?

    Évaluation des risques : Les entreprises doivent évaluer les risques liés à leurs systèmes d’IA et prendre des mesures pour minimiser ces risques.
    Interdiction des systèmes dangereux : Certains systèmes d’IA, tels que la surveillance de masse, sont interdits en raison de leur impact potentiellement néfaste.
    Transparence et documentation : Les développeurs d’IA doivent fournir des informations claires sur le fonctionnement de leurs systèmes et documenter leurs décisions.
    Surveillance indépendante : Des organismes de surveillance indépendants seront chargés de veiller à la conformité avec la législation.
    Images attachées Images attachées
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  5. #125
    Membre éprouvé Avatar de der§en
    Homme Profil pro
    Chambord
    Inscrit en
    Septembre 2005
    Messages
    858
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Loir et Cher (Centre)

    Informations professionnelles :
    Activité : Chambord
    Secteur : Transports

    Informations forums :
    Inscription : Septembre 2005
    Messages : 858
    Points : 1 206
    Points
    1 206
    Par défaut
    Petit pastiche d’une citation de Georges Clemenceau:

    L’Europe est un continent extrêmement fertile : on y plante des fonctionnaires non élus et il y pousse des règlements abscons !

  6. #126
    Membre régulier Avatar de Fluxgraveon
    Homme Profil pro
    mécanicien
    Inscrit en
    Mai 2024
    Messages
    73
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Lot (Midi Pyrénées)

    Informations professionnelles :
    Activité : mécanicien

    Informations forums :
    Inscription : Mai 2024
    Messages : 73
    Points : 110
    Points
    110
    Par défaut
    La Commission se prépare également à relancer ses investissements dans l'IA, avec une injection d'un milliard d'euros en 2024 et jusqu'à 20 milliards d'euros d'ici 2030.
    Ridicule.

Discussions similaires

  1. Réponses: 285
    Dernier message: 22/08/2024, 20h05
  2. Réponses: 2
    Dernier message: 20/10/2020, 16h13
  3. Réponses: 7
    Dernier message: 19/04/2020, 14h46
  4. Réponses: 2
    Dernier message: 04/12/2019, 11h35
  5. Les Etats-Unis veulent réglementer le commerce de failles logicielles
    Par Michael Guilloux dans le forum Actualités
    Réponses: 12
    Dernier message: 29/05/2015, 22h05

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo