IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #81
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    November 2022
    Messages
    717
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : November 2022
    Messages : 717
    Points : 11 918
    Points
    11 918
    Par défaut Elon Musk déclare que le sommet sur la sécurité de l'IA vise à établir un "arbitre tiers"
    Elon Musk déclare que le sommet sur la sécurité de l'IA vise à établir un "arbitre tiers", pour superviser les entreprises développant l'IA et tirer la sonnette d'alarme en cas d'inquiétude

    Elon Musk a déclaré le mercredi 1 novembre que le sommet inaugural sur la sécurité de l'IA en Grande-Bretagne souhaitait établir un "arbitre tiers" qui pourrait superviser les entreprises développant l'intelligence artificielle et tirer la sonnette d'alarme en cas d'inquiétude.

    "Ce que nous visons vraiment ici, c'est d'établir un cadre de réflexion pour qu'il y ait au moins un arbitre tiers, un arbitre indépendant, qui puisse observer ce que font les principales entreprises d'IA et au moins tirer la sonnette d'alarme s'il y a des inquiétudes", a déclaré l'entrepreneur milliardaire aux journalistes à Bletchley Park, dans le centre de l'Angleterre.

    "Je ne sais pas quelles sont les règles les plus justes, mais il faut commencer par comprendre avant de surveiller", a déclaré M. Musk.

    Les commentaires de M. Musk sont intervenus après la publication par la Grande-Bretagne d'une déclaration signée par 28 pays et l'Union européenne, qui définit un programme à deux volets axé sur l'identification des risques liés à l'IA qui suscitent des préoccupations communes, sur l'amélioration de la compréhension scientifique de ces risques et sur l'élaboration de politiques transnationales visant à les atténuer.

    "Je pense que les personnes travaillant dans le domaine de l'IA s'inquiètent beaucoup du fait que le gouvernement va en quelque sorte se précipiter sur les règles avant de savoir quoi faire", a déclaré M. Musk.

    "Je pense qu'il est peu probable que cela se produise."


    Source : Déclaration d'Elon Musk lors du sommet sur la sécurité de l'IA en Grande-Bretagne

    Et vous ?

    Quel est votre avis sur le sujet ?

    Pensez-vous que le point de vue de M. Musk est crédible ou pertinent ?

    Voir aussi

    Le G7 s'apprête à adopter un code de conduite pour les entreprises en matière d'IA, le code vise "à aider à saisir les avantages et à faire face aux risques et aux défis posés par ces technologies"

    Le risque lié à l'IA est similaire à la crise climatique, le monde ne peut pas se permettre de retarder la réponse, selon Demis Hassabis, il prévoit la création d'un organisme international de l'IA

    Les législateurs de l'UE progressent dans leurs négociations cruciales sur les nouvelles règles en matière d'IA
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #82
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    November 2022
    Messages
    717
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : November 2022
    Messages : 717
    Points : 11 918
    Points
    11 918
    Par défaut La Chine a accepté de travailler avec les États-Unis, l'UE et d'autres pays pour gérer les risques liés à l'IA
    La Chine a accepté de travailler avec les États-Unis, l'Union européenne et d'autres pays pour gérer collectivement les risques liés à l'intelligence artificielle

    La Chine a accepté de travailler avec les États-Unis, l'Union européenne et d'autres pays pour gérer collectivement les risques liés à l'intelligence artificielle lors d'un sommet britannique qui s'est tenu le mercredi 1 novembre 2023 et qui visait à tracer une voie sûre pour l'évolution rapide de cette technologie.

    Certains dirigeants du secteur technologique et leaders politiques ont mis en garde contre le développement rapide de l'IA qui, s'il n'est pas contrôlé, représente une menace existentielle pour le monde, déclenchant une course des gouvernements et des institutions internationales pour concevoir des mesures de protection et des réglementations.

    Pour la première fois, un vice-ministre chinois s'est joint aux dirigeants des États-Unis et de l'Union européenne, ainsi qu'à des patrons du secteur technologique tels qu'Elon Musk et Sam Altman, de ChatGPT, à Bletchley Park, lieu de résidence des décrypteurs britanniques de la Seconde Guerre mondiale, dans le cadre des efforts déployés par l'Occident pour gérer le développement sûr de l'IA.

    Plus de 25 pays présents, dont les États-Unis, la Chine et l'Union européenne, ont signé une "déclaration de Bletchley" indiquant que les pays devaient travailler ensemble et établir une approche commune en matière de surveillance.

    La déclaration présente un programme à deux volets, axé sur l'identification des risques d'intérêt commun et sur la compréhension scientifique de ces risques, ainsi que sur l'élaboration de politiques transnationales visant à les atténuer.

    Wu Zhaohui, vice-ministre chinois de la science et de la technologie, a déclaré lors de la séance d'ouverture du sommet de deux jours que Pékin était prêt à renforcer la collaboration sur la sécurité de l'IA afin de contribuer à la mise en place d'un "cadre de gouvernance" international.

    "Les pays, quelles que soient leur taille et leur échelle, ont les mêmes droits de développer et d'utiliser l'IA", a-t-il déclaré.


    Les craintes concernant l'impact que l'IA pourrait avoir sur les économies et la société ont pris de l'ampleur en novembre de l'année dernière, lorsque OpenAI, soutenu par Microsoft, a mis ChatGPT à la disposition du public.

    Utilisant des outils de traitement du langage naturel pour créer des dialogues semblables à ceux des humains, il a alimenté les craintes, y compris chez certains pionniers de l'IA, que les machines puissent à terme devenir plus intelligentes que les humains, ce qui entraînerait des conséquences illimitées et involontaires.

    Les gouvernements et les fonctionnaires tentent à présent de tracer la voie à suivre, aux côtés des entreprises d'IA qui craignent d'être alourdies par la réglementation avant que la technologie n'ait atteint son plein potentiel.

    "Je ne sais pas quelles sont les règles les plus justes, mais il faut commencer par comprendre avant de surveiller", a déclaré le milliardaire Musk à la presse, ajoutant qu'un "arbitre tiers" pourrait être utilisé pour tirer la sonnette d'alarme lorsque des risques se présentent.

    Alors que l'Union européenne a axé sa surveillance de l'IA sur la confidentialité des données, la surveillance et l'impact potentiel sur les droits de l'homme, le sommet britannique se penche sur les risques dits existentiels liés à des modèles polyvalents très performants appelés "IA frontière".

    Mustafa Suleyman, cofondateur de Google Deepmind, a déclaré aux journalistes qu'il ne pensait pas que les modèles d'IA d'avant-garde actuels présentaient des "dommages catastrophiques significatifs", mais qu'il était logique de planifier à l'avance, car l'industrie forme des modèles de plus en plus grands.

    Le lieu de décryptage

    Le sommet est une idée du Premier ministre britannique Rishi Sunak, qui souhaite que son pays joue, après le Brexit, un rôle d'intermédiaire entre les blocs économiques que sont les États-Unis, la Chine et l'Union européenne.

    La ministre britannique du numérique, Michelle Donelan, a déclaré que le simple fait de réunir autant d'acteurs clés dans une même salle constituait un véritable exploit. Elle a annoncé la tenue de deux autres sommets sur la sécurité de l'IA, l'un en Corée du Sud dans six mois et l'autre en France six mois plus tard.

    "Pour la première fois, des pays s'accordent sur la nécessité d'examiner non seulement de manière indépendante, mais aussi collectivement, les risques liés à l'IA d'avant-garde", a déclaré Mme Donelan à la presse.

    Alors que les entreprises technologiques rivalisent pour dominer l'IA, les gouvernements se bousculent pour montrer la voie en matière de réglementation.


    La Chine est un participant clé au sommet, étant donné le rôle qu'elle joue dans le développement de l'IA. Toutefois, certains législateurs britanniques se sont interrogés sur l'opportunité de sa présence, compte tenu du manque de confiance entre Pékin, Washington et de nombreuses capitales européennes en ce qui concerne l'implication de la Chine dans la technologie.

    À la veille du sommet, les États-Unis ont clairement indiqué que l'appel lancé à Pékin émanait en grande partie de la Grande-Bretagne. Leur ambassadrice à Londres, Jane Hartley, a déclaré : "Il s'agit d'une invitation du Royaume-Uni, et non des États-Unis."

    La décision de la vice-présidente des États-Unis, Kamala Harris, de prononcer un discours à Londres mercredi sur la réponse de son gouvernement à l'IA et de tenir certaines réunions avec les participants en dehors du sommet, ce qui signifie qu'ils pourraient devoir partir plus tôt, a également suscité quelques froncements de sourcils.

    Sachin Dev Duggal, fondateur de la société d'IA Builder.ai, basée à Londres, a déclaré que cela risquait de nuire à l'objectif principal de l'événement, tandis que certains législateurs du parti conservateur de M. Sunak ont suggéré que Washington essayait de faire de l'ombre à son sommet.

    Les responsables britanniques ont démenti cette affirmation, affirmant qu'ils souhaitaient que le plus grand nombre de voix possible s'expriment.

    Quelques jours après la signature par le président américain Joe Biden d'un décret sur l'IA, son gouvernement a profité du sommet britannique pour annoncer la création d'un institut américain de sécurité de l'IA.

    M. Harris a rencontré M. Sunak plus tard dans la journée du mercredi, notamment à l'occasion d'un dîner, et participera à la deuxième journée du sommet, le jeudi.

    Déclaration de Bletchley des pays participant au sommet sur la sécurité de l'IA

    L'intelligence artificielle (IA) offre d'énormes possibilités à l'échelle mondiale : elle a le potentiel de transformer et d'améliorer le bien-être, la paix et la prospérité de l'humanité. Pour y parvenir, nous affirmons que, pour le bien de tous, l'IA doit être conçue, développée, déployée et utilisée en toute sécurité, de manière à être centrée sur l'humain, digne de confiance et responsable. Nous saluons les efforts déployés jusqu'à présent par la communauté internationale pour coopérer dans le domaine de l'IA afin de promouvoir une croissance économique inclusive, le développement durable et l'innovation, de protéger les droits de l'homme et les libertés fondamentales, et de favoriser la confiance du public dans les systèmes d'IA afin qu'ils réalisent pleinement leur potentiel.

    Les systèmes d'IA sont déjà déployés dans de nombreux domaines de la vie quotidienne, notamment le logement, l'emploi, les transports, l'éducation, la santé, l'accessibilité et la justice, et leur utilisation est susceptible d'augmenter. Nous reconnaissons qu'il s'agit donc d'un moment unique pour agir et affirmer la nécessité de développer l'IA en toute sécurité et d'utiliser les possibilités de transformation de l'IA pour le bien et pour tous, d'une manière inclusive dans nos pays et dans le monde. Cela inclut les services publics tels que la santé et l'éducation, la sécurité alimentaire, la science, l'énergie propre, la biodiversité et le climat, la réalisation de la jouissance des droits de l'homme et le renforcement des efforts visant à atteindre les objectifs de développement durable des Nations unies.

    Parallèlement à ces possibilités, l'IA présente également des risques importants, y compris dans les domaines de la vie quotidienne. À cette fin, nous saluons les efforts internationaux déployés pour examiner et traiter l'impact potentiel des systèmes d'IA dans les forums existants et d'autres initiatives pertinentes, ainsi que la reconnaissance de la nécessité d'aborder la protection des droits de l'homme, la transparence et l'explicabilité, l'équité, la responsabilité, la réglementation, la sécurité, la surveillance humaine appropriée, l'éthique, l'atténuation des préjugés, la protection de la vie privée et la protection des données. Nous notons également la possibilité de risques imprévus découlant de la capacité à manipuler le contenu ou à générer un contenu trompeur. Toutes ces questions sont d'une importance capitale et nous affirmons la nécessité et l'urgence de les traiter.

    Des risques de sécurité particuliers se posent à la "frontière" de l'IA, c'est-à-dire aux modèles d'IA à usage général très performants, y compris les modèles de base, qui pourraient effectuer une grande variété de tâches - ainsi qu'à l'IA étroite spécifique pertinente qui pourrait présenter des capacités nuisibles - qui égalent ou dépassent les capacités présentes dans les modèles les plus avancés d'aujourd'hui. Des risques importants peuvent découler d'une éventuelle utilisation abusive intentionnelle ou de problèmes de contrôle involontaires liés à l'alignement sur l'intention humaine. Ces problèmes sont en partie dus au fait que ces capacités ne sont pas entièrement comprises et sont donc difficiles à prévoir. Nous sommes particulièrement préoccupés par ces risques dans des domaines tels que la cybersécurité et la biotechnologie, ainsi que dans les cas où les systèmes d'IA d'avant-garde peuvent amplifier des risques tels que la désinformation. Les capacités les plus importantes de ces modèles d'IA peuvent entraîner des dommages graves, voire catastrophiques, délibérés ou involontaires. Compte tenu de la rapidité et de l'incertitude de l'évolution de l'IA, et dans le contexte de l'accélération des investissements dans la technologie, nous affirmons qu'il est particulièrement urgent d'approfondir notre compréhension de ces risques potentiels et des mesures à prendre pour y faire face.

    De nombreux risques découlant de l'IA sont par nature internationaux, et c'est donc par la coopération internationale que l'on peut le mieux y faire face. Nous décidons de travailler ensemble de manière inclusive pour garantir une IA centrée sur l'homme, digne de confiance et responsable, qui soit sûre et soutienne le bien de tous, par le biais des enceintes internationales existantes et d'autres initiatives pertinentes, afin de promouvoir la coopération pour faire face au large éventail de risques posés par l'IA. Ce faisant, nous reconnaissons que les pays devraient considérer l'importance d'une gouvernance et d'une approche réglementaire pro-innovation et proportionnée qui maximise les avantages et prend en compte les risques associés à l'IA. Cela pourrait inclure, le cas échéant, des classifications et des catégorisations de risques basées sur les circonstances nationales et les cadres juridiques applicables. Nous notons également la pertinence d'une coopération, le cas échéant, sur des approches telles que les principes communs et les codes de conduite. En ce qui concerne les risques spécifiques les plus susceptibles d'être liés à l'IA d'avant-garde, nous décidons d'intensifier et de maintenir notre coopération, et de l'élargir à d'autres pays, afin d'identifier, de comprendre et, le cas échéant, d'agir, dans le cadre des enceintes internationales existantes et d'autres initiatives pertinentes, y compris les futurs sommets internationaux sur la sécurité de l'IA.

    Tous les acteurs ont un rôle à jouer pour garantir la sécurité de l'IA : les nations, les forums internationaux et autres initiatives, les entreprises, la société civile et le monde universitaire devront travailler ensemble. Notant l'importance d'une IA inclusive et de la réduction de la fracture numérique, nous réaffirmons que la collaboration internationale devrait s'efforcer d'engager et d'impliquer un large éventail de partenaires, le cas échéant, et nous nous félicitons des approches et des politiques axées sur le développement qui pourraient aider les pays en développement à renforcer leurs capacités en matière d'IA et à tirer parti du rôle habilitant de l'IA pour soutenir la croissance durable et combler le fossé du développement.

    Nous affirmons que, si la sécurité doit être prise en compte tout au long du cycle de vie de l'IA, les acteurs qui développent des capacités d'IA d'avant-garde, en particulier les systèmes d'IA qui sont exceptionnellement puissants et potentiellement dangereux, ont une responsabilité particulièrement importante pour garantir la sécurité de ces systèmes d'IA, notamment par des systèmes d'essais de sécurité, des évaluations et d'autres mesures appropriées. Nous encourageons tous les acteurs concernés à faire preuve d'une transparence et d'une responsabilité adaptées au contexte en ce qui concerne leurs projets de mesure, de surveillance et d'atténuation des capacités potentiellement nuisibles et des effets associés qui pourraient en résulter, en particulier pour prévenir les abus et les problèmes de contrôle, ainsi que l'amplification d'autres risques.

    Dans le cadre de notre coopération et afin d'éclairer l'action aux niveaux national et international, notre programme de lutte contre les risques liés à l'IA d'avant-garde sera axé sur les points suivants :

    • l'identification des risques de sécurité de l'IA d'intérêt commun, la construction d'une compréhension scientifique commune et fondée sur des preuves de ces risques, et le maintien de cette compréhension au fur et à mesure que les capacités continuent à augmenter, dans le contexte d'une approche globale plus large pour comprendre l'impact de l'IA dans nos sociétés.
    • l'élaboration de politiques respectives fondées sur les risques dans nos pays afin de garantir la sécurité à la lumière de ces risques, en collaborant le cas échéant, tout en reconnaissant que nos approches peuvent différer en fonction des circonstances nationales et des cadres juridiques applicables. Cela suppose, parallèlement à une transparence accrue de la part des acteurs privés qui développent des capacités d'IA d'avant-garde, de disposer de mesures d'évaluation appropriées et d'outils pour tester la sécurité, ainsi que de développer les capacités et la recherche scientifique pertinentes dans le secteur public.

    Dans le cadre de ce programme, nous décidons de soutenir un réseau international de recherche scientifique sur la sécurité de l'IA d'avant-garde qui englobe et complète les collaborations multilatérales, plurilatérales et bilatérales existantes et nouvelles, y compris dans le cadre des enceintes internationales existantes et d'autres initiatives pertinentes, afin de faciliter la mise à disposition des meilleures données scientifiques disponibles pour l'élaboration des politiques et l'intérêt général.

    Conscients du potentiel de transformation positive de l'IA, et dans le cadre d'une coopération internationale plus large sur l'IA, nous sommes résolus à maintenir un dialogue mondial inclusif qui fasse appel aux enceintes internationales existantes et à d'autres initiatives pertinentes et qui contribue de manière ouverte à des discussions internationales plus larges, et à poursuivre la recherche sur la sécurité de l'IA aux frontières afin de veiller à ce que les avantages de la technologie puissent être exploités de manière responsable, pour le bien et pour tous. Nous nous réjouissons de nous retrouver en 2024.
    Source : Déclaration de Bletchley

    Et vous ?

    Quelle lecture faites-vous de cette situation ?

    Que pensez-vous de cette initiative internationale visant à gérer collectivement les risques liés à l'IA ? Trouvez-vous qu'il s'agit d'une approche pertinente et cohérente ?

    Voir aussi

    Les États-Unis vont lancer leur propre institut de sécurité de l'IA, afin d'évaluer les risques émergents des modèles d'IA avancés et de traiter les impacts connus

    Elon Musk déclare que le sommet sur la sécurité de l'IA vise à établir un "arbitre tiers", pour superviser les entreprises développant l'IA et tirer la sonnette d'alarme en cas d'inquiétude

    Le G7 s'apprête à adopter un code de conduite pour les entreprises en matière d'IA, le code vise "à aider à saisir les avantages et à faire face aux risques et aux défis posés par ces technologies"
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  3. #83
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    June 2023
    Messages
    507
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : June 2023
    Messages : 507
    Points : 36 107
    Points
    36 107
    Par défaut Les Big Tech (GAFAM) veulent réglementer l'IA, mais les autres entrepreneurs sont sceptiques
    Les Big Tech (GAFAM) veulent réglementer l'IA, mais les autres entrepreneurs sont sceptiques, selon eux leur réelle volonté serait juste de geler le marché de l'IA pour conserver leur monopole.

    Après des mois de réunions et de discussions de haut niveau, les responsables gouvernementaux et les dirigeants des grandes entreprises technologiques sont tombés d'accord sur un point concernant l'intelligence artificielle : Cette technologie, qui pourrait changer le monde, a besoin de règles de base. Mais de nombreux acteurs de la Silicon Valley sont sceptiques.

    Un groupe de plus en plus important de grands noms de la technologie - notamment des investisseurs en capital-risque influents, des PDG de sociétés de logiciels de taille moyenne et des partisans de la technologie libre - s'insurge, affirmant que les lois relatives à l'intelligence artificielle pourraient étouffer la concurrence dans un nouveau domaine vital. Pour ces dissidents, la volonté des plus grands acteurs de l'IA, tels que Google, Microsoft et OpenAI, le fabricant de ChatGPT, d'adopter une réglementation n'est qu'un stratagème cynique de la part de ces entreprises pour consolider leurs avantages en tant que leaders actuels, en tirant essentiellement l'échelle vers le haut derrière elles.

    Les inquiétudes de ces leaders technologiques ont pris de l'ampleur la semaine dernière, lorsque le président Biden a signé un décret établissant un plan pour que le gouvernement élabore des lignes directrices en matière de test et d'approbation des modèles d'IA - les algorithmes sous-jacents qui alimentent les outils d'IA "génératifs" tels que les chatbots et les faiseurs d'images.


    "Nous n'en sommes qu'au tout début de l'IA générative, et il est impératif que les gouvernements ne désignent pas préventivement les gagnants et ne ferment pas la porte à la concurrence en adoptant des réglementations onéreuses que seules les plus grandes entreprises peuvent satisfaire", a déclaré Garry Tan, directeur de Y Combinator, un incubateur de start-up basé à San Francisco qui a aidé des entreprises telles qu'Airbnb et DoorDash à se développer lorsqu'elles n'en étaient qu'à leurs débuts.

    Le débat actuel n'a pas suffisamment intégré les voix des petites entreprises, a déclaré Tan, ce qui, selon lui, est essentiel pour stimuler la concurrence et trouver les moyens les plus sûrs d'exploiter l'IA. Des entreprises comme Anthropic, une start-up influente dans le domaine de l'IA, et OpenAI sont étroitement liées aux grandes entreprises technologiques, dont elles ont absorbé d'énormes quantités d'investissements.

    "Elles ne parlent pas au nom de la grande majorité des personnes qui ont contribué à ce secteur", a déclaré Martin Casado, associé général de la société de capital-risque Andreessen Horowitz, qui a investi très tôt dans Facebook, Slack et Lyft. La plupart des ingénieurs et des entrepreneurs en IA ont suivi les discussions réglementaires de loin, se concentrant sur leurs entreprises au lieu d'essayer de faire pression sur les politiciens, a-t-il ajouté. "Beaucoup de gens veulent construire, ce sont des innovateurs, ils constituent la majorité silencieuse", a déclaré Casado.

    Le décret a montré à ces personnes que la réglementation pourrait intervenir plus tôt que prévu. La société de capital-risque de Casado a envoyé une lettre à Biden pour lui faire part de ses préoccupations. Cette lettre a été signée par d'éminents dirigeants de start-up spécialisées dans l'IA, dont le PDG de Replit, Amjad Masad, et Arthur Mensch de Mistral, ainsi que par des leaders technologiques plus établis, comme le PDG de la société de commerce électronique Shopify, Tobi Lutke, qui avait tweeté "la réglementation de l'IA est une très mauvaise idée" après l'annonce du décret.

    Source : WashingtonPost

    Et vous ?

    Pensez-vous que les préoccupations de cette "majorité silencieuse" sont crédibles ou pertinentes ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Le projet de législation européenne sur l'intelligence artificielle mettrait en péril la compétitivité et la souveraineté technologique de l'Europe Selon plus de 160 dirigeants d'entreprises

    Le PDG d'OpenAI estime qu'il est possible de se tromper dans la réglementation mais qu'il ne faut pas la craindre. La réglementation n'a pas été un bien absolu, mais elle a été bénéfique, ajoute-t-il

    Elon Musk se dit un fervent défenseur de la réglementation de l'IA Mais ses solutions vagues n'impressionnent pas
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  4. #84
    Membre confirmé
    Inscrit en
    October 2005
    Messages
    234
    Détails du profil
    Informations forums :
    Inscription : October 2005
    Messages : 234
    Points : 510
    Points
    510
    Par défaut "Selon eux leur réelle volonté serait juste de geler le marché de l'IA pour conserver leur monopole"
    C'est d'une telle évidence ...

  5. #85
    Membre extrêmement actif Avatar de Jon Shannow
    Homme Profil pro
    Responsable de service informatique
    Inscrit en
    April 2011
    Messages
    4 284
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 60
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Responsable de service informatique
    Secteur : High Tech - Électronique et micro-électronique

    Informations forums :
    Inscription : April 2011
    Messages : 4 284
    Points : 9 400
    Points
    9 400
    Par défaut
    Mon avis est double. D'un coté, je pense qu'il est important et urgent de légiférer, d'un autre, qu'il est nécessaire de préserver les acteurs moindres dans leurs recherches au niveau de l'IA.
    Je pense que la législation devrait mettre des barrières aux grandes entreprises afin de ne pas leur laisser le champ libre et de tuer dans l'œuf toute concurrence, comme ils savent si bien le faire.

    Mais gageons que le poids des billets de ces cadors, soit plus audible que toutes les objections raisonnables émises par un groupe moins... pourvus de liasses.
    Au nom du pèze, du fisc et du St Estephe
    Au nom du fric, on baisse son froc...

  6. #86
    Membre chevronné

    Homme Profil pro
    Consultant informatique
    Inscrit en
    April 2015
    Messages
    428
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Vendée (Pays de la Loire)

    Informations professionnelles :
    Activité : Consultant informatique
    Secteur : Finance

    Informations forums :
    Inscription : April 2015
    Messages : 428
    Points : 1 938
    Points
    1 938
    Par défaut
    J'imagine les débats le jour où l'Homme à domestiqué le Feu...

    Réguler l'IA comme l'entendent les politicards et les bien-pensants revient à pratiquer une stérilisation intellectuelle. Ce n'est pas parce que de plus en plus d'utilisateurs de l'informatique ne sont pas capables d'additionner 1 et 1 qu'il faut priver ceux qui savent que ça fait 10 de poursuivre les développements les plus prometteurs de ces derniers temps.

    Les catastrophistes qui prédisent que mon Raspberry Pi tournant Llama va déclencher la fin du monde sont pathétiques, et dangereux, car ils offrent une occasion aux sempiternels protecteurs des populations une magnifique occasion de tenter encore une fois de prouver leur utilité.

    Les travaux de Yann LeCun visant à contextualiser les données des LLMs sont prometteurs et pourraient aboutir à instiller un brin d'intelligence dans ces systèmes, qui sont pour le moment d'une totale indigence dès lors qu'on tente de les extraire de le leur cadre d'entraînement. Mais sur le fond, observez vous, voyez comment le vivant est fabriqué, évaluez les flux d'informations reçu en permanence par notre système nerveux central et comparez ces volumes à ceux que reçoit une système d'IA dans son boîtier...

    Si nous ne voulons pas souffrir de l'émergence de l'IA au sens général, il faut que nous nous formions à son usage, que nous en comprenions les bases de fonctionnement et puissions en tirer parti. Nous devons aussi en mesurer les limites, savoir d'où ça vient. Nous devons en quelque sorte (re)devenir intelligents et cesser de sauter sur chaque superstition qui passe par là.
    En bref, nous devons prouver que nous restons plus aptes que n'importe laquelle de nos créa-tion-tures (voilà t'y pas que je m'y mets aussi !). Nous priver d'un bulldozer nous empêchera de construire les routes dont nous aurons besoin dans le futur.

  7. #87
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    June 2023
    Messages
    283
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : June 2023
    Messages : 283
    Points : 5 371
    Points
    5 371
    Par défaut La nouvelle loi européenne sur l'IA est menacée par le lobbying des grandes entreprises technologiques
    La nouvelle loi européenne sur l'IA est menacée par le lobbying intense des grandes entreprises technologiques
    elles font pression pour retirer "les modèles de base" de la réglementation

    Des entreprises technologiques européennes et américaines font pression pour empêcher l'adoption de la loi européenne sur l'IA (EU AI Act). Les groupes d'intérêt représentant ces entreprises utilisent leurs influences et leurs relations politiques pour tenter de modifier radicalement les règles de l'UE par le biais d'un lobbying intensif. Ils cherchent à retirer les "modèles de base" - les modèles les plus puissants et les plus modernes, comme GPT-4 d'OpenAI - de la législation de l'UE. Ces groupes exigent en fait que la législation soit imposée seulement aux développeurs d'applications, alors que ces derniers ont un contrôle limité sur les modèles de base fournis par les grandes entreprises.

    De nombreux experts en IA, ainsi que le public, ont exprimé leurs inquiétudes quant au fait que la loi européenne sur l’IA soit menacée par des lobbyistes qui tentent de supprimer la réglementation proposée sur les puissants systèmes d’IA connus sous le nom de "modèles de base". Ils ont récemment signé une lettre ouverte appelant les États membres de l'UE à réglementer l’IA plutôt que laisser les entreprises le faire elles-mêmes. Le bloc se prépare à finaliser le texte de la législation sur l’IA le 6 décembre. La lettre a été adressée au président français Emmanuel Macron, à la Première ministre italienne Giorgia Meloni et au chancelier allemand Olaf Scholz.

    Pour rappel, le cadre réglementaire publié par l'UE en avril 2021 prévoyait d'imposer différents niveaux de contrôle réglementaire sur les systèmes d'IA en fonction de leur utilisation prévue. Ainsi, les cas d'utilisation à plus haut risque nécessiteraient des mesures telles que l'évaluation des risques et des mesures d'atténuation dans le cadre de la proposition. La législation de l'UE prend en compte tous les types de systèmes d'IA, y compris ce que les entreprises d'IA appellent "les modèles de base" (ou modèles fondamentaux). Les modèles de base sont des modèles à usage général et servent de point de départ pour la création de diverses applications d'IA.

    La loi européenne sur l'IA devait être le premier texte législatif d'envergure au monde en matière d'IA. Mais les trois grands États membres - la France, l'Allemagne et l'Italie - ont décidé récemment de supprimer la partie de la loi qui vise à réglementer les grands modèles de base. Les modèles de base sous-tendent les logiciels d'IA les plus puissants au monde, notamment ChatGPT d'OpenAI et Bard de Google. Ces logiciels d'IA sont souvent complexes et se comportent d’une manière qui peut surprendre même leurs propres développeurs. Mais la France, l'Italie et l'Allemagne veulent que les fournisseurs de modèles de base se régulent eux-mêmes.

    Ces pays demandent désormais à la présidence espagnole "une autorégulation obligatoire au moyen de codes de conduite pour les modèles de base". Cela mettrait la responsabilité sur l’application de l’IA, et non sur la technologie elle-même, ce qui n’est pas ce qui se produit habituellement. En d'autres termes, cette approche ferait peser la responsabilité sur ceux qui ont le moins d’influence dans l’écosystème de l’IA (les développeurs d’applications) tout en exonérant ceux qui créent et contrôlent ces modèles puissants : les Big Tech américaines et leurs startups européennes préférées. Les auteurs de la lettre affirment qu'il s'agit d'une décision dangereuse.

    Cela a suscité un tollé dans la communauté de l'IA, y compris au sein du grand public, les critiques affirmant que le lobbying des Big Tech tente de faire dérailler la loi européenne sur l'IA. Selon les auteurs de la lettre, les grandes entreprises technologiques américaines, les pays européens, les startups européennes bien connectées et les anciens ministres français utilisent leur influence et leurs avantages politiques pour modifier radicalement la législation. Dans la lettre, les auteurs affirment que la législation est menacée en raison du recul de ces gouvernements qui étaient autrefois favorables à la réglementation. Mais que s'est-il passé ?

    Au début, la France était l'un des principaux défenseurs de la nécessité de réglementer les modèles de base. Aujourd'hui, l'ancien ministre de l'Économie numérique du président français Emmanuel Macron, Cédric O, qui est cofondateur et actionnaire de l'influente startup française Mistral, s'est prononcé contre les réglementations qui pourraient avoir un impact important sur l'activité de son entreprise. Donc, son ton a changé. Jusqu'en 2022, en tant que ministre, Cédric O affirmait que l'UE a besoin de plus de réglementation sur les géants technologiques. En 2021, il avait déclaré vouloir freiner l'oligopole des Big Tech américains pour protéger l'intérêt public.

    Cependant, son discours a soudainement changé vers cet été, juste après qu'il est devenu cofondateur et actionnaire de Mistral, dont les critiques affirment qu'il a un poids politique étrange. Peu de temps après, il a commencé à déclarer dans des interviews : « la loi européenne sur l’IA pourrait tuer notre entreprise ». À peu près à la même époque, la France a également commencé à plaider en faveur de l’exclusion des modèles de base. Ainsi, la France propose maintenant que les sociétés d'IA travaillant sur des modèles de base se régulent elles-mêmes en publiant certaines informations sur leurs modèles et en observant un code de bonne conduite.

    La lettre, datée du 26 novembre, affirme que cela retarde l'approbation de la loi sur l'IA et que si une entreprise s'autorégule, cela met les droits de l'homme en danger, car elle peut donner la priorité à ses profits plutôt qu'à la sécurité publique et aux préoccupations éthiques. L'on ignore si la lettre aura l'effet escompté et fera changer d'avis les gouvernements français, italien et allemand. Certaines sources rapportent que la vaste offensive de lobbying s’est poursuivie après l’été. En octobre, des responsables français, allemands et italiens ont rencontré des représentants des entreprises d'IA pour discuter de la coopération industrielle en matière d’IA.

    De l’autre côté de l’Atlantique, les géants technologiques américains ont fait pression sur l’UE pour qu’elle affaiblisse et supprime de la loi sur l'IA les règles en rapport avec les modèles de base. L'association bruxelloise Corporate Europe Observatory a classé OpenAI, Microsoft et Google parmi les cinq meilleurs lobbyistes qui ont fait pression contre la législation de l'UE. Ces géants technologiques recherchent en fait un environnement juridique leur permettant une liberté totale pour développer et déployer ces technologies sans surveillance stricte. Cela se fait en coulisse, mais en public, ils chantent à qui veut bien l'entendre qu'ils souhaitent être réglementés.

    Certaines sources rapportent que les dirigeants de Google, OpenAI et Microsoft se sont tous rendus en Europe pour rencontrer des décideurs politiques au plus haut niveau, notamment des membres de commissions et des chefs d'État. Sundar Pichai, PDG de Google, aurait même réussi à rencontrer trois commissaires en une seule journée. Malgré ce lobbying intense, la réglementation proposée par l'UE est populaire auprès du public. Selon le sondage européen de Control AI publié mercredi par YouGov, plus des deux tiers des citoyens européens soutiennent la réglementation des modèles de base. Mais l'influence du public sur la législation est moindre.

    Par ailleurs, alors que les modèles de base sont devenus un point de friction en Europe, les projets de règles semblent évoluer de l'autre côté de la Manche, mais aussi outre-Atlantique. L'administration Biden a signé en octobre un décret exigeant que tout laboratoire développant un grand modèle de base effectue des tests de sécurité et informe le gouvernement des résultats. Les discussions lors du récent sommet britannique sur la sécurité de l'IA se sont fortement concentrées sur les risques liés aux modèles de base les plus avancés. Les participants ont signé un document non contraignant reconnaissant la nécessité d'atténuer les risques liés à l'IA.

    Source : la lettre des experts en IA (PDF)

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de la lettre adressée à la France, l'Italie et l'Allemagne ?
    Cette lettre a-t-elle des chances de changer d'avis la France et ses deux voisins ?
    Selon vous, pourquoi la France veut-elle que les fournisseurs de modèles de base se régulent eux-mêmes ?
    Pensez-vous que la réglementation de l'UE sur l'IA pourrait nuire à l'innovation ? Souffre-t-elle d'insuffisances ?

    Voir aussi

    Les États-Unis et l'Union Européenne « devraient inciter le secteur de l'IA à adopter un code de conduite volontaire dans les mois à venir », d'après la responsable de la technologie de l'UE

    OpenAI aurait fait pression sur l'Union européenne pour qu'elle édulcore sa réglementation sur l'IA, et aurait réussi à faire passer ses intérêts financiers au détriment de l'intérêt général

    Plusieurs dirigeants du monde signent une déclaration reconnaissant la nécessité d'atténuer les risques liés à l'IA, mais le document n'est pas juridiquement contraignant et est vivement critiqué

Discussions similaires

  1. Réponses: 276
    Dernier message: 18/10/2023, 00h59
  2. Réponses: 2
    Dernier message: 20/10/2020, 17h13
  3. Réponses: 7
    Dernier message: 19/04/2020, 15h46
  4. Réponses: 2
    Dernier message: 04/12/2019, 12h35
  5. Les Etats-Unis veulent réglementer le commerce de failles logicielles
    Par Michael Guilloux dans le forum Actualités
    Réponses: 12
    Dernier message: 29/05/2015, 23h05

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo