IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Vue hybride

Message précédent Message précédent   Message suivant Message suivant
  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 532
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 532
    Par défaut L'ONU adopte la première résolution mondiale sur l'IA, appelant à la création d'un cadre règlementaire
    L'ONU adopte la première résolution mondiale sur l'IA, appelant à la création d'un cadre réglementaire pour que l’IA soit utilisée de manière à respecter la vie privée,
    promouvoir la sécurité et prévenir les abus

    L'Assemblée générale des Nations Unies a adopté jeudi à l'unanimité la première résolution mondiale sur l'intelligence artificielle qui encourage les pays à sauvegarder les droits de l'homme, à protéger les données personnelles et à surveiller les risques liés à l'IA. La résolution non contraignante, proposée par les États-Unis et co-parrainée par la Chine et plus de 120 autres pays, préconise également le renforcement des politiques de confidentialité. « Aujourd'hui, les 193 membres de l'Assemblée générale des Nations Unies ont parlé d'une seule voix et ont choisi ensemble de gouverner l'intelligence artificielle plutôt que de la laisser nous gouverner », a déclaré l'ambassadrice des États-Unis auprès des Nations Unies, Linda Thomas-Greenfield.

    La résolution appelle les États membres à collaborer pour créer un cadre réglementaire qui garantisse que l’IA sera utilisée de manière à respecter la vie privée, à promouvoir la sécurité et à prévenir les abus. Elle encourage également le partage des connaissances et des meilleures pratiques en matière d’IA entre les nations, afin de réduire le fossé numérique et de favoriser une croissance inclusive.

    Étant un accord non contraignant et donc sans effet, la résolution semble largement populaire dans l’industrie de l’IA. Sur X, le vice-président et président de Microsoft, Brad Smith, a écrit : « Nous soutenons pleinement l'adoption par l'ONU de la résolution globale sur l'IA. Le consensus atteint aujourd'hui marque une étape cruciale vers l'établissement de garde-fous internationaux pour le développement éthique et durable de l'IA, garantissant que cette technologie répond aux besoins de chacun. »

    La résolution, intitulée « Saisir les opportunités offertes par des systèmes d'intelligence artificielle sûrs, sécurisés et fiables pour le développement durable », est le résultat de trois mois de négociations, et les parties prenantes impliquées semblent satisfaites du niveau de coopération internationale. « Nous naviguons sur des eaux agitées avec une technologie en évolution rapide, ce qui signifie qu'il est plus important que jamais de naviguer à la lumière de nos valeurs », a déclaré un haut responsable de l'administration américaine, soulignant l'importance de cette « première document de consensus véritablement mondial sur l'IA ».

    À l'ONU, l'adoption par consensus signifie que tous les membres conviennent d'adopter la résolution sans vote. « Le consensus est atteint lorsque tous les États membres s'accordent sur un texte, mais cela ne signifie pas qu'ils sont tous d'accord sur chaque élément d'un projet de document », écrit l'ONU dans une FAQ trouvée en ligne. « Ils peuvent accepter d'adopter un projet de résolution sans vote, mais avoir néanmoins des réserves sur certaines parties du texte ».


    Plusieurs gouvernements dans le monde s'intéressent à l'impact des IA depuis le boom de l'IA générative avec ChatGPT

    L'initiative s'inscrit dans une série d'efforts déployés par les gouvernements du monde entier pour influencer la trajectoire de développement de l'IA suite au lancement de ChatGPT et de GPT-4, et à l'énorme battage médiatique suscité par certains membres de l'industrie technologique lors d'une campagne publique mondiale menée l'année dernière. Les critiques craignent que l’IA puisse saper les processus démocratiques, amplifier les activités frauduleuses ou contribuer à d’importantes suppressions d’emplois, entre autres problèmes. La résolution vise à faire face aux dangers associés à l’application irresponsable ou malveillante des systèmes d’IA, qui, selon l’ONU, pourraient mettre en danger les droits de l’homme et les libertés fondamentales.

    La résistance de pays comme la Russie et la Chine était attendue, et les responsables américains ont reconnu la présence de « beaucoup de conversations animées » au cours du processus de négociation. Cependant, ils ont également souligné un engagement réussi avec ces pays et d’autres généralement en désaccord avec les États-Unis sur diverses questions, en se mettant d’accord sur un projet de résolution qui cherchait à maintenir un équilibre délicat entre la promotion du développement et la sauvegarde des droits de l’homme.

    Les conclusions de l'ONU

    L’Assemblée générale a également reconnu le potentiel des systèmes d’IA pour accélérer et permettre les progrès vers la réalisation des 17 objectifs de développement durable. C'est la première fois que l'Assemblée adopte une résolution sur la réglementation de ce domaine émergent. Le conseiller américain à la sécurité nationale aurait déclaré plus tôt ce mois-ci que l’adoption représenterait un « pas en avant historique » pour une utilisation sûre de l’IA.

    Mêmes droits, en ligne et hors ligne

    L’Assemblée a appelé tous les États membres et parties prenantes « à s’abstenir ou à cesser d’utiliser des systèmes d’intelligence artificielle qui sont impossibles à exploiter conformément au droit international des droits de l’homme ou qui présentent des risques indus pour la jouissance des droits de l’homme ». « Les mêmes droits dont jouissent les personnes hors ligne doivent également être protégés en ligne, y compris tout au long du cycle de vie des systèmes d’intelligence artificielle », affirme-t-elle.

    L’Assemblée a également exhorté tous les États, le secteur privé, la société civile, les organismes de recherche et les médias à élaborer et à soutenir des approches et des cadres de réglementation et de gouvernance liés à une utilisation sûre, sécurisée et fiable de l’IA.

    Réduire la fracture numérique

    L'Assemblée a en outre reconnu les « niveaux variables » de développement technologique entre et au sein des pays, et que les pays en développement sont confrontés à des défis uniques pour suivre le rythme rapide de l'innovation. Elle a exhorté les États membres et les parties prenantes à coopérer avec les pays en développement et à les soutenir afin qu’ils puissent bénéficier d’un accès inclusif et équitable, réduire la fracture numérique et accroître la culture numérique.

    Espoir pour d'autres secteurs

    S'exprimant avant l'adoption, Linda Thomas-Greenfield, ambassadrice et représentante permanente des États-Unis auprès de l'ONU, a présenté le projet de résolution.

    Elle a exprimé l’espoir que « le dialogue inclusif et constructif qui a conduit à cette résolution servirait de modèle pour les conversations futures sur les défis de l’IA dans d’autres domaines, par exemple en ce qui concerne la paix et la sécurité et l’utilisation militaire responsable de l’autonomie de l’IA ».

    Mme Thomas-Greenfield a noté que la résolution visait à amplifier le travail déjà effectué par l'ONU, notamment l'Union internationale des télécommunications (UIT), l'Organisation des Nations Unies pour l'éducation, la science et la culture (UNESCO) et le Conseil des droits de l'homme.

    « Nous souhaitons que cela complète les futures initiatives de l’ONU, notamment les négociations en vue d’un pacte numérique mondial et le travail de l’organe consultatif de haut niveau du Secrétaire général sur l’intelligence artificielle », a-t-elle déclaré.

    Nom : ONU.png
Affichages : 11953
Taille : 909,9 Ko

    Ce n'est pas le premier accord international multiétatique sur l'IA

    Le nouvel accord de l’ONU est peut-être le premier accord « mondial », dans le sens où tous les pays de l’ONU y participent, mais ce n’est pas le premier accord international multiétatique sur l’IA. Cet honneur semble revenir à la Déclaration de Bletchley signée en novembre par les 28 pays participant au premier sommet sur l'IA au Royaume-Uni. La France en fait partie.

    Citation Envoyé par Déclaration de Bletchley
    Nous affirmons que, même si la sécurité doit être prise en compte tout au long du cycle de vie de l'IA, les acteurs développant des capacités d'IA de pointe, en particulier les systèmes d'IA qui sont inhabituellement puissants et potentiellement dangereux, ont une responsabilité particulièrement forte pour garantir la sécurité de ces systèmes d'IA, notamment par le biais de systèmes. pour des tests de sécurité, par le biais d'évaluations et d'autres mesures appropriées. Nous encourageons tous les acteurs concernés à assurer une transparence et une responsabilité adaptées au contexte concernant leurs plans visant à mesurer, surveiller et atténuer les capacités potentiellement nuisibles et les effets associés qui peuvent en résulter, en particulier pour prévenir les abus et les problèmes de contrôle, ainsi que l'amplification d'autres risques.

    Dans le contexte de notre coopération et pour éclairer l’action aux niveaux national et international, notre programme de lutte contre les risques liés à l’IA aux frontières se concentrera sur :
    • identifier les risques de sécurité de l’IA d’intérêt commun, construire une compréhension scientifique et factuelle commune de ces risques et maintenir cette compréhension à mesure que les capacités continuent de croître, dans le contexte d’une approche mondiale plus large pour comprendre l’impact de l’IA dans nos sociétés.
    • en élaborant des politiques respectives basées sur les risques dans nos pays pour garantir la sécurité à la lumière de ces risques, en collaborant le cas échéant tout en reconnaissant que nos approches peuvent différer en fonction des circonstances nationales et des cadres juridiques applicables. Cela comprend, outre une transparence accrue de la part des acteurs privés développant des capacités d’IA de pointe, des mesures d’évaluation appropriées, des outils de test de sécurité et le développement de capacités pertinentes du secteur public et de la recherche scientifique.
    En novembre également, les États-Unis, la Grande-Bretagne et d’autres pays ont dévoilé un accord axé sur la création de systèmes d’IA « sécurisés dès leur conception » pour se protéger contre toute utilisation abusive par des acteurs malhonnêtes. L’Europe progresse lentement vers des accords provisoires pour réglementer l’IA et est sur le point de mettre en œuvre la première réglementation globale sur l’IA au monde. Pendant ce temps, le gouvernement américain manque toujours de consensus sur l’action législative liée à la réglementation de l’IA, l’administration Biden préconisant des mesures visant à atténuer les risques liés à l’IA tout en renforçant la sécurité nationale.

    Sources : résolution des nations unies, FAQ ONU, Bletchley Declaration

    Et vous ?

    Quels sont les principaux avantages et risques de l’intelligence artificielle pour notre société ?
    Comment pouvons-nous garantir que l’utilisation de l’IA respecte les droits de l’homme et la vie privée ?
    Quelles mesures devraient être prises pour prévenir les abus potentiels de l’IA dans des domaines sensibles comme la surveillance ou l’armement ?
    De quelle manière les pays en développement peuvent-ils être soutenus pour accéder aux bénéfices de l’IA tout en évitant d’agrandir le fossé numérique ?
    Comment la coopération internationale peut-elle être renforcée pour réguler l’IA de manière équitable et inclusive ?
    Quel rôle les citoyens ordinaires devraient-ils jouer dans la gouvernance de l’IA ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    2 243
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 2 243
    Par défaut
    Et comme pour le 99,9% des résolutions de l'ONU, strictement personne n'en tiendra compte!

  3. #3
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 387
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 387
    Par défaut Les émissions de carbone liées à l'écriture et à l'illustration sont plus faibles pour l'IA que pour l'homme
    Les émissions de carbone liées à l'écriture et à l'illustration sont plus faibles pour l'IA que pour l'homme, selon une étude sur l'empreinte environnementale relative de l'IA et de l'homme.

    Une étude a comparé l'empreinte carbone de l'IA à la quantité de carbone émise par des humains effectuant exactement les mêmes tâches. Les résultats de l'étude montrent que l'IA émet moins de gaz à effet de serre que l'homme lorsqu'il s'agit d'écrire et de créer des images.

    Il est essentiel de se pencher sur le type d'impact environnemental que l'IA peut finir par avoir. Cependant, il s'avère que l'IA pourrait en fait produire moins d'émissions de carbone que les humains, ce qui la rendrait plus durable. L'IA émet des centaines de fois moins de gaz à effet de serre que l'homme lorsqu'il s'agit d'écrire et de créer des images.

    C'est ce qui ressort d'une étude publiée dans la revue Scientific Reports et cosignée par des professeurs de l'université de Californie-Irvine et le professeur de droit Paul E. Wilson de l'université de Kuala Lumpur, Andrew Torrance. Il convient de mentionner que cette étude a comparé l'empreinte carbone de l'IA telles que ChatGPT, Bloom AI et d'autres à la quantité de carbone émise par des humains effectuant exactement les mêmes tâches.

    Il est important de noter que l'IA émet entre 130 et 1 500 tonnes de carbone en moins pour chaque page de texte qu'elle génère par rapport à l'homme. Quant aux systèmes d'illustration, leur empreinte carbone était également inférieure de plusieurs ordres de grandeur par image, soit entre 310 et 2 900 équivalents de dioxyde de carbone en moins.

    Il sera intéressant de voir comment les choses évolueront à l'avenir, car l'IA a souvent été considérée avec méfiance en ce qui concerne son empreinte carbone globale. Cette étude semble suggérer qu'elle a beaucoup plus à offrir dans ce domaine que ce que les gens ont tendance à lui accorder à l'heure actuelle.

    Nom : 1.png
Affichages : 12548
Taille : 231,1 Ko

    Les émissions de carbone liées à l'écriture et à l'illustration sont plus faibles pour l'IA que pour l'homme

    Alors que les systèmes d'IA prolifèrent, leurs émissions de gaz à effet de serre constituent une préoccupation de plus en plus importante pour les sociétés humaines. Dans cette étude, les chercheurs présentent une analyse comparative des émissions de carbone associées aux systèmes d'IA (ChatGPT, BLOOM, DALL-E2, Midjourney) et aux individus humains effectuant des tâches d'écriture et d'illustration équivalentes.

    Les résultats démontrent que l'empreinte environnementale de l'IA dans l'accomplissement de deux tâches majeures est nettement inférieure à celle de l'homme dans l'accomplissement de ces mêmes tâches. Les résultats révèlent que les systèmes d'IA émettent entre 130 et 1500 fois moins de CO2 par page de texte générée que les rédacteurs humains, tandis que les systèmes d'illustration d'IA émettent entre 310 et 2900 fois moins de CO2 par image que leurs homologues humains. Les analyses d'émissions ne tiennent pas compte des impacts sociaux tels que le déplacement professionnel, la légalité et les effets de rebond. En outre, l'IA ne remplace pas toutes les tâches humaines. Néanmoins, à l'heure actuelle, l'utilisation de l'IA offre la possibilité d'effectuer plusieurs activités majeures à des niveaux d'émission bien inférieurs à ceux des humains.

    Avantages et inconvénients

    Si l'empreinte environnementale de l'IA peut être inférieure à celle des humains pour certaines tâches, d'autres facteurs importants peuvent influencer l'impact global de l'IA sur le monde. L'étude aborde quelques points particulièrement pertinents pour l'IA dans le domaine de l'écriture et de l'illustration.

    Dans les domaines de l'écriture et illustration, il est probable que l'IA remplacera les travailleurs humains dans les secteurs concernés à mesure que la technologie de l'IA se perfectionnera. Et, si l'on se fie au passé, le déplacement professionnel peut entraîner des pertes d'emploi et une réduction des revenus. Le déplacement d'emplois par la technologie a été amplement étudié, par exemple, de même que le déplacement par l'IA en particulier. Le déplacement d'emplois est profondément problématique non seulement pour les personnes déplacées, mais aussi pour la société dans son ensemble, car il peut perturber la stabilité économique et sociale de régions géographiques entières.

    D'un autre côté, le développement de l'IA peut également créer des emplois. Ces emplois peuvent être des remplacements utiles et bien rémunérés pour les personnes que l'IA déplace, ou ils peuvent être dévalorisants et/ou mal rémunérés. Par exemple, OpenAI, les créateurs de ChatGPT, ont sous-traité des travaux à une entreprise kenyane qui employait des travailleurs pour étiqueter des cas spécifiques de contenu en ligne toxique, y compris des contenus que beaucoup trouveraient probablement dérangeants ou de mauvais goût, décrits comme "des textes [qui] semblaient avoir été tirés des recoins les plus sombres de l'internet ". Des déplacements analogues de travailleurs ont eu lieu pendant la révolution industrielle et avec les diverses révolutions technologiques accompagnant l'essor des technologies numériques. Si ces déplacements entraînent nécessairement des changements dans le secteur de l'emploi, historiquement, ces changements technologiques ont donné naissance à de nouvelles formes d'emploi pour remplacer les emplois perdus.

    L'utilisation de textes, d'images ou de sons préexistants comme ensembles d'entraînement pour l'IA soulève également des questions juridiques. La légalité de l'utilisation de matériel préexistant est particulièrement importante lorsque les jeux d'entraînement comprennent du matériel protégé par des droits d'auteur, car l'utilisation de ce matériel peut constituer une contrefaçon, ce qui peut entraîner un risque juridique pour les personnes qui travaillent avec ces systèmes d'IA. Peut-être que le "fair learning" sera un jour reconnu comme un type d'utilisation équitable impliquant la transformation de matériel protégé par le droit d'auteur à des fins éducatives. Toutefois, à l'heure actuelle, il est impossible de prévoir comment les tribunaux trancheront un tel litige.

    Un recours collectif contre la société d'IA Midjourney est actuellement en cours sur ce sujet et pourrait constituer un précédent dans ce domaine juridique. Si Midjourney devait être tenue pour responsable de l'utilisation inappropriée d'œuvres protégées par le droit d'auteur appartenant à d'autres personnes, le généreux système de dommages-intérêts prévu pour les plaignants pourrait être ruineux pour cette entreprise, tout en freinant ou en inhibant plus généralement l'innovation dans le domaine de l'IA. D'un autre côté, si l'utilisation par l'IA d'œuvres protégées par le droit d'auteur comme ensembles d'entraînement est jugée admissible, cela aura probablement pour effet, dans le cadre du système actuel des brevets, de stimuler les progrès de l'IA. Une autre conséquence pourrait être l'augmentation du nombre d'entreprises qui acquièrent de vastes ensembles de données d'entraînement. Si ces questions juridiques ne sont pas nécessairement insolubles, elles représentent néanmoins un point de désaccord important sur l'avenir de ces systèmes d'IA.

    En outre, à mesure que la technologie de l'IA devient plus efficace, il est possible que cette efficacité entraîne une augmentation de la demande de biens et de services produits par l'IA, ce qui pourrait entraîner de nouvelles augmentations de l'utilisation des ressources et de la pollution par effet de rebond. L'élargissement des cas d'utilisation de l'IA et la prolifération des façons dont l'IA pourrait influer sur chaque cas d'utilisation (par exemple, la personnalisation omniprésente du contenu) pourraient entraîner une demande d'énergie bien plus importante qu'à l'heure actuelle.

    Ainsi, bien que l'impact de l'IA soit actuellement bien moindre que celui de l'homme dans les tâches décrites ci-dessus, il est important de rester vigilant dans ce domaine afin d'éviter une utilisation excessive des ressources. Dans le même temps, il est possible que les progrès de l'efficacité et de la spécificité de l'IA réduisent encore son impact sur l'environnement par rapport à l'impact de l'homme dans des activités équivalentes. Un tel avantage environnemental croissant pourrait plaider en faveur d'une accélération des applications de l'IA. Dans un cas comme dans l'autre, la vigilance et l'adaptation sont essentielles. Et, que l'empreinte de l'IA augmente ou diminue, l'étude soutient l'appel à la divulgation de la consommation d'énergie dans la mesure du possible dans les cas d'utilisation de l'IA.

    Malgré ces formes actuelles et potentielles de transformation et de préjudice sociétal, l'utilisation de l'IA pourrait apporter de profonds avantages à la société. Ces systèmes pourraient permettre de développer de nouvelles approches pour un avenir durable ; ils pourraient apporter des avantages à la médecine37 ; et ils pourraient améliorer les systèmes éducatifs humains38. Nous soutenons que ces avantages et d'autres de l'IA compensent les inconvénients potentiels que ces systèmes peuvent entraîner. Et, ce qui est le plus important pour les conclusions du présent document, l'IA peut potentiellement le faire en réduisant considérablement les émissions de carbone.


    Collaboration entre l'homme et l'IA

    L'étude soutient également que l'utilisation la plus bénéfique et la plus efficace de l'IA et du travail humain passe par la collaboration entre les deux types d'entités, en tirant parti de leurs forces respectives. Par exemple, dans l'étude, les chercheurs ont commencé par un projet rédigé par une IA pour amorcer l'effort, mais les auteurs l'ont édité si minutieusement que le texte de l'IA est méconnaissable.

    Note des chercheurs : Nous reconnaissons cette utilisation de l'IA pour deux raisons : premièrement, elle est requise par les directives de soumission et deuxièmement, ce qui est peut-être plus important, le fait de commencer par l'IA était un moyen plus efficace sur le plan énergétique d'obtenir un produit final de haute qualité.

    De même, un illustrateur humain peut choisir de travailler avec une IA dans les premières phases d'une interaction avec un client, pour lui donner une idée du large éventail de possibilités qui s'offrent à lui, et ne réaliser une illustration créée par un humain pour le client qu'à la dernière étape. Cette approche hybride pourrait permettre une convergence plus rapide et plus efficace de la compréhension entre le client et l'illustrateur humain, tout en produisant un produit final ayant l'excellence et le raffinement d'un travail produit par un humain. (Par exemple, contrairement à de nombreuses images produites par l'IA, les mains humaines ne seront pas étrangement déformées). Il est à espérer que de tels processus de collaboration pourront répondre à toute une série de préoccupations concernant les contenus générés par l'IA.

    En résumé, en raison de son impact nettement inférieur à celui des humains pour au moins deux tâches importantes, l'IA peut jouer un rôle important dans divers secteurs de la société sans, pour l'instant, s'exposer à des émissions de carbone problématiques. Si l'empreinte carbone de l'IA n'est pas négligeable, celle des humains effectuant le même travail est bien plus importante et ne doit pas être négligée dans l'évaluation de l'IA.

    Conclusion

    L'IA est sur le point d'assumer des rôles que l'on croyait autrefois réservés aux humains, c'est-à-dire des rôles qui requièrent de la créativité et la capacité d'intégrer plusieurs domaines intellectuels afin de synthétiser les concepts de chacun d'entre eux. Dans cette étude, les chercheurs ont comparé l'impact de l'IA à l'impact de la réalisation de deux tâches par des humains - l'écriture et l'illustration - afin de mettre en évidence le rôle que l'IA est en passe de jouer dans la société, à mesure que l'IA passe d'outils numériques d'une utilité limitée à des instruments plus complexes dotés d'une grande capacité de génération. Ils ont constaté que, pour ces deux activités au moins, l'empreinte carbone de l'IA est nettement inférieure à celle des humains effectuant la même tâche. Cette étude apporte un éclairage nouveau sur l'empreinte environnementale relative de l'IA et de l'homme, et souligne l'importance de prendre en compte l'impact de l'IA par rapport à l'homme lors de l'évaluation de son impact global sur l'environnement.

    Source : "The carbon emissions of writing and illustrating are lower for AI than for humans"

    Et vous ?

    Pensez-vous que cette étude est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    L'IA sera-t-elle une catastrophe pour le climat ? Examens de ses répercussions environnementales. Les outils d'IA, comme ChatGPT, sont reconnue comme énergivore

    Une étude suggère que les outils d'IA de génération de texte et d'image émettent moins de CO2 que les humains pour les mêmes tâches, mais elle est controversée et divise les experts en IA

    Une étude affirme que les humains restent moins chers que l'IA dans la grande majorité des emplois. L'IA ne peut automatiser qu'une partie de certaines tâches et le kit nécessaire est trop coûteux
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  4. #4
    Membre éprouvé
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 552
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 552
    Par défaut
    Citation Envoyé par Jade Emy Voir le message
    Il est essentiel de se pencher sur le type d'impact environnemental que l'IA peut finir par avoir. Cependant, il s'avère que l'IA pourrait en fait produire moins d'émissions de carbone que les humains, ce qui la rendrait plus durable. L'IA émet des centaines de fois moins de gaz à effet de serre que l'homme lorsqu'il s'agit d'écrire et de créer des images.
    C'est une analyse intéressante mais est ce que ça veut dire qu'utiliser une IA émet moins de carbone qu'utiliser une personne?
    Non, pour une raison simple:
    Quand la personne travaille et pas l'IA, l'IA n'émet rien
    Quand l'IA travaille et pas la personne, la personne émet toujours.
    Donc il faudrait comparer le surplus d'émission de la personne quand elle travaille à l'IA.
    Les autres facteurs sont nombreux :
    L'IA produit (probablement) peu de carbone quand elle travaille parce qu'elle est plus rapide que l'homme mais combien émet son apprentissage?
    L'IA nécessite une revue de son travail plus importante que la personne donc combien émet la différence de revue?
    Combien d'IA différente faut il pour remplacer toutes les taches d'une personne?
    Et je n'ai pas encore parlé de l'apport social d'une personne...

    Pensez-vous que cette étude est crédible ou pertinente ?
    L'étude en tant que telle à l'air crédible (faite de façon honnête et rigoureuse) par contre le but de celle ci me parait beaucoup moins pertinent.
    Quelle conclusion tirer? Qu'il faut faire travailler les IA plutôt que les personnes pour l'édition? Ce n'est pas ce que disent les chercheurs, c'est pourtant ce que nous lisons.
    Qui a financer cette étude? Dans quel but? Avec ces réponses nous aurons peut être une clarification de sa pertinence.
    On sait que l'un des auteur détient des actions chez NVIDIA mais je n'ai rien trouvé chez le financeur.
    Quel est votre avis sur le sujet ?
    L'IA n'a rien d'écologique parce qu'elle ajoute de la production de carbone à la production humaine, attaquer la question par cet angle est absurde. (A moins que l'on décide de "faire disparaitre" les personnes qui deviennent "inutiles" mais on dérive vers des gros problèmes éthiques).
    Par contre l'IA a d'autres avantages qui méritent d'être étudiés.

    Des gens essayent d'aborder les sujets de façon "rationnelle" en ce moment pour transformer des solutions plus ou moins absurdes en bon sens.
    La Science n'apporte pas toujours les bonnes réponses aux problèmes parce qu'elle ignore les sciences humaines ou l'éthique.
    Pourtant il me semble qu'Asimov nous avait déjà prévenu que cette méthode ne fonctionnait pas.

  5. #5
    Membre prolifique Avatar de Jon Shannow
    Homme Profil pro
    Responsable de service informatique
    Inscrit en
    Avril 2011
    Messages
    4 740
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 61
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Responsable de service informatique
    Secteur : High Tech - Électronique et micro-électronique

    Informations forums :
    Inscription : Avril 2011
    Messages : 4 740
    Par défaut
    Je n'ai pas très bien compris ce qui était mesuré pour définir que l'IA émet moins de CO2 qu'un humain pour écrire une page.

    Est-ce que l'empreinte carbone des datas center servant à l'IA pour produire sa page est comptée ou non ? Si c'est juste l'empreinte carbone pour l'écriture finale, c'est-à-dire le "pouillème" final, alors l'étude est biaisée.

  6. #6
    Membre averti
    Homme Profil pro
    Ingénieur développement logiciels
    Inscrit en
    Avril 2020
    Messages
    32
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Moselle (Lorraine)

    Informations professionnelles :
    Activité : Ingénieur développement logiciels
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Avril 2020
    Messages : 32
    Par défaut étude bidon financé pour du lobbying
    > Pensez-vous que cette étude est crédible ou pertinente ?
    > Quel est votre avis sur le sujet ?

    Que dire que dire, un petit essai improvisé.
    Pour commencer cette étude à un objectif assez clair et malsain, contrer le bashing de l'IA qui pollue à cause de sa consommation excessive en ressource en ce qui concerne sa création / entraînement / formation.
    Je dirais que l'étude est remplie de biais, mais aussi qu'elle souligne un sujet mortifère et dont les philosophes devraient se saisir.

    Pour commencer en ce qui concerne les biais, les graphiques sont ultras simpliste et ne prenne pas en compte les ressources nécessaires pour l'entraînement des AI ni même les ressources consommées pour concevoir le hardware.
    De la production de silicium au GPU en passant par l'humain qui a conçu le GPU à la chaîne d'assemblage jusqu'au data center où elle est en fonction à déjà consommé plusieurs années CO2 d'une ville humaine.

    La conclusion stéréotypée que l'on peut faire de ce genre d'étude. Au mon dieu, un humain, ça respire ça émet du CO2, un caillou alimenté avec de l'Énergie pure sa ""n'émet pas"" de CO2. Il faut donc remplacer toute la population humaine par des cailloux qui imite les humains.
    Je tire volontairement le trait, mais c'est une pente glissante vers lequel les bobo extrêmes écolos ont tendance à prendre de vouloir éliminer le vivant sous prétexte qu'il émet du CO2. Si on suit leur logique uniquement les plantes auraient le droit de vivre puisqu’elles n'émettent pas de CO2 (dans leurs schémas de pensée) ce qui est faux et sans CO2 elles ne peuvent se développer autant... Alors si on en fait la seule source de nourriture...

    Concernant les schémas on nous montre une quantité d'Énergie consommée en instantané lorsque le réseau (de neurones en cailloux) fait une génération unique, versus le pc d'un auteur allumé.
    Déjà pour commencer le biais, un serveur qui fait tourner de l'IA est allumé H24, consomme rien que pour être allumé 100W et peut monter à 3000W voir plus. Le pc d'un auteur est allumé disons 6-8h et un pc portable sobre peut, disons consommer au max 25w dans un standard sobre écoresponsable. De plus un auteur peut ne pas passer toute une session d'écriture sur un pc, on peut aussi avoir des machines tablette dans le futur à base d'epaper comme écran, utiliser le stylo et la feuille.... Donc déjà la méthode de travail est un biais choisi non représentatif des "travailleurs" du secteur. Doit-on compter les repas, et la tasse de café en terrasse ?

    Idem dans la création d'images, un peintre ne va pas utiliser un ordinateur de la même manière voir pas du tout, un photographe non plus et un graphiste peut faire des recherches de diverses manières. Leur activité n'est pas 100% numérique.

    Coté IA, ouaaa une génération consomme peux. Sauf que qui aujourd'hui ne demande pas à l'IA plusieurs générations pour avoir un résultat un peut exploitable et qui ne passe pas un peu de temps pour intégrer la réponse...
    10 générations consommeraient déjà le CO2 pour une journée de travail humain. Or il est si facile de cliquer sur généré que l'étude ne prend pas en compte le fait que cette facilité va augmenter le nombre de générations demandé et donc pour une même tache incitée à consommer plus.
    Plutôt qu'un travail réfléchis, fait et plutôt droit au but, on va frénétiquement cliqué sur générer, une, deux, 10, 20, 50 fois dans la journée jusqu'à avoir un travail prémâché qu'il faudra de toute façon relire puis intégrer.

    Au final une IA, est un outil qui consomme, et sa facilité d'usage poussera a consommer par ce que dans un même espace de temps on le peut.
    Et si on pense éliminer complètement les humains, alors nous allons créer une société de machine qui travaillera pour des machines.
    Le summum du capitalisme, nous créons du travail/ de la valeur à l'aide de machine pour qu'elle soit consommée par d'autres machines et faire tourner le capitalisme.

    Nous avons des Shadock qui pompe, que nous remplaçons par des machines qui pompes pour se maintenir entre elles en vie et soutenir artificiellement le capitalisme et "sa croissance infinie" artificielle.
    On va basculer d'une économie pétrodollar en data dollar.
    (et il faudra mettre des humains sur des vélos pour combler le manque de pétrole pour alimenter en Énergie les machines)

    Tout ceci est absurde tout comme confondre un outil et une volonté créatrice vivante.
    Le côté mortifère, c'est de vouloir a tout pris évincer l'humain de la composante économique pour des raisons de coûts. De l'autre côté, ce que l'on aura sacrifié... nous fera plonger vers une économie dystopique, avec une économie parallèle qui ne sert qu'aux machines et de l'autre, des humains tout tombés dans la précarité.
    Et le risque, c'est un arrêt de la créativité, un grippage de l'inventivité et d'évolution.
    Où à côté d'usines fumantes, nous aurions une population qui n'a plus les moyens de consommer.
    Sauf, si la réalité réajuste la situation, car non viable et qu'un mixte des deux finissent par co exister.

    Ce que je dirais, c'est que ce genre d'étude envoie un signal malsain coté sociétal, poussant des résonnements inachevés polarisant des questions légitimes en réponse absurde. Plantant les graines d'idéologie néfaste pour une société.

    Nous sommes nés trop tard pour explorer les continents, trop tôt pour explorer Mars, mais dans l'époque de l'avènement de l'IA et d'un grand bouleversement économique et sociétal mondiaux en perspective que l'on veuille ou non.
    L'avenir dépend de ce qui est en train de s'écrire, des luttes et intérêts de certains. De l'éducation ou du manque des masses en vers ce type d'enjeux, et si nous finissons tout droits vers un avenir dystopique d'une dictature mondiale et d'une misère qui fera régresser l'humanité ou si nous deviendrons tous lucide sur le sujet. comme le plat réchauffé que les mails allaient tuer le métier de postier. Que les livres numériques allaient faire disparaître les imprimeurs ect, ect.

    Tous sa pour dire (sans se méprendre, ça reste intéressant que le site nous permette de faire une veille techno) y en a marre de ce genre d'étude de lobbying pondu par des cabinets com , la seule chose que ça génère c'est de la méfiance en vers les études et une perte de crédibilité du peuple en vers toutes analyses et réflexion.
    Remplaçons les cabinets de com par de l'IA, peut être que l'on aura moins de mensonge comme ça.

  7. #7
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 387
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 387
    Par défaut Un ancien membre du conseil d'administration d'OpenAI demande l'audit des grandes entreprises d'IA
    Un ancien membre du conseil d'administration d'OpenAI demande l'audit des grandes entreprises d'IA, elles devraient être tenues de partager des informations avec le public sur les capacités et les risques.

    Selon un ancien membre du conseil d'administration d'OpenAI, l'IA a besoin d'un mécanisme d'information et d'auditeurs.

    Un mécanisme de signalement devrait être mis en place pour les incidents lorsque l'intelligence artificielle (IA) tourne mal, comme c'est le cas pour les accidents d'avion, a déclaré un ancien membre du conseil d'administration d'OpenAI. Helen Toner, directrice du Centre pour la sécurité et les technologies émergentes de l'université de Georgetown, a tenu ces propos lors d'une conférence TED.

    Mme Toner a démissionné d'OpenAI l'année dernière après avoir soutenu l'éviction du PDG de la société, Sam Altman, qui a été annulée par la suite. Avant cela, M. Altman avait tenté de la faire exclure du conseil d'administration après qu'elle eut cosigné un article critiquant les pratiques d'OpenAI en matière de sécurité.

    Lors de sa conférence TED, Mme Toner a déclaré que les entreprises d'IA devraient être tenues de "partager des informations sur ce qu'elles construisent, sur ce que leurs systèmes peuvent faire et sur la manière dont elles gèrent les risques". M. Toner a également déclaré que ces informations à partager avec le public devraient faire l'objet d'un audit, de sorte que les entreprises d'IA ne soient pas les seules à vérifier les informations qu'elles fournissent.

    Un exemple de cas où la technologie pourrait mal tourner serait son utilisation dans une cyber-attaque basée sur l'IA. Mme Toner a déclaré qu'elle travaillait depuis huit ans sur les questions de politique et de gouvernance liées à l'IA et qu'elle avait pu observer de l'intérieur la manière dont le gouvernement et l'industrie s'efforçaient de gérer la technologie, ajoutant : "J'ai aussi vu une ou deux choses".


    Dans une interview en juin 2023, Mme. Toner a déclaré que les acteurs du secteur se demandaient s'il fallait créer une nouvelle agence de régulation axée spécifiquement sur l'IA. "Les autorités de régulation existantes qui travaillent dans des secteurs spécifiques devraient-elles s'en charger, ou faudrait-il quelque chose de centralisé pour tous les types d'IA ?" a déclaré Mme. Toner.

    Autre évolution récente dans ce domaine, les États-Unis et le Royaume-Uni ont uni leurs forces au début du mois d'avril pour mettre au point des tests de sécurité pour l'IA avancée. L'accord vise à aligner les approches scientifiques des deux pays et à accélérer le développement de méthodes d'évaluation robustes pour les modèles, les systèmes et les agents d'IA.

    Source : Helen Toner, ancien membre du conseil d'administration d'OpenAI, lors d'une intervention à la conférence TED de Vancouver

    Et vous ?

    Pensez-vous que ces déclarations sont crédibles ou pertinentes ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Le risque lié à l'IA est similaire à la crise climatique, le monde ne peut pas se permettre de retarder la réponse, selon Demis Hassabis. Il prévoit la création d'un organisme international de l'IA

    IA générative : la CNIL recommandée pour la réguler par une commission de l'Assemblée nationale. « Seule la CNIL dispose de l'expérience et de l'expertise pour évaluer le respect du RGPD sur l'IAG »

    La Grande-Bretagne opte pour la répartition la responsabilité de la gestion de l'IA entre ses différents organismes de réglementation, plutôt que de créer un nouvel organisme dédié à cette technologie
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  8. #8
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 387
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 387
    Par défaut 63 % des Américains souhaitent qu’une réglementation empêche activement l’avènement d'une l’IA superintelligen
    63 % des Américains souhaitent qu’une réglementation empêche activement l’avènement d'une l’IA superintelligente AGI, 83 % pensent que l'IA pourrait accidentellement provoquer un événement catastrophique

    63 % des Américains souhaitent qu’une réglementation empêche activement l’avènement d'une l’IA superintelligente AGI, 83 % pensent que l'IA pourrait accidentellement provoquer un événement catastrophique et 82 % ne font pas confiance aux sociétés d'IA pour autoréguler l'IA, selon une enquête d'AI Policy Institute.

    Les électeurs américains s'inquiètent des risques liés à la technologie de l'IA. L'AI Policy Institute (AIPI) s'est donné pour mission de traduire les inquiétudes du public en une réglementation efficace. Ils s'engagent auprès des décideurs politiques, des médias et du public pour façonner un avenir où l'IA est développée de manière responsable et transparente.

    Ils ont constaté que les Américains veulent que le gouvernement agisse sur l'IA. L'AIPI utilise des sondages pour maintenir une connaissance complète de la perception publique de l'IA et des risques qui y sont associés, dans le but d'informer et d'influencer les médias grand public et la prise de décision politique. Du 18 au 21 juillet 2023, l'AIPI a mené une enquête auprès de 1 001 électeurs au niveau national avec son partenaire YouGov. Dans l'ensemble, les électeurs sont plus inquiets qu'enthousiastes à l'égard de l'IA.

    Voici les principaux résultats :

    • 83% pensent que l'IA pourrait accidentellement provoquer un événement catastrophique.
    • 62% sont préoccupés par l'intelligence artificielle, tandis que 21 % seulement sont enthousiastes.
    • 82% préfèrent ralentir le développement de l'IA, contre seulement 8 % qui préfèrent l'accélérer.
    • 54% pensent que l'IA de niveau humain (AGI) sera développée d'ici 5 ans.
    • 82% ne font pas confiance aux responsables de la technologie de l'IA pour autoréguler l'IA.


    Nom : 1.jpg
Affichages : 4684
Taille : 29,2 Ko


    Des progrès lents et délibérés

    L'AI Policy Institute commente :

    La frontière de l'IA est repoussée rapidement par les entreprises qui consacrent des milliards à l'entraînement de puissants modèles d'IA. La vitesse de ces progrès a dépassé notre compréhension de ces systèmes, nous laissant dans l'ignorance de leurs capacités, de leur comportement et des risques qu'ils posent. Les leaders de l'IA tirent unanimement la sonnette d'alarme : Sam Altman (PDG, OpenaAI), Demis Hassabis (PDG, Deepmind) et Dario Amodei (PDG, Anthropic) ont tous signé une lettre ouverte affirmant que "l'atténuation du risque d'extinction lié à l'IA devrait être une priorité mondiale".

    L'AI Policy Institute cherche à répondre à ces défis. En réglementant les centres de données nécessaires au développement de modèles d'IA de pointe et en rendant obligatoire la démonstration de la sécurité d'un modèle d'IA avant son déploiement, les pouvoirs publics ont la possibilité d'atténuer considérablement les menaces qui se profilent à l'horizon. Par le dialogue et la collaboration avec les législateurs, les journalistes et les technologues, l'AI Policy Institute s'engage à trouver une voie plus sûre pour la révolution de l'IA.
    Source : AI Policy Institute

    Et vous ?

    Pensez-vous que cette enquête est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Les Big Tech (GAFAM) veulent réglementer l'IA, mais les autres entrepreneurs sont sceptiques. Selon eux leur réelle volonté serait juste de geler le marché de l'IA pour conserver leur monopole

    Sam Altman, PDG d'OpenAI, estime qu'une agence internationale devrait surveiller les IA "les plus puissantes" pour garantir une "sécurité raisonnable", car ces systèmes peuvent "causer d'importants dommages"

    Des chercheurs et des PDG du domaine de l'IA mettent en garde contre le "risque d'extinction" dans une déclaration de 22 mots. Ils estiment que l'IA pourrait être aussi mortelle que l'arme nucléaire
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  9. #9
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 387
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 387
    Par défaut Le Conseil de l’Europe adopte le premier traité international sur l’intelligence artificielle
    Le Conseil de l’Europe adopte le tout premier traité international juridiquement contraignant visant à garantir le respect des normes juridiques pour le recours à l'intelligence artificielle (IA)

    Le Conseil de l’Europe a adopté le tout premier traité international juridiquement contraignant visant à garantir le respect des normes juridiques en matière de droits de l’homme, de démocratie et d’État de droit dans le cadre du recours aux systèmes d’intelligence artificielle (IA).

    Le Conseil de l’Europe adopte le premier traité international sur l’intelligence artificielle. Le traité, également ouvert à la signature de pays non européens, établit un cadre juridique qui s’applique tout au long du cycle de vie des systèmes d’IA, traite des risques que peuvent représenter ces systèmes et promeut une innovation responsable. La convention adopte une approche fondée sur les risques concernant la conception, le développement, l’utilisation et la mise hors service des systèmes d’IA, imposant un examen attentif de toutes les potentielles conséquences négatives liées à l’utilisation de systèmes d’IA.

    La Convention-cadre du Conseil de l’Europe sur l’intelligence artificielle et les droits de l’homme, la démocratie et l’État de droit a été adoptée à Strasbourg lors de la réunion ministérielle annuelle du Comité des Ministres du Conseil de l’Europe, qui réunit les ministres des Affaires étrangères des 46 États membres du Conseil de l’Europe.

    Comme l’a déclaré la Secrétaire Générale du Conseil de l’Europe, Marija Pejčinović Burić, « la Convention-cadre sur l’intelligence artificielle est un traité international unique en son genre qui fera en sorte que l’intelligence artificielle soit respectueuse des droits des personnes. Elle répond à la nécessité de disposer d’une norme de droit international bénéficiant du soutien d’États de différents continents unis par des valeurs communes, qui permet de tirer parti des avantages de l’intelligence artificielle, tout en réduisant les risques qu’elle représente. Avec ce nouveau traité, nous entendons garantir une utilisation responsable de l’IA, respectueuse des droits de l’homme, de la démocratie et de l’État de droit ».

    La convention est le fruit de deux années de travail d’un organe intergouvernemental, le Comité sur l’intelligence artificielle (CAI), qui a rassemblé, aux fins de la rédaction du traité, les 46 États membres du Conseil de l’Europe, l’Union européenne et 11 États non membres (Argentine, Australie, Canada, Costa Rica, États-Unis d’Amérique, Israël, Japon, Mexique, Pérou, Saint-Siège et Uruguay), ainsi que des représentants issus du secteur privé, de la société civile et du monde universitaire, intervenant en qualité d’observateurs.


    Le traité s’applique à l’utilisation des systèmes d’IA par les pouvoirs publics – y compris les entreprises qui agissent pour leur compte – et par les acteurs privés. La convention prévoit deux façons permettant aux parties de se conformer à ses principes et à ses obligations dans le cadre de la règlementation du secteur privé : les parties peuvent choisir d’être directement soumises aux dispositions applicables de la convention ou, à défaut, prendre d’autres mesures pour se conformer aux dispositions du traité, sans déroger à leurs obligations internationales en matière de protection des droits de l’homme, de la démocratie et de l’État de droit. Cette approche s’impose en raison des disparités existant entre les systèmes juridiques des différents pays.

    La convention énonce des exigences de transparence et de contrôle adaptées à des contextes et à des risques spécifiques, notamment l’identification des contenus générés par les systèmes d’IA. Les parties devront adopter des mesures pour identifier, évaluer, prévenir et atténuer les risques éventuels et évaluer la nécessité d’un moratoire, d’une interdiction ou d’autres mesures appropriées concernant l’utilisation de systèmes d’IA lorsque cette utilisation est susceptible de présenter des risques incompatibles avec les normes relatives aux droits de l’homme.

    Ils devront également déterminer les responsabilités et établir l’obligation de rendre des comptes en cas d’impacts négatifs, veiller à ce que les systèmes d’IA respectent l’égalité, y compris l’égalité de genre, garantir l’interdiction de la discrimination et la protection de la vie privée. En outre, les parties au traité devront veiller à ce que les victimes de violations des droits de l’homme dans le cadre de l’utilisation de systèmes d’IA disposent de voies de recours et bénéficient de garanties procédurales. Les personnes qui interagissent avec un système d’IA devraient notamment être informées qu’elles interagissent avec un tel système.

    En ce qui concerne les risques pour la démocratie, le traité exige des parties qu’elles adoptent des mesures pour veiller à ce que les systèmes d’IA ne soient pas utilisés pour porter atteinte aux institutions et aux processus démocratiques, notamment aux principes de séparation des pouvoirs, d’indépendance de la justice et d’accès à la justice.

    Les parties à la convention ne seront pas tenues d’appliquer les dispositions du traité aux activités liées à la protection des intérêts de sécurité nationale, mais elles devront veiller à ce que ces activités soient menées dans le respect des institutions et processus démocratiques et du droit international. La convention ne s’appliquera pas aux questions de défense nationale ni aux activités de recherche et de développement, sauf si la mise à l’essai de systèmes d’IA est susceptible d’interférer avec les droits de l’homme, la démocratie et l’État de droit.

    Afin d’assurer sa mise en œuvre effective, la convention établit un mécanisme de suivi sous la forme d’une conférence des parties.

    Enfin, la convention exige que les parties mettent en place un mécanisme de contrôle indépendant pour contrôler le respect de la convention et qu’elles sensibilisent le public, animent et éclairent le débat public et mènent des consultations multipartites sur la manière d’utiliser la technologie de l’IA. La convention-cadre sera ouverte à la signature à Vilnius (Lituanie) le 5 septembre à l'occasion d'une conférence des ministres de la justice.

    Source : Rapport explicatif de la CAI

    Et vous ?

    Pensez-vous que ce traité est crédible ou pertinent ?
    Quel est votre avis sur cette annonce ?

    Voir aussi :

    Les législateurs européens adoptent la première loi importante pour réglementer l'IA dans le monde, mais elle pourrait potentiellement rendre le marché européen peu attrayant pour l'IA

    Loi sur l'intelligence artificielle: l'Europe parvient à un accord sur les premières règles globales au monde en matière d'IA, tentant d'exploiter les avantages potentiels de la technologie

    Le projet de législation européenne sur l'intelligence artificielle mettrait en péril la compétitivité et la souveraineté technologique de l'Europe, selon plus de 160 dirigeants d'entreprises
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  10. #10
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    2 235
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 2 235
    Par défaut Les entreprises d'IA ne doivent pas se gouverner elles-mêmes pour le bien de l'humanité
    Les entreprises d'IA ne doivent pas se gouverner elles-mêmes pour le bien de l'humanité, affirment d'anciens dirigeants d'OpenAI
    Une réglementation est nécessaire pour dompter les forces du marché

    Les entreprises de la filière intelligence artificielle ne doivent pas se gouverner elles-mêmes pour le bien de l’humanité. Y laisser cours serait en effet courir le risque de mettre trop de pouvoir entre les mains d’un petit groupe d’entreprises voire d’individus. C’est l’avis formulé par d’anciens membres du conseil d’administration d’OpenAI. Ce dernier fait néanmoins suite à des prises de position selon lesquelles la réglementation constituera un frein à l’innovation en matière d’intelligence artificielle.

    Lors de sa conférence TED, Mme Toner a déclaré que les entreprises d'IA devraient être tenues de « partager des informations sur ce qu'elles construisent, sur ce que leurs systèmes peuvent faire et sur la manière dont elles gèrent les risques. » Elle a en sus ajouté que ces informations à partager avec le public devraient faire l'objet d'un audit, de sorte que les entreprises d'IA ne soient pas les seules à vérifier les informations qu'elles fournissent.

    Un exemple de cas où la technologie pourrait mal tourner serait son utilisation dans une cyberaattaque basée sur l'intelligence artificielle. L’ex membre du conseil d’administration d’OpenAI a déclaré qu'elle travaillait depuis huit ans sur les questions de politique et de gouvernance liées à l'IA et qu'elle avait pu observer de l'intérieur la manière dont le gouvernement et l'industrie s'efforçaient de gérer la technologie.


    L’Inde par exemple exige aux entreprises technologiques d’obtenir une autorisation avant de procéder à la diffusion d’outils d’intelligence artificielle

    L'Inde a introduit de nouvelles règles en matière d'IA. Alors que le pays a semblé adopter une approche laxiste ou permissive au départ, les nouvelles règles s'avèrent très strictes et suscitent de nombreuses critiques dans la communauté. Dans un nouvel avis publié récemment, l'Inde demande aux entreprises technologiques d'obtenir son accord avant de rendre publics des outils d'IA qui ne sont pas fiables ou qui sont à l'essai. « Ces règles sont un coup dur pour les entreprises qui voudront publier leurs modèles à l'avenir. Le gouvernement décidera du modèle qui est apte à être publié ou non », a écrit un critique.

    L'avis a été publié le 1er mars et indique également que ces systèmes d'IA devront être étiquetés comme susceptibles de fournir des réponses erronées aux questions des utilisateurs. En outre, l'avis indique : « l'utilisation de ces outils, y compris l'IA générative, et leur mise à disposition des utilisateurs sur l'Internet indien doivent se faire avec l'autorisation explicite du gouvernement indien ». Pour finir, le gouvernement indien exige également que les entreprises technologiques s'assurent que leurs services ou produits d'IA ne permettent pas de biais ou de discrimination et ne menacent pas l'intégrité du processus électoral.

    Ce nouvel avis intervenait peu après que l'un des principaux ministres indiens a critiqué Google et son système d'IA Gemini pour ses réponses jugées "inexactes" ou partiales, dont l'une affirmait que le Premier ministre indien Narendra Modi avait été qualifié par certains de "fasciste". Google s'est excusé pour les lacunes de Gemini et a déclaré qu'il n'est pas toujours fiable, en particulier pour les sujets d'actualité sociale. Rajeev Chandrasekhar, vice-ministre indien des Technologies de l'information, a répondu à Google en déclarant dans un message : « la sécurité et la confiance sont des obligations légales pour les plateformes ».

    Nom : 0.png
Affichages : 4043
Taille : 53,5 Ko

    De nombreuses organisations et experts de la filière intelligence artificielle sont néanmoins d’avis que la réglementation est un frein à l’innovation

    C’est la raison d’être de la lettre de mise en garde contre le fait qu'en vertu des règles proposées par l'UE, les technologies telles que l'IA générative deviendraient fortement réglementées et que les entreprises développant de tels systèmes seraient confrontées à des coûts de mise en conformité élevés et à des risques de responsabilité disproportionnés.

    Une telle réglementation pourrait conduire des entreprises très innovantes à transférer leurs activités à l'étranger et les investisseurs à retirer leurs capitaux du développement de l'IA européenne en général.

    John Loeber, co-fondateur et PDG de Limit, une société de courtage numérique de série A pour l'assurance commerciale liste une série d’inconvénients de la réglementation européenne en matière d’intelligence artificielle :

    • Faute de principes unificateurs/généraux, de nouvelles réglementations devront être ajoutées pour chaque nouveau cas futur. Il y a une nouvelle application ? Consacrons mille heures de temps aux législateurs pour ajouter un ensemble de règles supplémentaires.
    • Ironiquement, la spécificité des règles rend flou leur application ou non, ce qui invite au débat contradictoire : « ma demande utilise-t-elle réellement des données biométriques ? Non, ce sont des métadonnées… » ou « Mon application effectue-t-elle une notation de crédit social interdite ? Non, nous vendons en réalité une évaluation actuarielle des risques et vous choisissez comment l’utiliser… »
    • D’un autre côté, la loi sur l’IA réglemente les techniques si élémentaires que la plupart des entreprises technologiques seront techniquement en situation de non-conformité dès le premier jour.


    Et s’ils sont poursuivis, quelles sont les sanctions ? Jusqu'à 7% du chiffre d'affaires annuel mondial. C'est une farce. Si l’UE affirme que cette technologie est si dangereuse qu’elle nécessite une réglementation à l’échelle européenne, alors les sanctions devraient en réalité être beaucoup plus lourdes. S’il y a un mauvais acteur qui dirige une entreprise d’IA massivement abusive et que la plus grande menace à laquelle il est confronté est une pénalité de revenus de 7 % qu’il peut probablement réduire à 2 % après quelques années de litige, alors cela n’a aucun effet dissuasif ! Ces entreprises fonctionnent avec une marge brute de 75 %. Vous avez une année qui tourne à 73% ? Cela n’a pas d’importance.

    Cela place la loi sur l’IA dans une situation intermédiaire lamentable en matière de réglementation : suffisamment ennuyeuse pour dissuader les entrepreneurs légitimes, suffisamment édentée pour ne pas empêcher des abus à grande échelle. Je suis choqué que la loi sur l’IA ne prévoie aucune possibilité d’interdire quelque chose qui serait réellement dangereux, comme une machine de propagande optimisée par l’IA et financée par l’État, se faisant passer pour un réseau social. S’ils ne peuvent pas interdire des produits, alors il ne s’agit pas de protection des consommateurs : il s’agit simplement d’extraction de richesses », ajoute-t-il.

    Source : TED

    Et vous ?

    Quelle lecture faites-vous de l'analyse de John Loeber ? La trouver vous pertinente ou pas vraiment ? Dans quelle mesure ?
    Pensez-vous que le projet de loi européen sur l’IA protège suffisamment les droits des citoyens ou entrave-t-il l’innovation dans le domaine de l’IA ?
    Comment l’Europe peut-elle équilibrer la nécessité de réglementer l’IA tout en favorisant un environnement propice à la recherche et au développement ?
    Quels sont les principaux obstacles que rencontrent les entreprises technologiques en Europe pour se développer à l’échelle de l’UE ?
    Comment l’Europe peut-elle encourager un état d’esprit orienté vers la production et l’innovation technologique au sein de sa population ?
    Quelles mesures spécifiques les régulateurs européens devraient-ils prendre pour faciliter la création de richesse plutôt que la consommation de richesse ?
    Quel rôle les universités européennes peuvent-elles jouer dans le soutien à l’essor de l’IA et de la technologie en Europe ?

    Voir aussi :

    Microsoft annonce que son assistant d'IA de productivité Copilot est maintenant disponible pour tous, et affirme que cela vise à améliorer son accessibilité et son utilité pour les utilisateurs

    Microsoft pense que l'avenir de l'IA passe par l'énergie nucléaire. Le géant de la technologie serait en train de former une IA pour l'aider à obtenir l'autorisation réglementaire

    Conférence développeurs et IT Pro Ignite 2023 : Microsoft dévoile sa stratégie pour l'IA, le Cloud, et la sécurité, ainsi que pour Windows, Copilot, ChatGPT, GTP-4, Azure, et Microsoft Office 365
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  11. #11
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 456
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 456
    Par défaut Les entreprises ont déployé une vaste campagne de lobbying pour saper les réglementations sur l'IA
    Qu'y a-t-il de plus effrayant que l'IA incontrôlée ? Un "essaim" de 3 400 lobbyistes au service des intérêts spéciaux des entreprises d'IA pour influencer les gouvernements au détriment de l'intérêt général

    Les entreprises d'IA ont déployé une vaste campagne de lobbying en Europe et aux États-Unis pour contrecarrer les tentatives visant à réglementer l'IA. Bien qu'elles appellent à l'adoption de réglementations sur l'IA, les entreprises cherchent à imposer leurs propres règles afin de concentrer le pouvoir et la richesse. Pour ce faire, elles ont embauché une importante armée de lobbyistes chargés d'influencer les décideurs politiques et les gouvernements à travers le monde afin qu'ils adoptent des règles "laxistes" au détriment de l'intérêt général. Ils ont déjà réussi à court-circuiter le vote de nombreuses lois sur l'IA ou à façonner certaines législations.

    Le groupe américain de défense des intérêts des consommateurs Public Citizen a récemment publié un rapport qui met en lumière le lobbying intense des groupes d'intérêts des entreprises spécialisées dans l'IA. Public Citizen a rapporté que de puissants groupes commerciaux consacrent des ressources considérables à l'élaboration de la politique en matière d'IA aux États-Unis. Le rapport constate que ces groupes commerciaux ont plus que doublé le nombre de lobbyistes qu'ils ont envoyés au Capitole en 2023, par rapport à l'année précédente, afin d'influencer les décideurs politiques sur les questions relatives à l'IA.

    Le rapport examine les dossiers de divulgation des activités de lobbying entre 2019 et 2023, et constate que les entreprises d'IA ont déployé une armée de plus de 3 400 lobbyistes de l'IA pour influencer les législateurs fédéraux l'année dernière, soit un bond de 120 % par rapport à 2022. Le nombre d'organisations ayant fait pression sur le gouvernement sur des questions liées à l'IA a été relativement stable entre 2019 et 2022, mais la nouvelle analyse montre que l'année dernière, les entreprises, les groupes commerciaux et les cabinets de lobbying semblaient considérer l'IA comme une question qui nécessitait plus d'attention.

    Nom : full.png
Affichages : 8065
Taille : 18,5 Ko

    D'après le rapport, au moins 566 clients ont fait du lobbying sur l'IA l'année dernière, ce qui représente une augmentation de 108 % par rapport aux 272 organisations engagées sur la question en 2022. « La compilation des données a révélé une augmentation du nombre de clients, d'organisations de lobbying et de lobbyistes individuels s'engageant sur des questions liées à l'IA, ainsi que l'éventail disparate d'industries que ces questions touchent », affirme Public Citizen. Le rapport a notamment mis en évidence les points suivants :

    • les entreprises, les groupes commerciaux et d'autres organisations ont envoyé plus de 3 400 lobbyistes pour faire pression sur le gouvernement fédéral américain sur les questions liées à l'IA en 2023, ce qui représente un bond de 120 % par rapport à 2022 ;
    • l'IA n'est pas un sujet de préoccupation pour les entreprises d'IA et de logiciels uniquement. L'industrie technologique est à l'origine du plus grand nombre de lobbyistes liés à l'IA en 2023 (près de 700), mais elle ne représente que 20 % de l'ensemble des lobbyistes déployés dans le domaine de l'IA. Des lobbyistes issus d'un large éventail de secteurs autres que celui de la technologie se sont engagés sur des questions liées à l'IA, notamment les services financiers, les soins de santé, les télécommunications, les transports et la défense ;
    • les clients qui font du lobbying sur les questions liées à l'IA ont envoyé plus de 1 100 lobbyistes pour faire du lobbying auprès de la Maison Blanche en 2023, soit près de deux fois plus que le nombre de lobbyistes consacrés à une agence fédérale en particulier. Le nombre de lobbyistes engagés pour faire du lobbying auprès de la Maison Blanche sur les questions liées à l'IA est passé de 323 au premier trimestre à 931 au quatrième trimestre, soit une augmentation de 188 % en l'espace d'un an ;
    • 85 % des lobbyistes engagés en 2023 pour faire du lobbying sur les questions liées à l'IA l'ont été par des entreprises ou des groupes commerciaux alignés sur les entreprises. La Chambre de commerce des États-Unis est à l'origine du plus grand nombre de lobbyistes liés à l'IA (81), suivie d'Intuit (64), de Microsoft (60), de la Business Roundtable (42) et d'Amazon (35).


    Un précédent rapport d'OpenSecrets a mis en évidence le pic de lobbying des nouveaux venus dans la course à l'IA, révélant que plus de 330 entités ont fait du lobbying sur des questions liées à l'IA en 2023. OpenSecrets a constaté que les groupes qui ont fait du lobbying sur l'IA en 2023 ont dépensé un total de 957 millions de dollars pour faire du lobbying auprès du gouvernement fédéral américain sur toutes les questions cette année-là. En outre, à l'aide des données prises en compte, Public Citizen a examiné quelles agences du gouvernement fédéral les clients et leurs lobbyistes ciblaient le plus sur les questions liées à l'IA.

    Selon Public Citizen, un grand nombre de ceux qui dépensent le plus en lobbying se sont également engagés sur les questions relatives à IA. Sur les 20 entités qui dépensent le plus en lobbying, Public Citizen a constaté que 15 d'entre elles ont fait du lobbying intense sur l'IA, ce qui montre que les organisations qui ont le plus de ressources disposent d'un vaste pouvoir de lobbying pour façonner les réglementations entourant l'utilisation de l'IA. Les résultats de l'analyse révèlent que le lobbying sur l'IA prend de l'ampleur à mesure que les entreprises livrent de nouveaux outils d'IA et que les législateurs tentent de les réglementer.

    Nom : 2.png
Affichages : 1681
Taille : 18,7 Ko

    « Les lobbyistes d'entreprise qui se déchaînent dans les couloirs du Congrès et du pouvoir ont pour objectif de définir notre avenir en matière d'IA. Soit nous laissons les lobbyistes d'entreprise rédiger des règles sur l'IA pour concentrer le pouvoir et la richesse des entreprises, soit nous exigeons que les représentants du gouvernement donnent la priorité à l'intérêt public », a déclaré Robert Weissman, président de Public Citizen. L'analyse montre que les clients et leurs lobbyistes intensifient leurs efforts de lobbying chaque fois que les législateurs américains présentent un nouveau projet de loi sur la réglementation de l'IA.

    « Les entreprises d'IA, les sociétés de défense, les fabricants de véhicules autonomes et d'autres acteurs peuvent gagner des milliards si la politique en matière d'IA est élaborée davantage dans leur intérêt que dans celui du public. Ces entités semblent dominer les conversations sur l'IA au Capitole. Ce n'est jamais une bonne idée de confier au renard le soin de concevoir la sécurité du poulailler », a déclaré Mike Tanglis, directeur de recherche pour la division Congress Watch de Public Citizen. Public Citizen prévoit que le lobbying en faveur de l'IA se poursuivra en 2024 et au-delà, car de nouvelles propositions de loi sont en vue.

    Selon Public Citizen, avec l'action du gouvernement fédéral pour ériger des garde-fous pour l'utilisation de l'IA, "les parties prenantes s'appuieront probablement encore plus sur leurs lobbyistes pour façonner la manière dont la politique de l'IA est élaborée". « Le gouvernement fédéral américain devrait se méfier de l'engagement des groupes de défense des intérêts des entreprises d'IA dans le processus. Les garde-fous de l'IA sont essentiels pour protéger le public et les voix des parties prenantes qui les représentent doivent également être entendues avec force dans les couloirs du gouvernement », a déclaré Public Citizen.

    Un rapport publié l'été dernier a allégué qu'OpenAI a fait pression sur l'Union européenne pour qu'elle édulcore sa réglementation sur l'IA et aurait réussi à faire passer ses intérêts financiers au détriment de l'intérêt général. OpenAI aurait fait pression pour que des éléments importants de la loi européenne sur l'IA (EU AI Act) soient fortement édulcorés de manière à réduire le fardeau réglementaire qui pèse sur la société. Ces informations sont issues de documents sur l'engagement d'OpenAI avec des fonctionnaires de l'UE obtenus par TIME auprès de la Commission européenne par le biais de demandes de liberté d'information.

    Nom : 3.png
Affichages : 1679
Taille : 81,9 Ko

    Le Parlement européen a adopté la législation "Eu AI Act" en juin 2023. Elle impose des règles aux utilisations de l'IA considérées comme les plus risquées. Elle limite l'utilisation des logiciels de reconnaissance faciale et exige des fabricants d'outils d'IA qu'ils divulguent davantage d'informations sur les données utilisées pour créer leurs programmes. Après avoir relativement réussi à imposer ses volontés à l'UE, Sam Altman, PDG d'OpenAI, fait une tournée mondiale pour plaider en faveur d'une norme mondiale sur l'IA. Mais son appel d'importantes préoccupations parmi les groupes de défenses des intérêts des consommateurs.

    Au regard des révélations du rapport, il ne serait pas imprudent de suggérer qu'OpenAI compte également imposer sa politique au monde entier. Les efforts de lobbying d'OpenAI visent davantage à protéger ses intérêts financiers qu'à promouvoir l'intérêt public. Altman mène donc un jeu de dupe au sein de la communauté internationale de l'IA, un stratagème qui lui permettrait à terme d'asseoir sa domination sur le secteur de l'IA. Par ailleurs, les critiques accusent l'UE de s'être pliée une nouvelle fois aux désidératas des Américains, au mépris des intérêts de ses propres entreprises et de sa souveraineté numérique.

    Source : Public Citizen

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous du lobbying intense des entreprises d'IA pour contrecarrer les initiatives visant à réglementer l'IA ?

    Voir aussi

    Les législateurs européens adoptent la première loi importante pour réglementer l'IA dans le monde, mais elle pourrait potentiellement rendre le marché européen peu attrayant pour l'IA

    OpenAI aurait fait pression sur l'Union européenne pour qu'elle édulcore sa réglementation sur l'IA, et aurait réussi à faire passer ses intérêts financiers au détriment de l'intérêt général

    OpenAI s'empresse de modifier ses conditions générales de confidentialité afin de réduire les risques réglementaires dans toute l'UE, tandis que Bruxelles fait des progrès sur sa législation sur l'IA

  12. #12
    Membre éprouvé Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    Mars 2005
    Messages
    1 873
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : Mars 2005
    Messages : 1 873
    Par défaut
    Citation Envoyé par Mathis Lucas Voir le message
    Que pensez-vous du lobbying intense des entreprises d'IA pour contrecarrer les initiatives visant à réglementer l'IA ?
    On le voit déjà au niveau des news sur tous les sites et tous les canaux. On essaye de nous vendre de force un truc assez moyen, comme LA panacée.

    En général, plus il y a de pub pour un produit, et plus il y a de chances qu'ils soit très mauvais.

    Là, on a en plus des lobbyistes qui illustrent le capitalisme non-régulé dans toute sa splendeur, ou comment les plus riches sont capables de faire plier des gouvernements, par la corruption légale qu'est le lobbyisme. On le voit au niveau des entreprises et des communes ici: des avocats de l'IA (et juste avant c'était ceux du cloud des GAFAM) qui organisent des évènements avec les repas, parfois des cadeaux, des ateliers qui sont de la pub grossièrement déguisée, etc.

    Bref, rien de neuf: le commercial qui fait sa danse du ventre, et le pigeon qui tombe dans le panneau.

  13. #13
    Membre extrêmement actif Avatar de OrthodoxWindows
    Homme Profil pro
    Étudiant
    Inscrit en
    Novembre 2021
    Messages
    1 343
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Drôme (Rhône Alpes)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Novembre 2021
    Messages : 1 343
    Par défaut
    Citation Envoyé par kain_tn Voir le message
    On le voit déjà au niveau des news sur tous les sites et tous les canaux. On essaye de nous vendre de force un truc assez moyen, comme LA panacée.

    En général, plus il y a de pub pour un produit, et plus il y a de chances qu'ils soit très mauvais.

    Là, on a en plus des lobbyistes qui illustrent le capitalisme non-régulé dans toute sa splendeur, ou comment les plus riches sont capables de faire plier des gouvernements, par la corruption légale qu'est le lobbyisme. On le voit au niveau des entreprises et des communes ici: des avocats de l'IA (et juste avant c'était ceux du cloud des GAFAM) qui organisent des évènements avec les repas, parfois des cadeaux, des ateliers qui sont de la pub grossièrement déguisée, etc.

    Bref, rien de neuf: le commercial qui fait sa danse du ventre, et le pigeon qui tombe dans le panneau.
    Il y a eu le métavers dernièrement, mais ça à foiré (comme tout le monde l'avais prévu ici).

  14. #14
    Invité
    Invité(e)
    Par défaut
    Qu'y a-t-il de plus effrayant que l'IA incontrôlée ?
    Les humains

  15. #15
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    2 243
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 2 243
    Par défaut
    Une chose est sûre: "L'essaim" de lobbyistes pro-IA existe bel et bien...

    Pour s'en convaincre, il suffit de lire les news de ce site: La majorité des news traitent maintenant de l'IA... Apparemment les autres technologies numériques ne sont plus dignes d'intérêt

  16. #16
    Membre prolifique
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    10 262
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 37
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 10 262
    Par défaut
    Citation Envoyé par Anselme45 Voir le message
    La majorité des news traitent maintenant de l'IA...
    C'est de la faute de l'industrie et non pas des rédacteurs d'actualités.
    C'est comme avec Elon Musk, les médias écrivent un article par jour à son sujet donc ça atterrît ici aussi.
    Les visiteurs ont le choix de lire les articles qu'ils veulent, il est possible d'ignorer toutes les actualités liées à l'IA si on le souhaite.

    L'IA sera peut-être puissante dans 20 ans, j'espère que dans ces 20 ans l'IA ne restera pas le sujet principal dans le monde de la technologie.
    Beaucoup de gens doivent être lassés par toutes ces actualités en rapport avec l'IA, les médias mainstream en parlent beaucoup.
    Mais après ils ont peut-être raison d'en parler, l'IA pourrait devenir quelque chose d'extrêmement dangereux et avoir des conséquences dramatique sur le monde. Elle va peut-être vraiment prendre le travail de beaucoup de gens, qui vont se retrouver dans la pauvreté, parce qu'ils ne retrouveront plus de travail et n'auront plus de revenu.

    Citation Envoyé par Mathis Lucas Voir le message
    Pour ce faire, elles ont embauché une importante armée de lobbyistes chargés d'influencer les décideurs politiques et les gouvernements à travers le monde afin qu'ils adoptent des règles "laxistes" au détriment de l'intérêt général. Ils ont déjà réussi à court-circuiter le vote de nombreuses lois sur l'IA ou à façonner certaines législations.
    C'est dingue que ces lobbystes arrivent à corrompre autant de décideurs politiques et de gouvernements à travers le monde.

    On pourrait presque se dire que les politiciens sont tous pourris.

  17. #17
    Expert confirmé

    Homme Profil pro
    Directeur des systèmes d'information
    Inscrit en
    Avril 2002
    Messages
    2 892
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 65
    Localisation : Luxembourg

    Informations professionnelles :
    Activité : Directeur des systèmes d'information
    Secteur : Finance

    Informations forums :
    Inscription : Avril 2002
    Messages : 2 892
    Par défaut
    Citation Envoyé par Anselme45 Voir le message
    Pour s'en convaincre, il suffit de lire les news de ce site: La majorité des news traitent maintenant de l'IA... Apparemment les autres technologies numériques ne sont plus dignes d'intérêt
    C'est archifaux. Oui il y a sur developpez un tas de news sur l'IA mais c'est parfaitement normal, ça nous concerne, aussi bien les développeurs que les autres informaticiens.

    Il n'en reste pas moins que developpez est quasiment le seul et unique site francophone qui passe aussi un tas de news sur l'actualité de la programmation, les nouvelles versions des langages, les nouvelles sorties des EDI (Jetbrains, Microsoft, Embarcadero, ...) , etc. Et c'est surtout devenu le "Médiapart/Canard enchainé" de l'informatique avec toutes les news à scandales sur HP, Microsoft, Google, etc. Exemple l'énorme scandale sur les imprimantes HP avec des centaines de commentaires, et quel rapport avec l'IA ? aucun... D 'ailleurs toi même tu viens de répondre à un sujet à scandale n'ayant rien à voir avec l'IA, à savoir : Google peut garder votre téléphone si vous l’envoyez en réparation avec des pièces qui ne sont pas d’origine

    Regarde les rubriques programmation et EDI au lieu de dire n'importe quoi, et il y a toujours une colonne droite avec des tutoriels programmation et IT Pro, des articles gratuits alors que c'est devenu payant ailleurs (Udemy, Elephorm, etc). Developpez est devenu le meilleur site sur francophonie sur l'IA, mais il reste toujours le meilleur site pour les développeurs et même l'IT Pro, c'est bien simple il n'y en a pas d'autre de valables....

  18. #18
    Membre extrêmement actif Avatar de OrthodoxWindows
    Homme Profil pro
    Étudiant
    Inscrit en
    Novembre 2021
    Messages
    1 343
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Drôme (Rhône Alpes)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Novembre 2021
    Messages : 1 343
    Par défaut
    Citation Envoyé par Pierre Louis Chevalier Voir le message
    C'est archifaux. Oui il y a sur developpez un tas de news sur l'IA mais c'est parfaitement normal, ça nous concerne, aussi bien les développeurs que les autres informaticiens.

    Il n'en reste pas moins que developpez est quasiment le seul et unique site francophone qui passe aussi un tas de news sur l'actualité de la programmation, les nouvelles versions des langages, les nouvelles sorties des EDI (Jetbrains, Microsoft, Embarcadero, ...) , etc. Et c'est surtout devenu le "Médiapart/Canard enchainé" de l'informatique avec toutes les news à scandales sur HP, Microsoft, Google, etc. Exemple l'énorme scandale sur les imprimantes HP avec des centaines de commentaires, et quel rapport avec l'IA ? aucun... D 'ailleurs toi même tu viens de répondre à un sujet à scandale n'ayant rien à voir avec l'IA, à savoir : Google peut garder votre téléphone si vous l’envoyez en réparation avec des pièces qui ne sont pas d’origine

    Regarde les rubriques programmation et EDI au lieu de dire n'importe quoi, et il y a toujours une colonne droite avec des tutoriels programmation et IT Pro, des articles gratuits alors que c'est devenu payant ailleurs (Udemy, Elephorm, etc). Developpez est devenu le meilleur site sur francophonie sur l'IA, mais il reste toujours le meilleur site pour les développeurs et même l'IT Pro, c'est bien simple il n'y en a pas d'autre de valables....
    Je suis totalement d'accord. Il y a de nombreuses informations que je ne trouve que sur developpez. Je pense que c'est sur le meilleurs média francophone traitant du numérique. Un bon exemple est le traitement de l'horrible projet de loi chatcontrol, où dans la presse francophone, seul developpez semble prendre la mesure de ce que ce projet de loi représente.
    Je rêve de trouver des sources aussi qualitative sur d'autres sujets.

  19. #19
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 532
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 532
    Par défaut Ari Emanuel qualifie Sam Altman « d'escroc » à qui l'on ne peut pas faire confiance en matière d'IA
    Ari Emanuel qualifie le PDG d'OpenAI Sam Altman « d'escroc » à qui l'on ne peut pas faire confiance en matière d'IA,
    le magnat des médias appelle à la mise en place de garde-fous pour cette technologie

    Lors du festival Aspen Ideas, Ari Emanuel, PDG du conglomérat médiatique Endeavor, a exprimé son opinion tranchante sur Sam Altman, le PDG d’OpenAI. Selon lui, Altman est un « manipulateur » qui ne peut pas être digne de confiance en matière d’intelligence artificielle. Il a également appelé à la mise en place de garde-fous pour cette technologie.

    Ari Emanuel, PDG d'Endeavor, le conglomérat du sport et du divertissement, a qualifié Sam Altman, PDG d'OpenAI, « d'escroc » à qui l'on ne peut pas faire confiance en matière d'intelligence artificielle.

    Lors du festival d'idées d'Aspen vendredi, Tina Brown, rédactrice en chef fondatrice du Daily Beast, a demandé au géant des médias de partager ses réflexions sur l'intelligence artificielle et les assurances que des innovateurs tels qu'Altman donnent à propos de la technologie.

    Emanuel a d'abord pensé à Elon Musk, qu’il considère comme un « ami », notant qu'ils n'étaient pas d'accord sur de nombreux points, mais pas sur les risques de l'IA. « Si Elon Musk est inquiet, alors nous devrions l’être aussi », a-t-il déclaré. « Nous avons besoin de garde-fous. »

    En ce qui concerne Sam Altman, Emanuel a été moins indulgent. Il a critiqué la façon dont OpenAI, initialement une organisation à but non lucratif, est désormais devenue lucrative. Altman ne détient pas directement d’actions dans OpenAI, mais la structure de l’entreprise est inhabituelle : une partie à but lucratif est gérée par une organisation à but non lucratif. Cette structure visait à garantir que l’IA générale bénéficie à l’humanité avant de privilégier les profits. Cependant, ces derniers mois, l’engagement d’OpenAI envers cette mission a été remis en question.

    Deux jours avant l'intervention d'Emanuel au festival, Altman et le PDG d'Airbnb, Brian Chesky, étaient présents au même événement et ont déclaré que la mise au point d'une IA responsable nécessiterait la participation de la société.

    « Nous devons apprendre à créer des technologies sûres », a déclaré Altman. « Nous devons trouver comment construire des produits sûrs, et cela passe par un dialogue permanent avec la société ».

    Emanuel a déclaré que les personnes comme Altman sont probablement très intelligentes et qu'il ne veut pas étouffer l'innovation ; cependant, il ne croit pas que les innovateurs aient bien pesé les avantages de l'IA par rapport à ses inconvénients. « J'ai pensé à toute une série de choses qui sont mauvaises », a-t-il déclaré. « Vous me dites que vous avez fait le calcul et que les avantages l'emportent sur les inconvénients. Je ne crois pas ».

    Le PDG d'Endeavor a ajouté que la réglementation gouvernementale sera nécessaire à mesure que l'IA se développera.

    « Je ne veux pas non plus étouffer l'innovation, car je pense que nous avons besoin de l'IA. Mais nous devons l'encadrer », a-t-il déclaré. « Je sais que beaucoup de gens dans la Silicon Valley n'aiment pas que le gouvernement intervienne - et ce n'est pas comme si le gouvernement avait obtenu de bons résultats dans ce domaine - mais il s'agit d'une technologie assez dynamique qui nécessite une réflexion approfondie sur ce qui peut et ne peut pas se produire ».

    Il est clair qu’Ari Emanuel estime que la confiance envers les acteurs de l’IA doit être examinée de près, et que des mesures de régulation sont nécessaires pour garantir une utilisation responsable de cette technologie

    Nom : secretaire.png
Affichages : 5778
Taille : 442,4 Ko
    Le secrétaire général de l'ONU, Antonio Guterres

    L'ONU veut créer une agence mondiale pour réguler l'IA

    La prolifération de la haine et des mensonges sur les plateformes numériques et la menace que l'intelligence artificielle puisse devenir un « monstre » incontrôlé exigent une action mondiale coordonnée, à commencer par un code de conduite pour les gouvernements, les entreprises technologiques et les annonceurs qui promeut la vérité et protège les droits de l'homme, selon une déclaration du secrétaire général de l'ONU.

    Antonio Guterres a déclaré qu'il prévoyait de nommer un conseil consultatif scientifique et un conseil consultatif sur l'intelligence artificielle en septembre 2023 pour préparer les initiatives que l'ONU pourrait prendre. Il a déclaré qu'il réagirait favorablement à une nouvelle agence de l'ONU sur l'intelligence artificielle et a suggéré comme modèle l'Agence internationale de l'énergie atomique, qui est basée sur la connaissance et dispose de certains pouvoirs de réglementation.

    Guterres a déclaré lors d'une conférence de presse qu'il prévoyait de mener de larges consultations sur les principes du Code de conduite des Nations Unies pour l'intégrité de l'information sur les plateformes numériques, qu'il publiera avant le Sommet de l'avenir des Nations Unies de l'année prochaine.

    Il a exprimé l'espoir que le code sera largement soutenu, mais lorsqu'on lui a demandé si les gouvernements et les entreprises technologiques étaient disposés à prendre des mesures pour rendre l'espace numérique plus sûr, il a répondu : « C'est la question que je me pose ».

    « Nous avons affaire à une entreprise qui génère des profits énormes, et nous avons aussi affaire dans certaines situations à des gouvernements qui ne respectent pas entièrement les droits de l'homme, c'est donc une bataille constante - et dans cette bataille constante, nous devons mobiliser tous ceux qui sont attachés à l'intégrité de l'information sur les plateformes numériques », a-t-il déclaré.

    Heidi Beirich, cofondatrice du Projet mondial contre la haine et l'extrémisme, a convenu que même si c'est une étape positive que l'ONU appelle à des solutions internationales à ce problème mondial, son code de conduite ne sera probablement pas suffisant pour arrêter le torrent d'informations fausses et haineuses en ligne.

    « Le fait est que les codes volontaires, y compris les propres conditions de service des entreprises sur ces questions, n'ont pas réussi à les maîtriser », a déclaré Beirich. « Le problème pour l'ONU est qu'ils ne peuvent pas faire ce qu'il semble devoir faire pour régler ce problème, qui est essentiellement une législation ».

    Guterres a déclaré que de nombreuses initiatives étaient en cours, notamment une loi et un code de conduite dans l'Union européenne pour ses 27 pays membres et un sommet britannique sur la sécurité de l'IA à l'automne. D'autres gouvernements étudient également des formes de réglementation. Mais il a dit qu'il y a une opinion selon laquelle la réglementation n'est pas facile parce que les choses évoluent très rapidement, et qu'une approche globale est donc nécessaire.

    Guterres a déclaré qu'un problème clé est que le modèle commercial de l'entreprise technologique donne la priorité à l'engagement plutôt qu'à la confidentialité, à la vérité et aux droits de l'homme. Il a déclaré que les entreprises technologiques doivent comprendre que des profits massifs ne peuvent être créés « au détriment d'un modèle d'engagement qui passe avant toute autre considération ».

    Le chef de l'ONU a déclaré que le code de conduite ne sera pas une solution, « mais il sera mondial » et il permettra aux gouvernements, aux entreprises technologiques, aux annonceurs et autres « de s'engager sur ce qui doit être fait pour garantir ou au moins pour promouvoir sérieusement l'intégrité de l'information sur les plateformes numériques ».

    Source : Ari Emanuel

    Et vous ?

    La confiance envers les entreprises d’IA : pensez-vous que les entreprises travaillant sur l’intelligence artificielle devraient être davantage régulées pour garantir une utilisation responsable de cette technologie ? Pourquoi ou pourquoi pas ?
    Le rôle du gouvernement : Ari Emanuel a suggéré que le gouvernement devrait intervenir pour mettre en place des garde-fous sur l’IA. Êtes-vous d’accord avec cette idée ? Quel devrait être le rôle du gouvernement dans la régulation de l’IA ?
    Mission d’OpenAI : OpenAI avait initialement pour mission de développer une IA bénéfique pour l’humanité. Pensez-vous que cette mission est toujours respectée, ou l’entreprise a-t-elle perdu de vue cet objectif initial ?
    Transparence et responsabilité : comment les entreprises d’IA devraient-elles rendre compte de leurs actions et de leurs décisions ? Quelles mesures devraient-elles prendre pour garantir la transparence et la responsabilité ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  20. #20
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 532
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 532
    Par défaut Les nouvelles règles européennes en matière d'intelligence artificielle entrent en vigueur aujourd'hui
    AI Act : les nouvelles règles européennes en matière d'intelligence artificielle entrent en vigueur,
    l'objectif déclaré est d'encourager le développement et l'adoption de systèmes IA sûrs et fiables en UE

    Le 1er août 2024, le règlement sur l’intelligence artificielle (IA) de l’Union européenne est entré en vigueur. Cette législation vise à encourager le développement et l’adoption de systèmes d’IA sûrs et fiables sur le marché unique de l’UE, tant par les acteurs privés que publics. Elle s’efforce également de garantir le respect des droits fondamentaux des citoyens de l’UE tout en stimulant les investissements et l’innovation dans le domaine de l’intelligence artificielle en Europe.

    La rapidité spectaculaire du développement de l'intelligence artificielle au cours des deux dernières années a attiré l'attention du public et suscité des débats autour d'une nouvelle révolution technologique. La promesse de l'intelligence artificielle à l'humanité est qu'elle peut nous rendre plus efficaces - et donc nous permettre de consacrer nos esprits avancés à des activités plus importantes.

    Pourtant, il y a de nombreuses raisons de ne pas laisser cette version idéalisée du développement de l'IA s'installer trop longtemps dans notre esprit. Des universitaires, des scientifiques et même les concepteurs de l'IA eux-mêmes ont mis en garde contre les risques considérables que son développement rapide fait courir à l'humanité. À mesure que nous créons de nouvelles formes d'IA et que nous les alimentons avec des quantités de données de plus en plus importantes, leurs capacités sont susceptibles de s'affiner, et elles pourraient acquérir la capacité « d'apprendre », en ingérant des données pour se former elles-mêmes, ainsi qu'en créant potentiellement leurs propres techniques de manipulation à utiliser contre les humains.

    L'intelligence artificielle n'a pas besoin d'être sensible pour représenter un risque pour l'humanité. Sa maîtrise du langage, qui s'est produite bien plus rapidement que prévu, suffit à polariser nos sociétés grâce à sa capacité à manipuler les informations que nous absorbons en ligne. Ne pas savoir si une image est réelle ou générée par l'IA, ou si le discours d'un homme politique est un deepfake plutôt qu'une vidéo authentique, pourrait avoir d'immenses conséquences sur ce que les gens croient, sur les relations que nous construisons les uns avec les autres et créer des compréhensions radicalement différentes du monde qui nous entoure.

    Face à ces perspectives effrayantes, l'une des réponses actuellement sur la table est l'Artificial Intelligence Act de l'UE. La Commission européenne a initialement publié la proposition de loi sur l'intelligence artificielle (loi sur l'IA) en 2021, mais l'introduction du ChatGPT a semblé renforcer l'attention et l'urgence de sa mise en place. Ainsi, aux premières heures du samedi 9 décembre 2023, les institutions de l'UE ont trouvé un accord, finalisant ainsi la loi sur l'IA après trente-six longues heures de négociations.

    La loi sur l'IA est un texte législatif historique qui devrait servir de référence mondiale pendant des années, principalement grâce à un cadre réglementaire adaptable conçu pour être modifié au fur et à mesure que la technologie progresse. Sa flexibilité n'est pas le seul aspect qui fait de la loi sur l'IA un framework intéressant (dont s'inspire déjà d'ailleurs la Californie) : la législation est conçue autour de l'utilisation de la technologie plutôt que de réglementer la technologie elle-même.

    Cela signifie que des applications spécifiques, telles que l'utilisation de l'identification biométrique à distance par les forces de l'ordre, seront fortement restreintes, tout en permettant la poursuite de la recherche et du développement dans le domaine de l'IA. Pour ce faire, elle doit toutefois être en mesure d'équilibrer la réglementation et l'innovation, tout en laissant l'UE ouverte à la coopération avec les pays tiers.

    Nom : gen.png
Affichages : 9487
Taille : 199,1 Ko

    Vue d'ensemble

    La structure très axée sur le risque de cette législation a fait l'objet de critiques assez vives, en particulier de la part du monde des affaires. La plus importante est une lettre ouverte signée par 150 chefs d'entreprise qui craignent que la loi sur l'IA ne dissuade les startups et les entreprises européennes d'investir dans leurs propres systèmes d'IA ou de les développer.

    Si les entreprises d'IA décidaient de cesser leurs activités dans l'UE ou ne parvenaient pas à générer suffisamment d'investissements en raison d'un environnement réglementaire défavorable, la compétitivité internationale de l'UE par rapport à ses homologues américains et chinois pourrait s'en trouver sérieusement affectée. Le recours aux technologies étrangères est déjà une réalité au sein de l'UE. Cependant, l'UE tente désormais activement d'inverser cette situation par le biais de son discours sur la souveraineté numérique et le filtrage des investissements étrangers.

    Son argument est que les nouveaux développeurs seraient confrontés à des coûts d'entrée élevés sur le marché de l'IA en raison de tous les efforts à fournir pour se mettre en conformité. Un cadre législatif plus large serait préférable, d'autant plus que les applications modernes de l'IA sont très récentes et qu'elles évolueront rapidement dans les années, voire les mois, à venir. Les critiques soutiennent qu'un régime réglementaire strict désavantagerait l'UE et l'amènerait probablement à se laisser distancer davantage par les États-Unis et la Chine en termes de capacité technologique.

    L'entrée en vigueur de la loi européenne sur l'IA

    La loi européenne sur l'intelligence artificielle est entrée en vigueur ce jeudi et s'appliquera à tous les systèmes d'intelligence artificielle (IA) déjà en place ou en cours de développement. Cette loi est largement considérée comme la première législation au monde qui tente de réglementer l'intelligence artificielle en fonction des risques qu'elle présente.

    Les législateurs ont adopté la législation en mars, mais sa publication au Journal officiel de la Commission européenne en juillet a mis en branle le processus d'entrée en vigueur.

    La date du 1er août marque le début d'une série de dates et d'échéances au cours des mois et des années à venir, afin de préparer les entreprises qui utilisent l'IA à se familiariser avec la nouvelle législation et à s'y conformer.


    La loi sur l'IA évalue les entreprises en fonction des risques

    La loi européenne sur l'IA assigne ses règles à chaque entreprise utilisant des systèmes d'IA en fonction de quatre niveaux de risque, qui déterminent à leur tour les délais qui leur sont applicables. Les quatre types de risque sont les suivants : aucun risque, risque minimal, risque élevé et systèmes d'IA interdits.

    L'UE interdira totalement certaines pratiques à partir de février 2025. Il s'agit notamment de celles qui manipulent la prise de décision d'un utilisateur ou qui élargissent les bases de données de reconnaissance faciale par le biais du « scraping » sur internet.

    D'autres systèmes d'IA considérés comme présentant un risque élevé, tels que les IA qui collectent des données biométriques et les IA utilisées pour les infrastructures critiques ou les décisions en matière d'emploi, feront l'objet des réglementations les plus strictes.

    Ces entreprises devront notamment présenter leurs ensembles de données d'entraînement à l'IA et fournir la preuve d'une supervision humaine.

    Selon Thomas Regnier, porte-parole de la Commission européenne, environ 85 % des entreprises d'IA relèvent de la deuxième catégorie, celle du "risque minimal", qui ne nécessite que très peu de réglementation.

    Nom : ia.png
Affichages : 1581
Taille : 207,8 Ko

    Les entreprises auront besoin d'une période comprise entre 3 et 6 mois pour se conformer

    Heather Dawe, responsable de l'IA responsable au sein de la société de conseil UST, travaille déjà avec des clients internationaux pour mettre leur utilisation de l'IA en conformité avec la nouvelle loi. Les clients internationaux de Dawe sont « d'accord » avec les nouvelles exigences de la loi parce qu'ils reconnaissent la nécessité d'une réglementation de l'IA.

    Selon elle, la mise en conformité avec la nouvelle loi pourrait prendre entre trois et six mois, en fonction de la taille de l'entreprise et de l'importance du rôle de l'IA dans son flux de travail. « Il existe un ensemble de lignes directrices claires sur ce qu'il faut faire », a déclaré Dawe. « Toute complication est due au fait que le processus n'a pas été lancé assez rapidement ».

    Les entreprises pourraient envisager de mettre en place des conseils internes de gouvernance de l'IA, a poursuivi Dawe, avec des experts en droit, en technologie et en sécurité pour effectuer un audit complet des technologies utilisées et de la manière dont elles doivent adhérer à la nouvelle loi.

    Si une entreprise n'est pas en conformité avec la loi sur l'IA dans les délais impartis, elle risque une amende pouvant aller jusqu'à 7 % de son chiffre d'affaires annuel global, a rappelé Regnier, de la Commission.

    Comment la Commission se prépare

    L'Office de l'IA de la Commission supervisera le respect des règles relatives aux modèles d'IA à usage général. Soixante membres du personnel de la Commission seront réorientés vers ce bureau et 80 autres candidats externes seront recrutés au cours de l'année prochaine, a indiqué Regnier.

    Un conseil de l'IA composé de délégués de haut niveau des 27 États membres de l'UE a « posé les bases » de la mise en œuvre de la loi lors de sa première réunion en juin, selon un communiqué de presse. Le conseil travaillera avec l'office de l'IA pour s'assurer que l'application de la loi est harmonisée dans toute l'UE, a ajouté Regnier.

    Plus de 700 entreprises ont déclaré qu'elles signeraient un pacte sur l'IA, dans lequel elles s'engagent à se conformer rapidement à la loi.

    Les États membres de l'UE ont jusqu'au mois d'août prochain pour mettre en place les autorités nationales compétentes qui superviseront l'application des règles dans leur pays.

    La Commission se prépare également à relancer ses investissements dans l'IA, avec une injection d'un milliard d'euros en 2024 et jusqu'à 20 milliards d'euros d'ici 2030.

    « Ce que l'on entend partout, c'est que ce que fait l'UE est purement réglementaire (...) et que cela va bloquer l'innovation. Ce n'est pas vrai », a déclaré Regnier. « La législation n'est pas là pour empêcher les entreprises de lancer leurs systèmes, bien au contraire ». « Nous voulons qu'elles opèrent dans l'UE, mais nous voulons aussi protéger nos citoyens et nos entreprises ».

    Pour la Commission, l'un des principaux défis est de réglementer les futures technologies d'IA, a déclaré Regnier, mais il pense que le système basé sur le risque signifie qu'elle peut rapidement réglementer tout nouveau système.

    Points de vue des critiques et des partisans

    Les inquiétudes concernant la capacité d'innovation de l'Union européenne sont certainement justifiées. Les fonctionnaires européens mentionnent constamment le manque de grandes entreprises technologiques sur le continent et le « retard » par rapport à d'autres grands acteurs mondiaux.

    Le développement moderne et rapide de l'intelligence artificielle pourrait présenter un scénario différent. Contrairement au développement de l'internet au début des années 90 et à la croissance des plateformes en ligne dans les années 2000, l'UE réglemente alors que l'utilisation et l'importance de la technologie augmentent à l'échelle mondiale.

    Alors que le marché de l'IA commence à exploser et que les modèles se développent correctement, l'Union européenne a anticipé l'importance et le caractère révolutionnaire de ces nouvelles technologies. La réglementation vise à protéger contre les dommages potentiels, ce qui a sans doute été fait trop tard dans le cas de l'internet et de l'essor des grands réseaux de médias sociaux.

    La loi sur les services numériques et la loi sur les marchés numériques, adoptées en 2022, étaient des tentatives pour contrôler les entreprises de la Big Tech dont les pratiques algorithmiques et les modèles commerciaux préjudiciables étaient déjà profondément enracinés. Cette fois, l'UE a l'occasion de créer un environnement sain permettant aux entreprises d'innover et de se développer dans ce nouveau secteur.

    Sources : parlement européen (1, 2), Europe AI Office, conseil de l'UE, lettre ouverte

    Et vous ?

    Évaluation des risques : Les entreprises doivent évaluer les risques liés à leurs systèmes d’IA et prendre des mesures pour minimiser ces risques.
    Interdiction des systèmes dangereux : Certains systèmes d’IA, tels que la surveillance de masse, sont interdits en raison de leur impact potentiellement néfaste.
    Transparence et documentation : Les développeurs d’IA doivent fournir des informations claires sur le fonctionnement de leurs systèmes et documenter leurs décisions.
    Surveillance indépendante : Des organismes de surveillance indépendants seront chargés de veiller à la conformité avec la législation.
    Images attachées Images attachées
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Réponses: 1
    Dernier message: 31/01/2019, 19h12
  2. Java EE 5 en version finale
    Par Petrus dans le forum Java EE
    Réponses: 12
    Dernier message: 13/05/2006, 16h01
  3. Bugg en version finale uniquement
    Par charliejo dans le forum C++Builder
    Réponses: 7
    Dernier message: 21/03/2006, 09h24
  4. Réponses: 4
    Dernier message: 01/02/2006, 11h17

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo