IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 460
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 460
    Points : 197 891
    Points
    197 891
    Par défaut L'IA aide et nuit à l'environnement, le meilleur nouveau scientifique du monde pourrait être une IA
    L'IA aide et nuit à l'environnement, le meilleur nouveau scientifique du monde pourrait être une IA.
    Stanford présente l'édition 2023 de son rapport annuel AI Index

    Un rapport annuel sur les progrès de l'IA a mis en évidence la domination croissante des acteurs de l'industrie sur les universités et le gouvernement dans le déploiement et la protection des applications d'IA.

    L'AI Index est une initiative indépendante du Stanford Institute for Human-Centered Artificial Intelligence (HAI), dirigée par le AI Index Steering Committee, un groupe interdisciplinaire d'experts du milieu universitaire et de l'industrie. Le rapport annuel suit, rassemble, distille et visualise les données relatives à l'intelligence artificielle, permettant aux décideurs de prendre des mesures significatives pour faire progresser l'IA de manière responsable et éthique en pensant aux humains.

    L'AI Index collabore avec de nombreuses organisations différentes pour suivre les progrès de l'intelligence artificielle. Ces organisations comprennent : le Center for Security and Emerging Technology de l'Université de Georgetown, LinkedIn, NetBase Quid, Lightcast et McKinsey. Le rapport 2023 présente également plus de données auto-collectées et d'analyses originales que jamais auparavant. Le rapport de cette année comprenait de nouvelles analyses sur les modèles de base, y compris leurs coûts géopolitiques et de formation, l'impact environnemental des systèmes d'IA, l'éducation à l'IA de la maternelle à la terminale et les tendances de l'opinion publique en matière d'IA. L'AI Index a également élargi son suivi de la législation mondiale sur l'IA de 25 pays en 2022 à 127 en 2023.

    Voici quelques faits saillants soulignés par l'AI Index de 2023 :
    • la recherche sur l'IA prend de l'ampleur depuis des années, sans montrer aucun signe de ralentissement. Pour le souligner, le rapport s'appuie sur le nombre de publications entre 2010 et 2021 qui n'a pas eu de cesse de croître : « Le nombre total de publications sur l'IA a plus que doublé depuis 2010. Les sujets spécifiques à l'IA qui continuent de dominer la recherche incluent la reconnaissance des formes, l'apprentissage automatique et la vision par ordinateur » 

      Nom : un.png
Affichages : 1081
Taille : 44,7 Ko
    • les larges modèles d'IA deviennent gros, plus rapides, mais aussi plus chers. L'article note : « GPT-2, publié en 2019, considéré par beaucoup comme le premier grand modèle de langage, comportait 1,5 milliard de paramètres et coûtait environ 50 000 USD à former. PaLM, l'un des grands modèles phares de langage lancé en 2022, comportait 540 milliards de paramètres et coûtait environ 8 millions de dollars US. PaLM était environ 360 fois plus grand que GPT-2 et coûtait 160 fois plus. Il n'y a pas que PaLM : dans l'ensemble, les grands modèles linguistiques et multimodaux deviennent de plus en plus volumineux et coûteux » 

      Nom : deux.png
Affichages : 872
Taille : 80,7 Ko
    • les nouveaux modèles d'IA reçoivent aujourd'hui des MILLIONS de fois plus de formation qu'il y a 10 ans ;
    • en seulement 3 ans, les modèles de langage sont devenus bien plus puissants. Cela montre les performances des modèles linguistiques dans des matières telles que les sciences sociales, les sciences humaines, etc ;
    • les gens utilisent également ces modèles d'IA plus performants pour faire des choses douteuses, comme des deepfake de politiciens : « Selon la base de données AIAAIC, qui suit les incidents liés à l'abus éthique de l'IA, le nombre d'incidents et de controverses liés à l'IA a été multiplié par 26 depuis 2012. Certains incidents notables en 2022 comprenaient une vidéo deepfake du président ukrainien Volodymyr Zelenskyy se rendant et les prisons américaines utilisant technologie de surveillance des appels sur leurs détenus. Cette croissance témoigne à la fois d'une utilisation accrue des technologies d'IA et d'une prise de conscience des possibilités d'utilisation abusive » 

      Nom : trois.png
Affichages : 866
Taille : 37,8 Ko
    • ce nombre va continuer à monter en flèche alors que le monde découvre comment s'adapter aux nouvelles capacités de l'IA. Parmi les plus notables, citons le procès en cours contre Stability AI pour des problèmes de droits d'auteur 

      Nom : quatre.png
Affichages : 871
Taille : 46,8 Ko
    • les gouvernements s'empressent de définir leur approche de l'IA. Par exemple, du côté de l'UE, les élus travaillent sur leur grande loi sur l'IA depuis près de 2 ans. Puis, ChatGPT. La réaction instinctive de l'Italie a été de le suspendre, les autres autorités de protection de données en UE, notamment l'Allemagne, la France mais aussi l'Irlande, observent de près la situation dans le pays et envisagent une action coordonnée au niveau européen ;
    • les startups d'IA nouvellement financées ont triplé au cours des 10 dernières années. 57 des 273 entreprises du dernier lot YC travaillent avec l'IA générative.


    Les entreprises ont remplacé le milieu universitaire dans l'ouverture de la voie pour le développement de systèmes d'IA de pointe

    Dans son édition de 2023, l'AI Index suggère que le monde de l'IA entre dans une nouvelle phase de développement. Au cours de l'année écoulée, un grand nombre d'outils d'IA se sont généralisés, des chatbots comme ChatGPT aux logiciels de génération d'images comme Midjourney. Mais les décisions sur la manière de déployer cette technologie et sur la manière d'équilibrer les risques et les opportunités reposent fermement entre les mains des entreprises.

    L'AI Index indique que, pendant de nombreuses années, le milieu universitaire a ouvert la voie au développement de systèmes d'IA de pointe, mais que l'industrie a maintenant fermement pris le relais : « Jusqu'en 2014, les modèles d'apprentissage automatique les plus importants étaient publiés par le milieu universitaire. Depuis, l'industrie a pris le relais. En 2022, il y avait 32 modèles d'apprentissage automatique importants produits par l'industrie, contre seulement trois produits par le milieu universitaire », indique le rapport. La raison ? La voici : « La construction de systèmes d'IA à la pointe de la technologie nécessite de plus en plus de grandes quantités de données, de calcul et d'argent, des ressources que les acteurs de l'industrie possèdent intrinsèquement en plus grande quantité que les organisations à but non lucratif et les universités ».

    En 2019, par exemple, OpenAI a créé GPT-2, un premier grand mode de langage, ou LLM - la même classe d'application utilisée pour alimenter ChatGPT et le chatbot Bing de Microsoft. GPT-2 coûte environ 50 000 $ à former et contient 1,5 milliard de paramètres (une métrique qui suit la taille et la sophistication relative d'un modèle). Passez à 2022 et Google a créé son propre LLM à la pointe de la technologie, appelé PaLM qui lui a coûté environ 8 millions de dollars pour la formation et contient 540 milliards de paramètres, ce qui le rend 360 fois plus grand que GPT-2 et 160 fois plus cher.

    Les besoins croissants en ressources du développement de l'IA déplacent fermement le rapport de force vers les acteurs de l'entreprise. De nombreux experts du monde de l'IA craignent que les incitations du monde des affaires ne conduisent également à des résultats dangereux alors que les entreprises se précipitent sur les produits et écartent les problèmes de sécurité dans le but de déjouer leurs rivaux. C'est l'une des raisons pour lesquelles de nombreux experts appellent actuellement à un ralentissement voire à une pause dans le développement de l'IA, comme dans la lettre ouverte signée la semaine dernière par des personnalités comme Elon Musk.

    L'IA aide et nuit à l'environnement.

    Les auteurs du rapport soulignent que de nouvelles recherches suggèrent que les systèmes d'IA peuvent avoir de graves impacts environnementaux. Selon Luccioni et al., 2022, la course d'entraînement de BLOOM a émis 25 fois plus de carbone qu'un seul voyageur en avion lors d'un aller simple de New York à San Francisco. Pourtant, de nouveaux modèles d'apprentissage par renforcement comme BCOOLER montrent que les systèmes d'IA peuvent être utilisés pour optimiser la consommation d'énergie.

    Nom : cinq.png
Affichages : 869
Taille : 58,1 Ko

    Le meilleur nouveau scientifique du monde… l'IA ?

    Les modèles d'IA commencent à accélérer rapidement les progrès scientifiques et, en 2022, ont été utilisés pour faciliter la fusion de l'hydrogène, améliorer l'efficacité de la manipulation de la matrice et générer de nouveaux anticorps.

    Nom : six.png
Affichages : 844
Taille : 47,4 Ko

    L'IA commence à construire une meilleure IA

    Nvidia a utilisé un agent d'apprentissage par renforcement de l'IA pour améliorer la conception des puces qui alimentent les systèmes d'IA. De même, Google a récemment utilisé l'un de ses modèles de langage, PaLM, pour suggérer des moyens d'améliorer ce même modèle. L'apprentissage auto-améliorant de l'IA accélérera les progrès de l'IA.

    IA et éthique

    L'équité, les préjugés et l'éthique dans l'apprentissage automatique continuent d'être des sujets d'intérêt parmi les chercheurs et les praticiens. Alors que la barrière technique à l'entrée pour la création et le déploiement de systèmes d'IA générative a considérablement diminué, les problèmes éthiques liés à l'IA sont devenus plus apparents pour le grand public. Les startups et les grandes entreprises se retrouvent dans une course au déploiement et à la sortie de modèles génératifs, et la technologie n'est plus contrôlée par un petit groupe d'acteurs.

    Les auteurs du rapport notent qu'à mesure que les acteurs de l'industrie généralisent les applications d'IA, le nombre d'incidents d'abus éthiques a également augmenté. (Le référentiel d'incidents et de controverses sur l'IA, l'algorithme et l'automatisation, un index de ces incidents, note une multiplication par 26 entre 2021 et 2012.) Ces incidents incluent des décès impliquant le logiciel de conduite autonome de Tesla ; l'utilisation de deepfakes audio dans les escroqueries d'entreprise ; la création de deepfake nudes non consensuels ; et de nombreux cas d'arrestations par erreur causées par un logiciel de reconnaissance faciale défectueux, qui est souvent en proie à des préjugés raciaux.

    À mesure que les outils d'IA se généralisent, il n'est pas surprenant que le nombre d'erreurs et de cas d'utilisation malveillants augmente également ; en soi, cela n'indique pas un manque de protection adéquate. Mais d'autres éléments de preuve suggèrent un lien, comme la tendance des entreprises comme Microsoft et Google à réduire leurs équipes de sécurité et d'éthique de l'IA.

    IA et règlementation au niveau du gouvernement

    Le rapport note cependant que l'intérêt des législateurs et des décideurs pour la réglementation de l'IA augmente. Une analyse des dossiers législatifs de 127 pays a noté que le nombre de projets de loi contenant l'expression «intelligence artificielle» est passé d'un seul adopté en 2016 à 37 adoptés en 2022. Aux États-Unis, l'examen est également en augmentation au niveau des États, avec cinq projets de loi de ce type proposés en 2015 contre 60 projets de loi liés à l'IA proposés en 2022. Un tel intérêt accru pourrait fournir un contrepoids à l'autorégulation des entreprises.

    Nom : sept.png
Affichages : 850
Taille : 154,5 Ko

    Autres données dans le rapport
    • L'investissement privé dans l'IA a diminué pour la première fois en une décennie. Les investissements privés mondiaux dans l'IA augmentent depuis des années, mais ont diminué de 26,7 % par rapport à 2021 pour atteindre 91,9 milliards de dollars en 2022.
    • Les Chinois sont plus confiants dans l'IA que les Américains. Une enquête Ipsos en 2022 a révélé que 78 % des répondants chinois étaient d'accord avec l'affirmation selon laquelle « les produits et services utilisant l'IA présentent plus d'avantages que d'inconvénients ». Les citoyens chinois étaient les plus enthousiastes à propos de l'IA, suivis des répondants en Arabie saoudite (76 %) et en Inde (71 %). Les répondants américains étaient parmi les moins enthousiastes des personnes interrogées, avec seulement 35 % d'accord avec la déclaration ci-dessus.
    • Les auteurs ont interrogé un échantillon d'Américains. Parmi eux, certains ont déclaré être enthousiasmés par l'IA, notamment par son potentiel d'améliorer la vie et la société (31 %), de leur permettre de gagner du temps et de rendre les choses plus efficaces (13 %). D'autres ont déclaré se sentir plus préoccupés et s'inquiètent de la perte d'emplois humains (19 %) ; de la surveillance, du piratage et de la confidentialité numérique (16 %) ; ainsi que du manque de connexion humaine (12%).

    Source : rapport

    Et vous ?

    Quelle lecture faites-vous de ce rapport ?
    Quels sont les éléments qui vous ont le plus marqué ?
    Êtes-vous d'accord avec les conclusions du rapport ? Lesquelles ne vous semblent pas pertinentes ?

    Voir aussi :

    La bataille dans le domaine de l'IA fait de plus en plus rage entre l'Europe, la Chine et les USA, d'après rapport annuel AI Index 2018
    La recherche et le développement en intelligence artificielle sont en plein essor, mais l'intelligence générale est toujours hors de portée, selon un rapport
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Membre expert
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 125
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 125
    Points : 3 453
    Points
    3 453
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    L'IA aide et nuit à l'environnement, le meilleur nouveau scientifique du monde pourrait être une IA
    La vraie question est : écoutera-t-on plus ce "scientifique" que ceux humains qui alertent et proposent depuis des décénies?
    Ma réponse est simple : si sa réponse est capitalisto-compatible, oui, sinon non.
    Ou à peine plus complexe : oui quand la réponse sera capitalisto-compatible, il faut donc faire suffisament de tests jusqu'à l'arrivée de la réponse attendue.

Discussions similaires

  1. Réponses: 4
    Dernier message: 21/06/2022, 10h17
  2. Aide choix environnement developpement
    Par zdz16 dans le forum NetBeans
    Réponses: 1
    Dernier message: 28/05/2020, 15h58
  3. Réponses: 0
    Dernier message: 18/08/2018, 05h51
  4. [Python 3.X] Aide pour coder le déplacement d'individus dans un environnement sur python
    Par Invité dans le forum Général Python
    Réponses: 3
    Dernier message: 16/02/2015, 00h38
  5. Réponses: 14
    Dernier message: 27/08/2007, 14h32

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo