IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #21
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    9 584
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 9 584
    Points : 18 476
    Points
    18 476
    Par défaut
    Citation Envoyé par calvaire Voir le message
    tu peux aussi participer à un financement participatif et recevoir le produit si elle arrive a concrétiser le projet
    Je ne sais pas.
    J'ai déjà participé à des financements participatifs et ça n'avait rien à voir, il y a avait des paliers à atteindre et à partir du moment où le premier palier était atteint, t'avais la garantie qu'on allait te livrer quelque chose.
    Après il y a 2 trucs soit des contres parties (des petits cadeaux), soit l'oeuvre (par exemple si tu finances une BD).

    J'ai participé au financement de ça par exemple :
    Effondrement - La première BD d'Alexis, l'auteur de la chaîne Youtube "L'Actu Animée".
    Stupeflip. Nouvel Album. 3 Mars 2017.
    Les FDP de Tubonia - La BD d'Absol Vidéos, Anthox Colaboy, Sir Gibsy et leDESSINATOR

    Mais bon je ne vois pas très bien le lien avec les startups, je parlais des milliards que l'état investissait alors qu'elle vont probablement toute faire faillite assez rapidement
    Enfin bref, peu importe.

    La France investit déjà beaucoup dans l'IA et elle ne pourra jamais rivaliser avec les USA, la Chine, ni même la Russie.
    Keith Flint 1969 - 2019

  2. #22
    Expert confirmé

    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    1 402
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 41
    Localisation : France, Aube (Champagne Ardenne)

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 1 402
    Points : 5 532
    Points
    5 532
    Par défaut
    Citation Envoyé par Ryu2000 Voir le message
    Mais bon je ne vois pas très bien le lien avec les startups, je parlais des milliards que l'état investissait alors qu'elle vont probablement toute faire faillite assez rapidement
    Enfin bref, peu importe.
    le rapport c'est qu'une startups a plusieurs façon de lever des fonds et que "des milliards que l'état investissait alors qu'elle vont probablement toute faire faillite" n'est pas la seul méthode.
    Et qu'un projet crédible, un business plan réaliste et le tout dirigé par des gens compétents cela favorise beaucoup les chances de succes.

    évidement tu as l'envers du décor avec des startup fait par des gens sortant tous juste d'une école et promettant de vaincre le cancer avec un bout de papier.

  3. #23
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    9 584
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 9 584
    Points : 18 476
    Points
    18 476
    Par défaut
    Comment l’Europe veut gagner la bataille de l’intelligence artificielle
    L’Europe, qui a raté le train des données personnelles sur lesquelles Facebook et autre Google ont construit leur empire, « doit être le premier continent à tirer le plein bénéfice de cette vague », explique Thierry Breton. Dans cette bataille, elle part avec une avance sur les Etats-Unis ou la Chine, dans la mesure où elle est la première puissance industrielle au monde et possède donc plus de data à exploiter que ses concurrents. De même, en matière de données publiques, elle est plus riche, compte tenu de la place des Etats (santé, énergie, transports publics…) dans les sociétés européennes.
    C'te blague
    Keith Flint 1969 - 2019

  4. #24
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 838
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 838
    Points : 36 223
    Points
    36 223
    Par défaut Les États-Unis lancent une initiative sur l'utilisation de l'intelligence artificielle à des fins militaires
    Les États-Unis lancent une initiative sur l'utilisation de l'intelligence artificielle à des fins militaires,
    dans un contexte où la Chine ambitionne de devenir la super puissance du monde en matière d’IA

    L’intelligence artificielle (IA) et l’informatique quantique seront sans doute les prochaines révolutions du monde technologique. À ce titre, aucun pays ne veut être laissé pour compte, surtout pas les États-Unis. Le gouvernement américain a lancé une initiative visant à promouvoir la coopération internationale sur l'utilisation responsable de l'intelligence artificielle et des armes autonomes par les militaires.

    Ces dernières années, les progrès de l'intelligence artificielle (IA) s'étant accélérés, presque toutes les grandes puissances se sont engagées à développer des capacités d'IA avancées et à intégrer efficacement l'IA dans leurs forces armées. Pourtant, aucune n'a poursuivi ces efforts avec autant de détermination que la Chine et les États-Unis.

    Nom : IA3B.png
Affichages : 8576
Taille : 194,9 Ko

    Les États-Unis ont lancé une initiative visant à promouvoir la coopération internationale sur l'utilisation responsable de l'intelligence artificielle et des armes autonomes par les militaires, cherchant à imposer l'ordre sur une technologie émergente qui a le potentiel de changer la façon dont la guerre est menée.

    La Commission de sécurité nationale américaine sur l'intelligence artificielle a conclu dans son rapport final de l'année dernière que « même si l'IA sera omniprésente dans tous les domaines, les volumes élevés de données associés aux domaines de l'espace, du cyberespace et des opérations d'information font que les cas d'utilisation dans ces domaines sont particulièrement bien adaptés à l'intégration prioritaire d'applications basées sur l'IA dans les wargames, les exercices et les expérimentations ».

    « En tant que technologie en évolution rapide, nous avons l'obligation de créer des normes fortes de comportement responsable concernant les utilisations militaires de l'IA et d'une manière qui garde à l'esprit que les applications de l'IA par les militaires vont sans aucun doute changer dans les années à venir », a déclaré Bonnie Jenkins, sous-secrétaire du Département d'État pour le contrôle des armes et la sécurité internationale.

    Elle a déclaré que la déclaration politique des États-Unis, qui contient des lignes directrices non juridiquement contraignantes décrivant les meilleures pratiques pour une utilisation militaire responsable de l'IA, « peut être un point focal pour la coopération internationale ».


    Jenkins a lancé la déclaration à l'issue d'une conférence de deux jours à La Haye, qui a pris un caractère d'urgence supplémentaire du fait que les progrès de la technologie des drones dans le cadre de la guerre de la Russie en Ukraine ont accéléré une tendance qui pourrait bientôt amener les premiers robots de combat entièrement autonomes du monde sur le champ de bataille. :

    La déclaration des États-Unis comporte 12 points, dont le fait que les utilisations militaires de l'IA sont conformes au droit international et que les États « maintiennent le contrôle et la participation humaine pour toutes les actions essentielles à l'information et à l'exécution des décisions souveraines concernant l'emploi des armes nucléaires. »

    Zachary Kallenborn, analyste de l'innovation en matière d'armement à l'université George Mason, qui a assisté à la conférence de La Haye, a déclaré que la décision des États-Unis de porter leur approche sur la scène internationale « reconnaît que les armes autonomes suscitent des inquiétudes. C'est significatif en soi ».

    Kallenborn a déclaré qu'il était également important que Washington ait inclus un appel au contrôle humain sur les armes nucléaires, « car, en ce qui concerne le risque des armes autonomes, je pense que c'est facilement le risque le plus élevé que l'on puisse avoir ».

    Soulignant le sentiment d'urgence internationale autour de l'IA et des armes autonomes, 60 nations, dont les États-Unis et la Chine, ont lancé un appel à l'action à la conférence de La Haye, demandant une large coopération dans le développement et l'utilisation militaire responsable de l'intelligence artificielle.

    « Nous sommes à temps pour atténuer les risques et empêcher l'IA de devenir incontrôlable, et nous sommes à temps pour empêcher l'IA de nous conduire à un endroit où nous ne voulons tout simplement pas être », a déclaré le ministre néerlandais des Affaires étrangères, Wopke Hoekstra.

    L'appel à l'action lancé aux Pays-Bas souligne « l'importance d'assurer des garanties appropriées et une surveillance humaine de l'utilisation des systèmes d'IA, en gardant à l'esprit les limites humaines dues aux contraintes de temps et de capacités. »

    Les pays participants ont également invité les pays « à élaborer des cadres, des stratégies et des principes nationaux sur l'IA responsable dans le domaine militaire ». Les analystes militaires et les chercheurs en intelligence artificielle affirment que plus la guerre en Ukraine, qui dure depuis près d'un an, se prolonge, plus il est probable que les drones seront utilisés pour identifier, sélectionner et attaquer des cibles sans l'aide des humains.

    Le ministre ukrainien de la transformation numérique, Mykhailo Fedorov, a déclaré à l'Associated Press dans une interview récente que les drones tueurs entièrement autonomes sont « une prochaine étape logique et inévitable » dans le développement des armes. Il a déclaré que l'Ukraine a fait « beaucoup de R et D dans cette direction ».

    L'Ukraine dispose déjà de drones d'attaque semi-autonomes et d'armes de contre-drones dotés d'IA. La Russie affirme également posséder des armes à IA, bien que ces affirmations ne soient pas prouvées. Mais il n'existe aucun cas confirmé d'une nation mettant au combat des robots qui ont tué par eux-mêmes.

    La Russie n'a pas été invitée à participer à la conférence de La Haye. L'ambassadeur de Chine aux Pays-Bas, Tan Jian, était présent et a déclaré que Pékin avait envoyé deux documents aux Nations unies sur la réglementation des applications militaires de l'intelligence artificielle, affirmant que cette question "concerne la sécurité commune et le bien-être de l'humanité, ce qui nécessite une réponse unie de tous les pays », a-t-il déclaré.

    Les États-Unis comme la France, ainsi que d’autres pays de l’Europe, souhaitent tous réaliser des progrès considérables dans les domaines de l’IA. Selon le média, les chiffres énoncés n'incluent pas tous les programmes de recherche du ministère de la Défense. Les responsables affirment que le saut vise à suivre le rythme des efforts de la Chine.

    La proposition faite en 2020 comprenait une augmentation de 70 % pour la National Science Foundation (NSF) pour les subventions liées à l'IA et les instituts de recherche interdisciplinaire. En gros, l’administration américaine veut que le Congrès double ses dépenses en financement de la R et D sur l'IA.

    Le gouvernement français s’engage à soutenir le développement et la recherche en IA

    En France, l'Élysée pense pareil. Après la publication du rapport de Cédric Villani en 2018, le gouvernement avait décidé de passer à l’offensive. Emmanuel Macron avait ainsi annoncé un investissement pouvant aller jusqu’à 1,5 million d’euros dans l’IA uniquement jusqu'en 2022 pour soutenir le développement et la recherche en IA en France. Parmi les 1,5 milliard d'euros promis pour le développement de l'IA, 650 millions étaient destinés à la recherche et 800 millions aux premiers projets, notamment dans la santé, la cybersécurité et la certification des algorithmes.

    En cela, un montant de 400 millions d’euros avait été annoncé par le gouvernement pour des « appels à projets et de défis d’innovation de rupture ». Cela va servir à développer l'écosystème des entreprises spécialisées dans les solutions d'intelligence artificielle ; infuser l'IA dans tous les secteurs, y compris dans les PME avec le soutien des grands groupes. Cela permettra également d’attirer des investissements étrangers en France. En ce qui concerne l’informatique quantique, la France travaille aussi sur un plan d’action et quelques propositions ont été faites cette année.

    Le ministère de l’Intérieur semble convaincu que la collecte et l’exploitation de grandes quantités de données associée à des travaux de linguistiques et de profilage pourraient donner de précieux coups d’avance aux forces de l’ordre, lors d’opérations de régulation et de gestion des manifestations. C’est pour cette raison qu’il a créé la mission numérique de la Gendarmerie qui travaille, entre autres, sur la gestion prédictive de l’ordre public. En matière de gestion de l’ordre public, l’IA pourrait notamment permettre de déterminer les caractéristiques d’une foule et assister les opérateurs dans leurs taches.

    Le ministère de l’Intérieur financerait également le projet Intact, une initiative ambitieuse regroupant des ingénieurs de l’Institut de recherche en informatique de Toulouse ainsi que des linguistes de l’École normale supérieure. Le travail de ces derniers consiste, avec l’aide de l’IA, à analyser et faire le tri parmi les publications sur les réseaux sociaux afin d’anticiper les mouvements sociaux dans un contexte de crise.

    La Chine ambitionne de devenir la super puissance du monde en matière d’IA

    Selon Asia Times, cité par l'agence de presse ANI, la Chine envisage de mettre en place une guerre intelligente et informative pour Taipei, afin de passer à un nouveau niveau stratégique alors que la tension dans le détroit de Taïwan s'intensifie.

    Non seulement Pékin a publié un plan ambitieux visant à faire de la Chine la première puissance mondiale en matière d'IA d'ici 2030, mais le Parti communiste chinois (PCC) a dévoilé une stratégie agressive axée sur l'innovation pour l'armée chinoise, l'Armée populaire de libération (APL). De même, Xi Jinping, le secrétaire général du PCC, n'a cessé de souligner l'engagement de la Chine en faveur du développement de l'IA et de la "guerre intelligente", tout récemment dans son rapport historique présenté cet automne au 20e Congrès du Parti.

    Si les ambitions stratégiques de la Chine en matière d'IA sont claires, la manière dont elle entend intégrer l'IA dans l’Armée reste opaque. Les objectifs du PCC en matière d'IA militarisée sont encore entourés de mystère, même si l'Armée populaire de libération considère clairement l'IA comme une technologie qui sera vitale pour mener la guerre de la prochaine génération.

    Cependant, la Force de soutien stratégique (SSF) de l'Armée populaire de libération, récemment créée, offre au moins quelques indices sur la manière dont Pékin entend insuffler des capacités d'IA dans l'ensemble de l'armée. Bien que l'objectif précis de la SSF ne soit pas encore bien compris, l'organisation a reçu une sorte de mandat d'innovation et a été chargée d'intégrer de nombreuses « fonctions stratégiques ». Compte tenu de l'ampleur de sa structure organisationnelle et de son mandat, la SSF semble être à l'avant-garde des efforts de l'APL pour se moderniser autour de nouvelles technologies comme l'IA.

    Comme dit précédemment, un nombre croissant d'États développent des capacités militaires d'IA, qui peuvent inclure l'utilisation de l'IA pour activer des systèmes autonomes. L'utilisation militaire de l'IA peut et doit être éthique, responsable et renforcer la sécurité internationale. L'utilisation de l'IA dans les conflits armés doit être en accord avec le droit international humanitaire applicable, y compris ses principes fondamentaux.

    L'utilisation militaire des capacités de l'IA doit être responsable, notamment par le biais d'une telle utilisation pendant les opérations militaires au sein d'une chaîne humaine de commandement et de contrôle responsable. Une approche fondée sur des principes de l'utilisation militaire de l'IA devrait inclure un examen minutieux des risques et des avantages, et elle devrait également minimiser les biais et les accidents involontaires.

    Les États devraient prendre des mesures appropriées pour assurer le développement, le déploiement et l'utilisation responsables de leurs capacités militaires d'IA, y compris celles permettant la mise en place de systèmes autonomes. Ces mesures devraient être appliquées tout au long du cycle de vie des capacités d'IA militaire.

    Source : U.S. Department of State

    Et vous ?

    Que pensez-vous de l'utilisation de l'intelligence artificielle à des fins militaires ?

    Croyez-vous à une utilisation responsable de l'IA dans le domaine militaire ?

    Quel est votre avis sur le sujet ?

    Voir aussi :

    L'intelligence artificielle, la nouvelle arme de la gendarmerie contre les Gilets jaunes

    La Maison-Blanche veut que le Congrès double le financement de l'intelligence artificielle et de la recherche et développement en informatique quantique
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  5. #25
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 838
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 838
    Points : 36 223
    Points
    36 223
    Par défaut Les présidents Joe Biden et Xi Jinping s'engagent à interdire l'IA dans les armes autonomes
    Intelligence artificielle et armement : les présidents Joe Biden et Xi Jinping s'engagent à interdire l'IA dans les armes autonomes,
    telles que les drones et le contrôle des ogives nucléaires

    Les technologies d'intelligence artificielle (IA) sont développées depuis de nombreuses années et appliquées dans différents domaines. Les applications de l'IA existent non seulement dans le domaine de la surveillance domestique, mais aussi dans le domaine militaire. Les sujets liés à l'IA sont devenus encore plus controversés et ont attiré davantage l'attention lorsque la Chine, un pays dont le développement militaire progresse rapidement, est impliquée.

    Les présidents Joe Biden et Xi Jinping seraient sur le point de s’engager à interdire l’utilisation de l’intelligence artificielle dans les armes autonomes, telles que les drones, ainsi que dans le contrôle et le déploiement des ogives nucléaires. Les dangers potentiels de l’intelligence artificielle devraient être au cœur des discussions entre les États-Unis et la Chine, qui se déroulent en marge du sommet de la Coopération économique Asie-Pacifique de cette année à San Francisco. Washington et Pékin ont tous deux exprimé leur inquiétude quant à l’utilisation non réglementée de cette technologie pour alimenter les conflits.


    Nom : Chineb.jpg
Affichages : 1189
Taille : 73,1 Ko

    Alors que l'Armée populaire de libération (APL) chinoise cherche à devenir une « armée de classe mondiale », ses progrès en matière de systèmes d'armes avancés continuent de susciter de vives inquiétudes de la part de ses voisins et concurrents. L'armée et l'industrie de défense chinoises ont réalisé d'importants investissements dans l'intelligence artificielle IA.

    Sur la base des informations publiquement disponibles, la trajectoire de l'Armée populaire de libération dans le développement et l'utilisation potentielle de systèmes d'armes autonomes et dotés d'IA/ML reste incertaine. La maturité de ces capacités - ainsi que la question de savoir si, quand et dans quelle mesure des systèmes d'armes dotés de niveaux d'autonomie plus élevés ont été mis en service - ne peut être évaluée avec une grande confiance à ce stade.

    Toutefois, la concurrence technologique devenant un élément de plus en plus important de la rivalité entre grandes puissances, il est clair que l'armée et l'industrie de la défense chinoises ont pris des initiatives actives en matière de recherche, de développement et d'expérimentation. Cependant, les progrès de la Chine dépendront de sa capacité à rendre opérationnels les systèmes d'armes émergents, ce qui nécessitera de surmonter les défis technologiques et organisationnels actuels en matière d'essais, de formation et de concepts d'opérations.

    Les avancées chinoises en matière d'autonomie et de systèmes d'armes dotés d'IA pourraient avoir une incidence sur l'équilibre militaire, tout en exacerbant potentiellement les menaces pour la sécurité mondiale et la stabilité stratégique à mesure que la rivalité entre les grandes puissances s'intensifie. En s'efforçant d'acquérir un avantage technologique, l'armée chinoise pourrait s'empresser de déployer des systèmes d'armes qui ne sont pas sûrs, pas testés ou pas fiables dans des conditions opérationnelles réelles.

    La Chine et les États-Unis en tête de la course à l’intelligence artificielle

    Ces dernières années, les progrès de l'intelligence artificielle s'étant accélérés, presque toutes les grandes puissances se sont engagées à développer des capacités d'IA avancées et à intégrer efficacement l'IA dans leurs forces armées. Pourtant, aucune n'a poursuivi ces efforts avec autant de détermination que la Chine et les États-Unis. L'application par la Chine de la technologie de l'intelligence artificielle a des implications complexes et subtiles pour la sécurité internationale et régionale. Pour tirer parti des avantages structurels et systématiques de l'IA en matière d'innovation technologique, la Chine a lancé une campagne nationale visant à allouer des ressources au développement de l'IA dans les secteurs public et privé.

    D'autres mesures, notamment des programmes éducatifs, une stratégie de "sortie" et une fusion militaire et civile, ont également été mises en œuvre pour soutenir l'innovation dans le domaine de l'IA. Pour se préparer à la guerre "intelligentisée" de demain, l'Armée populaire de libération mise sur la technologie de l'IA pour développer des systèmes de combat intelligents sans pilote, améliorer la connaissance de la situation sur le champ de bataille, mener des opérations multi-domaines et promouvoir des programmes de formation.

    L'APL a déjà mis en œuvre des réformes structurelles et adapté sa doctrine pour s'assurer que l'utilisation de l'IA réponde aux exigences de la guerre future. Les progrès de la Chine dans le domaine de l'IA et de ses applications militaires pourraient déclencher une compétition régionale pour la primauté de l'IA ou une course aux armements dans ce domaine, ce qui aurait un effet ambigu sur la maîtrise des armements concernant les systèmes d'armes létaux autonomes.

    Les efforts de l'APL pour renforcer ses capacités nucléaires en exploitant l'IA auront des effets à la fois stabilisateurs et déstabilisateurs sur la stabilité stratégique et le risque nucléaire. En fin de compte, l'introduction de l'IA sur les champs de bataille modernes peut aider la Chine à faire pencher la balance militaire dans le Pacifique occidental, mais son potentiel pour changer l'essence des conflits armés et la conduite de la guerre est limité.

    Les États-Unis lancent une initiative pour promouvoir l’utilisation responsable de l’IA et des armes autonomes

    Les États-Unis ont lancé une initiative pour promouvoir la coopération internationale sur l’utilisation responsable de l’intelligence artificielle et des armes autonomes par les militaires. Cette initiative vise à imposer l’ordre sur une technologie émergente qui a le potentiel de changer la façon dont la guerre est menée. La Commission de sécurité nationale américaine sur l’intelligence artificielle a conclu dans son rapport final de l’année dernière que les cas d’utilisation de l’IA dans les domaines de l’espace, du cyberespace et des opérations d’information sont particulièrement bien adaptés à l’intégration prioritaire d’applications basées sur l’IA dans les wargames, les exercices et les expérimentations.

    Selon Bonnie Jenkins, sous-secrétaire du Département d’État pour le contrôle des armes et la sécurité internationale, les États-Unis ont l’obligation de créer des normes fortes de comportement responsable concernant les utilisations militaires de l’IA et d’une manière qui garde à l’esprit que les applications de l’IA par les militaires vont sans aucun doute changer dans les années à venir.


    L’armée de l’air américaine prévoit de dépenser environ 5,8 milliards de dollars pour construire jusqu’à 2 000 drones sans pilote dotés d’une intelligence artificielle qui serviront aux côtés des pilotes humains. Les drones Valkyrie sont conçus pour remplir des fonctions telles que la surveillance ou les opérations de réapprovisionnement, ou pour se regrouper en essaims afin de combattre aux côtés de pilotes humains. Les drones coûteraient environ 3 millions de dollars chacun.

    L’IA, élément essentiel de la future guerre selon le général de brigade Scott Cain

    Le général de brigade Scott Cain, commandant de l’AFRL a déclaré : « L’IA sera un élément essentiel de la future guerre et de la vitesse à laquelle nous devrons comprendre l’image opérationnelle et prendre des décisions ». Il a également ajouté que « L’IA, les opérations autonomes et les équipes homme-machine continuent d’évoluer à un rythme sans précédent et nous avons besoin des efforts coordonnés de nos partenaires gouvernementaux, universitaires et industriels pour suivre le mouvement ».

    Le projet vise à développer des « avions de combat collaboratifs […] capables d’améliorer les systèmes d’armes avec équipage pour atteindre la supériorité aérienne ». Le Congrès doit approuver l’effort quinquennal de construction de la flotte de drones, dont le budget s’élève à 5,8 milliards de dollars sur cette période. Au début du mois, le colonel Tucker Hamilton, chef d'opérations d'IA du département de l'armée de l'air, a indiqué que la branche aérienne de l'armée américaine avait fait voler le drone XQ-58A Valkyrie de 9,15 mètres de long pendant trois heures lors d'un test de vol contrôlé par l'IA, le premier du genre.

    Toutefois, le département de la Défense des États-Unis s’est engagé à utiliser l’Intelligence Artificielle de manière responsable. Pour y parvenir, les développeurs et les utilisateurs de l’autonomie basée sur l’IA doivent travailler en collaboration avec des spécialistes de l’acquisition. Les dangers potentiels de l'intelligence artificielle devraient être au cœur des discussions entre les États-Unis et la Chine, qui se déroulent en marge du sommet de la Coopération économique Asie-Pacifique de cette année à San Francisco.

    La déclaration politique des États-Unis contient des lignes directrices non juridiquement contraignantes décrivant les meilleures pratiques pour une utilisation militaire responsable de l’IA, qui peut être un point focal pour la coopération internationale.


    En février, les États-Unis ont présenté leur déclaration politique sur l’utilisation militaire responsable de l’intelligence artificielle et de l’autonomie, un nouveau cadre juridique et diplomatique qui vise à obtenir un consensus mondial sur le développement et le déploiement de l’IA militaire.

    Jusqu’à présent, 36 pays ont soutenu cette initiative et se sont engagés à se réunir l’année prochaine pour étudier les moyens de mettre en œuvre et d’améliorer les nouvelles réglementations en la matière. En octobre, le gouvernement de Biden a annoncé les conditions d’approbation des produits d’IA avancée. En vertu de ces nouvelles règles, ces initiatives doivent être certifiées par le gouvernement fédéral, afin de garantir qu’elles ne puissent pas être réutilisées pour créer des armes biologiques ou nucléaires.

    Dans son rapport de travail présenté lors du congrès national du Parti communiste de l'année dernière, Xi s'est engagé à « favoriser la croissance unifiée et ciblée des industries émergentes stratégiques », en mettant particulièrement l'accent sur l'IA.

    L’engagement des présidents Joe Biden et Xi Jinping à interdire l’utilisation de l’intelligence artificielle dans les armes autonomes est une étape importante pour réglementer l’utilisation de cette technologie dans les conflits armés. Les dangers potentiels de l’IA dans les armes autonomes ont été largement discutés, et il est encourageant de voir que les deux pays les plus puissants du monde prennent des mesures pour limiter son utilisation.

    Cependant, il est important de noter que l’interdiction de l’IA dans les armes autonomes ne résoudra pas tous les problèmes liés à l’utilisation de cette technologie dans les conflits armés. Il est également important de s’assurer que l’utilisation de l’IA dans les armes non autonomes est réglementée de manière responsable.

    En fin de compte, l’utilisation de l’IA dans les conflits armés doit être réglementée de manière responsable pour éviter les dangers potentiels de cette technologie. L’engagement des présidents Biden et Xi à interdire l’utilisation de l’IA dans les armes autonomes est un pas dans la bonne direction, mais il reste encore beaucoup à faire pour garantir que l’IA est utilisée de manière responsable dans les conflits armés.

    Sources : Vidéos

    Et vous ?

    L’interdiction de l’utilisation de l’IA dans les armes autonomes est-elle suffisante pour réglementer l’utilisation de cette technologie dans les conflits armés ?

    Comment peut-on s’assurer que l’utilisation de l’IA dans les armes non autonomes est réglementée de manière responsable ?

    Selon vous, comment peut-on garantir que l’utilisation de l’IA dans les conflits armés est conforme aux normes internationales en matière de droits de l’homme et de droit humanitaire ?

    Voir aussi :

    Intelligence artificielle et armement : l'armée de l'air américaine veut 6 milliards de dollars pour construire 2 000 drones, dotés d'une intelligence artificielle

    Les États-Unis lancent une initiative sur l'utilisation de l'IA à des fins militaire, dans un contexte où la Chine ambitionne de devenir la super puissance du monde en matière d'IA

    Google veut à nouveau travailler avec le Pentagone, malgré les inquiétudes des employés. L'entreprise aurait proposé d'être un fournisseur de cloud militaire
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  6. #26
    Membre extrêmement actif
    Homme Profil pro
    Graphic Programmer
    Inscrit en
    Mars 2006
    Messages
    1 545
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Graphic Programmer
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : Mars 2006
    Messages : 1 545
    Points : 3 940
    Points
    3 940
    Par défaut
    a quoi bon signer un accord ? on sait tres bien qu'il vont continuer a faire comme si de rien n'était . comme pour le nucleaire..

  7. #27
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    9 584
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 9 584
    Points : 18 476
    Points
    18 476
    Par défaut
    Citation Envoyé par Bruno Voir le message
    Selon vous, comment peut-on garantir que l’utilisation de l’IA dans les conflits armés est conforme aux normes internationales en matière de droits de l’homme et de droit humanitaire ?
    C'est impossible de faire respecter quoi que ce soit.
    L'armée US en a strictement rien à foutre de la convention de Genève par exemple.
    L'armée US va continuer d'utiliser des armes interdites.

    Les USA ont lancé 2 bombes atomiques sur des civils, alors que le pays voulait se rendre.
    Les USA ont utilisé du Napalm, du phosphore blanc, de l'agent orange, des munitions à l'uranium appauvri, des balles à pointe creuse, des lance-flammes, des armes biologiques, etc.

    Comme on dit "le vainqueur écrit l'histoire" ça veut dire que le vainqueur va faire croire au monde que les pires saloperies qui ont commises pendant la guerre, l'ont été par le vaincu.
    Ici le plan c'est de gagner la prochaine guerre mondiale et de dire "Salaud de Chinois ils ont utilisé des armes autonomes !".

    Dans le système de pensée de l'armée, quand c'est la guerre il ne faut rien s'interdire. « La fin justifie les moyens ».
    Si tu veux gagner il faut y aller, c'est comme les sportifs, ils sont presque tous dopés. (ça y va les stéroïdes, les hormones de croissance, etc)

    Bref, quand la troisième guerre mondiale aura lieu, il n'y aura pas de limite, à aucun moment ceux qui prennent les décisions vont se dire "cette arme pourrait nous procurer un avantage, malheureusement nous n'avons pas le droit de l'utiliser ".
    Keith Flint 1969 - 2019

  8. #28
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 838
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 838
    Points : 36 223
    Points
    36 223
    Par défaut Le Pentagone accélère l'intégration de l'IA pour maintenir sa compétitivité face à la Chine
    Le Pentagone accélère l'intégration de l'IA pour maintenir sa compétitivité face à la Chine,
    avec des indications selon lesquelles les États-Unis développeront des armes autonomes létales

    Le Pentagone accélère son adoption de l'intelligence artificielle (IA) dans divers domaines militaires. Le projet « Replicator » vise à déployer des milliers de véhicules autonomes dotés d'IA d'ici 2026 pour rester compétitif par rapport à la Chine. L'utilisation actuelle de l'IA comprend le pilotage de drones de surveillance, la maintenance prédictive des avions, la surveillance de l'espace, et même l'aide à la guerre en Ukraine. Cependant, des préoccupations subsistent quant à l'autonomie totale des armes létales, avec des discussions sur la nécessité d'une évaluation formelle des systèmes d'armes autonomes avant leur déploiement. Les progrès de l'IA posent des défis technologiques et éthiques pour le Pentagone, mais les efforts sont en cours pour intégrer ces technologies de manière responsable.

    Replicator met en lumière les défis considérables auxquels le Pentagone est confronté dans le domaine de l'acquisition et du développement, à un moment où la révolution de l'IA promet de redéfinir les modalités de conduite des guerres. Gregory Allen, ancien haut responsable du Pentagone spécialisé dans l'IA et actuellement membre du groupe de réflexion Center for Strategic and International Studies, souligne les difficultés du ministère de la Défense à assimiler les avancées de l'apprentissage automatique.

    Le portefeuille du Pentagone englobe plus de 800 projets non classifiés liés à l'IA, la plupart étant encore en phase d'expérimentation. En général, l'apprentissage automatique et les réseaux neuronaux sont des outils qui aident les humains à acquérir des connaissances et à accroître leur efficacité.

    Missy Cummings, directrice du centre de robotique de l'université George Mason et ancienne pilote de chasse de la marine, souligne que l'IA actuellement utilisée par le ministère de la Défense est étroitement intégrée pour renforcer les capacités humaines. Elle insiste sur le fait qu'il n'y a pas d'IA agissant de manière autonome, mais plutôt que les individus l'utilisent pour mieux comprendre la complexité du champ de bataille.

    Nom : Longshot.jpg
Affichages : 1250
Taille : 9,5 Ko

    Le Longshot, un drone sans pilote actuellement développé par General Atomics en collaboration avec la Defense Advanced Research Project Agency (DARPA) pour être utilisé de concert avec les avions pilotés de l'armée de l'air, a été présenté lors de la conférence Air, Space & Cyber de l'Air & Space Forces Association le 13 septembre 2023 à Oxon Hill, Massachusetts. Les planificateurs du Pentagone envisagent d'incorporer ces drones dans une "équipe homme-machine" pour surpasser un adversaire. Cependant, afin de déployer ces drones sur le terrain, les développeurs devront démontrer la fiabilité et la crédibilité suffisantes de la technologie de l'IA.

    Dans le domaine spatial, nouvel enjeu de la compétition militaire, les outils assistés par l'IA sont déployés pour détecter les menaces potentielles. La Chine explore l'utilisation de l'IA, y compris sur les satellites, pour prendre des décisions sur l'identification des adversaires, comme le souligne Lisa Costa, responsable de la technologie et de l'innovation au sein de la force spatiale américaine, lors d'une récente conférence en ligne.

    Les États-Unis entendent suivre le mouvement

    Un prototype opérationnel appelé Machina, utilisé par l'armée de l'espace, surveille de manière autonome plus de 40 000 objets dans l'espace, en orchestrant des milliers de collectes de données chaque nuit avec un réseau mondial de télescopes. Les algorithmes de Machina rassemblent les capteurs des télescopes. Les modèles de vision par ordinateur et de langage étendu leur indiquent les objets à suivre. L'IA chorégraphie instantanément des dessins à partir d'ensembles de données astrodynamiques et physiques, a expliqué le colonel Wallace "Rhet" Turnbull, du Space Systems Command, lors d'une conférence en août.

    Un autre projet d'IA de l'armée de l'espace analyse les données radar pour détecter les lancements imminents de missiles adverses. Une équipe collaborative du ministère de la Défense a réalisé 12 essais en vol au cours desquels des agents d'intelligence artificielle ont pris les commandes du X-62A (VISTA : Variable Stability In-Flight Simulator Test Aircraft) pour exécuter des manœuvres de chasse avancées à la base aérienne d'Edwards en Californie, du 1er au 16 décembre 2022. Les organisations de soutien comprenaient le centre d'essai de l'armée de l'air américaine, le laboratoire de recherche de l'armée de l'air (AFRL) et la DARPA (l'agence des projets de recherche avancée de la défense). Initialement conçu comme un avion de combat en 1978, le X-62A VISTA a clairement évolué vers un avion autonome.

    Les agents d'IA de l’AACO (Autonomous Air Combat Operations), de l'AFRL et de l’ACE (Air Combat Evolution) ont dirigé le X-62A VISTA de l'école de pilotes d'essai de l'armée de l'air américaine pour effectuer des manœuvres de chasse avancées. Les agents d'IA de l'AACO ont réalisé des engagements individuels au-delà de la portée visuelle (BVR) contre un adversaire simulé, tandis que les agents d'IA de l'ACE ont exécuté des manœuvres à portée visuelle, également connues sous le nom de dogfighting, contre les agents d'IA de l'équipe rouge.

    Au début de décembre 2022, les développeurs d'algorithmes de l'ACE ont installé leur logiciel d'IA dans un avion d'essai F-16 spécialement modifié, le X-62A ou VISTA, à l'école de pilotes d'essai de l'armée de l'air sur la base aérienne d'Edwards en Californie. Ils ont effectué plusieurs vols sur plusieurs jours, démontrant ainsi que les agents d'IA peuvent contrôler un avion de combat grandeur nature et fournir des données de vol en direct, selon un communiqué de presse de la DARPA.

    Les agents d'IA des deux équipes ont exécuté des manœuvres tactiques autonomes tout en respectant les limites de l'espace aérien du monde réel et en optimisant les performances des avions. Ces tests sont basés sur la mise à niveau VISTA du X-62A, permettant au X-62 d'être contrôlé par des algorithmes autonomes pilotés par l'IA, imitant ainsi les caractéristiques de vol d'aéronefs à voilure fixe tels qu'un MQ-20 ou, dans ces tests, un F-16.

    Maintenir les avions et les soldats

    Par ailleurs, les pouvoirs prédictifs de l'IA aident l'armée de l'air à maintenir sa flotte en l'air, en anticipant les besoins de maintenance de plus de 2 600 aéronefs, dont des bombardiers B-1 et des hélicoptères Blackhawk. Les modèles d'apprentissage automatique identifient les défaillances possibles des dizaines d'heures avant qu'elles ne se produisent, a déclaré Tom Siebel, PDG de C3 AI, société basée dans la Silicon Valley, qui a obtenu le contrat. La technologie de C3 AI modélise également la trajectoire des missiles pour l'Agence américaine de défense antimissile et identifie les menaces internes au sein du personnel fédéral pour l'Agence de contre-espionnage et de sécurité de la défense.

    Parmi les efforts liés à la santé, un projet pilote permet de suivre la condition physique de l'ensemble de la troisième division d'infanterie de l'armée de terre, soit plus de 13 000 soldats. La modélisation prédictive et l'intelligence artificielle permettent de réduire les blessures et d'améliorer les performances, a déclaré le major Matt Visser.

    En Ukraine, l'IA fournie par le Pentagone et ses alliés de l'OTAN joue un rôle crucial pour contrer l'agression russe. Les informations partagées entre les alliés comprennent des données collectées par des satellites, des drones et des opérateurs humains, certaines étant agrégées via le logiciel de Palantir. Maven, projet d'IA du Pentagone, initialement axé sur le Moyen-Orient, agrège maintenant une variété étendue de données issues de capteurs et d'opérations humaines.

    Cette IA a également contribué au groupe d'assistance à la sécurité en Ukraine, facilitant la logistique pour l'aide militaire d'une coalition de 40 pays, selon les responsables du Pentagone. Pour améliorer la connectivité entre les combattants, le Pentagone se concentre sur le développement de réseaux de commandement et de contrôle interarmées tous domaines, automatisant le traitement des données dans l'ensemble des services armés. Bien que les progrès soient indéniables, les défis restent importants, notamment dans la nécessité de réformer rapidement les systèmes d'armes pour rester compétitifs avec la Chine.

    Le V-BAT de Shield AI est sélectionné pour remplacer le RQ-7B Shadow dans le programme FTUAS de l’armée américaine

    Nathan Michael, directeur de la technologie chez Shield AI, estime qu'un essaim autonome d'au moins trois aéronefs sans équipage sera prêt dans un an grâce à son drone aérien V-BAT. L'armée américaine utilise actuellement le V-BAT - sans intelligence artificielle - sur les navires de la marine, dans le cadre de missions de lutte contre la drogue et en soutien aux unités expéditionnaires de la marine, indique l'entreprise. Le V-BAT est un drone de reconnaissance à décollage et atterrissage verticaux (VTOL) développé initialement par Martin UAV, actuellement sous l'égide de Shield AI.

    À la fin d'avril 2021, la marine américaine a choisi le V-BAT pour son prototypage et son développement. En février 2022, la société brésilienne VSK Tactical a passé une commande, dont le nombre reste confidentiel, de V-BAT pour des missions de sécurité et de surveillance. Le 21 décembre 2022, un V-BAT et un drone Skyways V2.6B ont réalisé avec succès les premières livraisons de fret sans pilote à un navire de l'US Navy en pleine mer. Chaque drone acheminait une charge de 22,5 kg sur une distance de 200 nm (370 km) jusqu'à un navire en mouvement.

    En mars 2023, l'armée américaine a annoncé la sélection du V-BAT pour concourir dans son programme Future Tactical Unmanned Aircraft System (FTUAS), Increment 2, dans le but de remplacer le RQ-7B Shadow. Shield AI a formé un partenariat avec Northrop Grumman pour cette compétition. Le 9 octobre 2023, Shield AI a révélé que le V-BAT possède désormais une capacité de formation d'essaim de drones.

    Il faudra un certain temps avant que des essaims plus importants puissent être déployés de manière fiable, a déclaré Michael. « Tout se fait en rampant, en marchant, en courant - à moins que l'on ne se prépare à l'échec. » Les seuls systèmes d'armes dont Shanahan, premier responsable de l'IA au Pentagone, estime actuellement qu'ils peuvent fonctionner de manière autonome sont entièrement défensifs, comme les systèmes antimissiles Phalanx installés sur les navires. Il s'inquiète moins des armes autonomes qui prennent des décisions seules que des systèmes qui ne fonctionnent pas comme prévu ou qui tuent des non-combattants ou des forces amies.

    Le Phalanx est un système d'arme avancé, équipé d'un canon à tir rapide, de contrôles informatisés et de guidage radar, conçu pour neutraliser les missiles anti-navires et autres menaces rapprochées aussi bien sur terre que en mer.

    En milieu maritime, les forces navales emploient le Phalanx pour intercepter les missiles antinavires et les menaces qui parviennent à pénétrer les autres lignes de défense. Sur le front terrestre, l'armée américaine exploite ce système pour repérer et contrer les systèmes de roquettes, d'artillerie, et de mortiers. Le Phalanx, en tant que système d'arme, assume des fonctions généralement réparties entre plusieurs systèmes, couvrant la recherche, la détection, l'évaluation de la menace, la poursuite, l'engagement, et l'évaluation de l'efficacité.

    La version Block 1B offre des stations de contrôle supplémentaires, permettant aux opérateurs de suivre et d'identifier visuellement les cibles avant l'engagement. Intégrant un capteur infrarouge prospectif supplémentaire, cette variante peut être employée en mer contre les hélicoptères et les embarcations à grande vitesse, tout en étant utilisée sur terre pour aider à détecter et confirmer les menaces entrantes.

    Déployé sur toutes les catégories de navires de guerre de surface de la marine américaine et de 24 nations alliées, la version terrestre du Phalanx est positionnée en première ligne et a été mise à l'épreuve sur le champ de bataille. Craig Martell, l'actuel responsable du numérique et de l'IA au sein du ministère, est déterminé à éviter que cela ne se produise.

    Les défis de recrutement de talents pour tester les technologies de l’IA au Pentagone

    « Indépendamment de l'autonomie du système, il y aura toujours un agent responsable qui comprend les limites du système, qui s'est bien entraîné avec le système, qui a une confiance justifiée dans le moment et l'endroit où il peut être déployé - et qui prendra toujours la responsabilité », a déclaré Martell, qui a précédemment dirigé l'apprentissage automatique chez LinkedIn et Lyft.

    Quant à savoir quand l'IA sera suffisamment fiable pour une autonomie létale, Martell a déclaré qu'il n'était pas judicieux de généraliser. Par exemple, Martell fait confiance au régulateur de vitesse adaptatif de sa voiture, mais pas à la technologie censée l'empêcher de changer de voie. « En tant qu'agent responsable, je ne déploierais pas ce système, sauf dans des situations très contraignantes », a-t-il déclaré. « Maintenant, extrapolez cela à l'armée ».

    Le bureau de Martell évalue les cas d'utilisation potentiels de l'IA générative - il dispose d'un groupe de travail spécial à cet effet - mais se concentre davantage sur les tests et l'évaluation de l'IA en cours de développement. Jane Pinelis, ingénieur en chef de l'IA au laboratoire de physique appliquée de l'université Johns Hopkins et ancienne responsable de l'assurance de l'IA au sein du bureau de Martell, estime que l'un des défis les plus urgents est de recruter et de conserver les talents nécessaires pour tester les technologies de l'IA. Le Pentagone ne peut pas rivaliser en matière de salaires. Les titulaires d'un doctorat en informatique possédant des compétences liées à l'IA peuvent gagner plus que les généraux et amiraux les plus gradés de l'armée.

    Dans sa quête d'intégration de l'IA de manière responsable, le Pentagone est confronté à des défis technologiques et éthiques. L'adoption de ces technologies nécessite une approche réfléchie et des protocoles stricts pour garantir un usage conforme aux normes éthiques et légales. En fin de compte, le Pentagone est présenté comme travaillant à l'équilibre entre l'avancement technologique nécessaire et la prise en compte des implications éthiques associées à l'IA dans le contexte militaire.

    Source : U.S. Department of Defense

    Et vous ?

    Quels sont les avantages et les inconvénients de l’utilisation de l’IA dans les domaines militaires ?

    Comment le projet Replicator du Pentagone se compare-t-il aux initiatives similaires de la Chine ?

    Voir aussi :

    Intelligence artificielle et armement : les présidents Joe Biden et Xi Jinping s'engagent à interdire l'IA dans les armes autonomes, telles que les drones et le contrôle des ogives nucléaires

    Intelligence artificielle et armement : l'armée de l'air américaine veut 6 milliards de dollars pour construire 2 000 drones, dotés d'une intelligence artificielle

    Une IA pilote avec succès un avion de chasse F-16 américain, l'avion de chasse qui a été présenté pour la première fois en 1978 semble avoir évolué vers un avion autonome
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  9. #29
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    885
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 885
    Points : 61 984
    Points
    61 984
    Par défaut Le Pentagone étudie les utilisations militaires des grands modèles de langage
    Le Pentagone étudie les utilisations militaires des grands modèles de langage (LLM), qui peuvent soutenir et potentiellement perturber la planification et la prise de décision militaires

    Scale AI définira la voie à suivre par le Pentagone pour tester et évaluer les grands modèles de langage. L'entreprise créera un cadre complet de test et d'évaluation pour l'IA générative au sein du ministère de la défense.

    Le Chief Digital and Artificial Intelligence Office (CDAO) du Pentagone a demandé à Scale AI de produire un moyen fiable de tester et d'évaluer les grands modèles de langage qui peuvent soutenir - et potentiellement perturber - la planification et la prise de décision militaires.

    Selon une déclaration que la société basée à San Francisco a communiquée, les résultats de ce nouveau contrat d'un an fourniront au CDAO "un cadre permettant de déployer l'IA en toute sécurité en mesurant les performances des modèles, en offrant un retour d'information en temps réel aux combattants et en créant des ensembles d'évaluation spécialisés pour le secteur public afin de tester les modèles d'IA pour des applications de soutien militaire, telles que l'organisation des conclusions des rapports d'action après coup".

    Les grands modèles de langage et le domaine général de l'IA générative comprennent des technologies émergentes qui peuvent générer (de manière convaincante mais pas toujours précise) du texte, du code logiciel, des images et d'autres médias, sur la base d'instructions données par l'homme. Ce domaine en évolution rapide est très prometteur pour le ministère de la défense, mais il pose également des défis potentiels inconnus et sérieux. L'année dernière, les dirigeants du Pentagone ont lancé la Task Force Lima au sein de la direction de la guerre algorithmique du CDAO afin d'accélérer la compréhension, l'évaluation et le déploiement de l'intelligence artificielle générative par ses composantes.

    Le ministère s'appuie depuis longtemps sur des processus de test et d'évaluation (T&E) pour évaluer et garantir que ses systèmes, plateformes et technologies fonctionnent de manière sûre et fiable avant d'être entièrement mis en service. Mais les normes et les politiques de sécurité de l'IA n'ont pas encore été fixées de manière universelle, et les complexités et incertitudes associées aux grands modèles de langage rendent les essais et évaluations encore plus compliqués lorsqu'il s'agit de l'IA générative.


    D'une manière générale, le T&E permet aux experts de déterminer les performances de base d'un modèle spécifique. Par exemple, pour tester et évaluer un algorithme de vision artificielle qui différencie les images de chiens et de chats de celles d'objets qui ne sont ni des chiens ni des chats, un fonctionnaire peut d'abord l'entraîner avec des millions d'images différentes de ce type d'animaux ainsi que d'objets qui ne sont ni des chiens ni des chats. Ce faisant, l'expert retiendra également un sous-ensemble diversifié de données qui pourra ensuite être présenté à l'algorithme. Il peut ensuite évaluer cet ensemble de données d'évaluation par rapport à l'ensemble de test, ou "vérité de base", et finalement déterminer les taux d'échec lorsque le modèle n'est pas en mesure de déterminer si un objet est ou n'est pas l'un des classificateurs qu'il tente d'identifier.

    Les experts de Scale AI adopteront une approche similaire pour le contrôle et l'évaluation des grands modèles de langage, mais comme ils sont génératifs par nature et que la langue anglaise peut être difficile à évaluer, il n'y a pas le même niveau de "vérité de terrain" pour ces systèmes complexes. Par exemple, si l'on demande à un LLM de fournir cinq réponses différentes, il se peut que les faits soient généralement exacts dans les cinq cas, mais que des structures de phrases différentes modifient le sens de chaque réponse.

    Ainsi, une partie des efforts de l'entreprise pour développer le cadre, les méthodes et la technologie que le CDAO peut utiliser pour tester et évaluer de grands modèles de langage consistera à créer des "ensembles de données d'attente" - où ils incluent des initiés de la DOD pour demander des paires de réponses et les évaluer par couches d'examen, et s'assurer que chaque réponse est aussi bonne que celle que l'on attendrait d'un humain dans l'armée. L'ensemble du processus sera itératif par nature. Une fois que les ensembles de données relatifs à la connaissance du monde, à la véracité et à d'autres sujets auront été constitués et affinés, les experts pourront évaluer les grands modèles de langage existants par rapport à ces ensembles.

    À terme, lorsqu'ils disposeront de ces ensembles de données, les experts seront en mesure de procéder à des évaluations et d'établir des fiches de modèle - ou de courts documents fournissant des détails sur le contexte d'utilisation optimale de divers modèles d'apprentissage automatique et des informations permettant de mesurer leurs performances. Les responsables prévoient d'automatiser autant que possible ce développement, de sorte qu'au fur et à mesure que de nouveaux modèles arriveront, il sera possible d'avoir une compréhension de base de leurs performances, des domaines dans lesquels ils seront les plus performants et de ceux dans lesquels ils commenceront probablement à échouer.

    Plus loin dans le processus, l'objectif ultime est que les modèles envoient essentiellement des signaux aux responsables des CDAO qui les utilisent, s'ils commencent à s'écarter des domaines pour lesquels ils ont été testés.

    "Ce travail permettra au ministère de la défense de faire évoluer ses politiques d'essais et d'évaluation pour prendre en compte l'IA générative en mesurant et en évaluant les données quantitatives par le biais de l'analyse comparative et en évaluant le retour d'information qualitatif de la part des utilisateurs. Les paramètres d'évaluation aideront à identifier les modèles d'IA générative qui sont prêts à soutenir les applications militaires avec des résultats précis et pertinents en utilisant la terminologie et les bases de connaissances du ministère de la défense. Le processus rigoureux de T&E vise à améliorer la robustesse et la résilience des systèmes d'IA dans des environnements classifiés, permettant l'adoption de la technologie LLM dans des environnements sécurisés", indique la déclaration de Scale AI.

    Outre le CDAO, l'entreprise a également établi des partenariats avec Meta, Microsoft, l'armée américaine, la Defense Innovation Unit, OpenAI, General Motors, Toyota Research Institute, Nvidia et d'autres. "Tester et évaluer l'IA générative aidera le DoD à comprendre les forces et les limites de la technologie, afin qu'elle puisse être déployée de manière responsable. Scale est honoré de s'associer au DoD sur ce cadre", a déclaré Alexandr Wang, fondateur et PDG de Scale AI, dans le communiqué.

    Source : Scale AI

    Et vous ?

    Pensez-vous que cet accord est crédible ou pertinent ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Le Pentagone accélère l'intégration de l'IA pour maintenir sa compétitivité face à la Chine, avec des indications selon lesquelles les États-Unis développeront des armes autonomes létales

    Intelligence artificielle et armement : les présidents Joe Biden et Xi Jinping s'engagent à interdire l'IA dans les armes autonomes, telles que les drones et le contrôle des ogives nucléaires

    Les États-Unis lancent une initiative sur l'utilisation de l'IA à des fins militaire, dans un contexte où la Chine ambitionne de devenir la super puissance du monde en matière d'IA
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  10. #30
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 838
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 838
    Points : 36 223
    Points
    36 223
    Par défaut Des essaims de « robots tueurs » équipés d'IA constitueraient l'avenir de la guerre
    Des essaims de « robots tueurs » équipés d'IA constitueraient l'avenir de la guerre,
    ces systèmes d'armes étant capables de prendre des décisions de manière autonome, sans supervision humaine

    L'émergence de « robots tueurs » autonomes dotés d'intelligence artificielle (IA), qui pourraient révolutionner le paysage de la guerre préocupe. Ces systèmes d'armes automatisés, en cours de développement par les grandes puissances telles que les États-Unis, sont capables de prendre des décisions létales de manière autonome, sans supervision humaine. Les premiers équivalents de ces « robots tueurs » ont déjà été déployés sur des champs de bataille en Ukraine et à Gaza, démontrant leur efficacité et leur potentiel destructeur.

    L'utilisation de drones autonomes, de navires sans pilote et de véhicules terrestres autonomes soulève des préoccupations éthiques et de sécurité. La capacité de ces machines à faire la distinction entre combattants et civils sur le champ de bataille est remise en question, suscitant des inquiétudes quant aux violations du droit humanitaire international. Certains pays, notamment les États-Unis, envisagent de réglementer strictement l'utilisation de ces armes, tandis que d'autres cherchent à les interdire complètement.


    Une approche alternative envisage la formation d'essaims de robots interconnectés, capables de communiquer entre eux et de prendre collectivement des décisions tactiques. Cependant, le rapport met en garde contre les risques liés à des comportements émergents, où ces machines pourraient agir de manière imprévisible et potentiellement dangereuse, échappant au contrôle humain. Ces comportements émergents pourraient entraîner des conséquences graves, telles que des actes d'escalade non intentionnels, la destruction d'infrastructures civiles ou des interférences avec des opérations militaires cruciales.

    Nom : IA Tueur.jpg
Affichages : 6606
Taille : 77,4 Ko

    Malgré les assurances des responsables américains quant à la capacité de contrôler ces armes autonomes, le rapport souligne la nécessité de prendre des mesures pour réduire les risques potentiels associés à leur utilisation. Le débat sur l'utilisation de ces dispositifs se concentre principalement sur la question de savoir s'ils peuvent être habilités à prendre des vies humaines sans surveillance humaine, suscitant des inquiétudes au sein de la société civile et des organisations religieuses.

    Les experts mettent en garde contre les dangers potentiels de comportements émergents qui pourraient échapper au contrôle humain, entraînant des conséquences imprévisibles et potentiellement dévastatrices sur le champ de bataille. La nécessité d'une réglementation stricte et de mesures visant à réduire les risques est soulignée, tout en soulignant que l'humanité doit rester vigilante face à l'évolution rapide de la technologie militaire.

    En août dernier, le département de la Défense des États-Unis a pris l'engagement de recourir à l'Intelligence Artificielle de manière responsable. Afin d'atteindre cet objectif, les développeurs et utilisateurs de systèmes autonomes basés sur l'IA doivent collaborer étroitement avec des experts en acquisition. L'armée de l'air américaine prévoit d'investir environ 5,8 milliards de dollars dans la construction de jusqu'à 2 000 drones sans pilote équipés d'intelligence artificielle, destinés à opérer en tandem avec des pilotes humains. Ces drones, appelés Valkyrie, sont conçus pour des missions telles que la surveillance, le réapprovisionnement, et la possibilité de former des essaims pour coopérer avec des pilotes humains, chaque drone étant évalué à environ 3 millions de dollars.

    Le général de brigade Scott Cain, commandant de l'AFRL, a souligné l'importance de l'IA dans les futures opérations militaires, déclarant que « l'IA sera un élément essentiel de la future guerre et de la vitesse à laquelle nous devrons comprendre l'image opérationnelle et prendre des décisions ». Il a également souligné que l'IA, les opérations autonomes, et les équipes homme-machine évoluent rapidement, nécessitant une collaboration coordonnée entre les partenaires gouvernementaux, universitaires, et industriels.

    Le projet vise à développer des « avions de combat collaboratifs » qui amélioreront les systèmes d'armes avec équipage pour assurer la supériorité aérienne. Cependant, le Congrès doit encore approuver le budget de 5,8 milliards de dollars sur cinq ans alloué à la construction de cette flotte de drones. Plus tôt dans le mois, le colonel Tucker Hamilton du département de l'armée de l'air a annoncé avec succès le premier vol contrôlé par l'IA du drone XQ-58A Valkyrie, un événement historique.

    Le 25 juillet 2023, le laboratoire de recherche de l'armée de l'air a réalisé un vol réussi de trois heures, démontrant le premier vol d'agents d'intelligence artificielle contrôlant le drone sans pilote XQ-58A Valkyrie. Cette réalisation découle de deux années de collaboration débutée avec le programme Skyborg Vanguard.

    Le colonel Tucker Hamilton a expliqué que cette mission avait testé avec succès un cadre de sécurité multicouche sur un drone piloté par l'IA/ML, démontrant ainsi la capacité d'un agent d'IA/ML à résoudre des problèmes tactiques lors d'opérations aéroportées. Cette sortie ouvre la voie au développement d'agents d'IA/ML capables d'exécuter des compétences air-air et air-surface modernes, immédiatement transférables au programme CCA. Les algorithmes ont été développés par l'équipe AFRL Autonomous Air Combat Operations, perfectionnés au cours de millions d'heures de simulation et d'événements d'essais sur le terrain.

    L'année dernière, les médias ont rapporté que les présidents Joe Biden et Xi Jinping étaient sur le point de s'engager à interdire l'utilisation de l'intelligence artificielle dans les armes autonomes, telles que les drones, ainsi que dans le contrôle et le déploiement des ogives nucléaires. Les risques associés à l'intelligence artificielle devraient être au centre des discussions entre les États-Unis et la Chine, qui se déroulent en marge du sommet de la Coopération économique Asie-Pacifique de cette année à San Francisco. Les deux nations ont exprimé leur préoccupation quant à l'utilisation non réglementée de cette technologie dans les conflits.

    Alors que l'Armée populaire de libération (APL) chinoise aspire à devenir une « armée de classe mondiale », ses progrès dans les systèmes d'armes avancés suscitent des inquiétudes parmi ses voisins et concurrents. L'industrie de la défense chinoise a effectué d'importants investissements dans l'intelligence artificielle (IA).

    Selon les informations disponibles publiquement, la direction que prend l'Armée populaire de libération dans le développement et l'utilisation de systèmes d'armes autonomes dotés d'IA/ML demeure incertaine. La maturité de ces capacités, ainsi que la question de savoir si, quand et dans quelle mesure des systèmes d'armes avec un haut niveau d'autonomie ont été déployés, ne peuvent actuellement être évaluées avec une grande confiance.

    Cependant, alors que la compétition technologique devient un élément clé de la rivalité entre grandes puissances, il est évident que l'armée et l'industrie de la défense chinoises sont activement engagées dans la recherche, le développement et l'expérimentation. Les progrès de la Chine dépendront de sa capacité à opérationnaliser ces systèmes émergents, impliquant la résolution des défis technologiques, organisationnels, d'essais, de formation et de concepts opérationnels actuels.

    Les avancées chinoises en autonomie et en systèmes d'armes dotés d'IA pourraient influencer l'équilibre militaire et accroître les menaces pour la sécurité mondiale et la stabilité stratégique à mesure que la rivalité entre grandes puissances s'intensifie. En cherchant à obtenir un avantage technologique, l'armée chinoise pourrait être tentée de déployer des systèmes d'armes non testés, peu fiables ou insuffisamment sécurisés dans des conditions opérationnelles réelles.

    L'épineuse question des « robots tueurs » : entre sécurité et préoccupations éthiques

    En unissant les avancées de l'intelligence artificielle et de la robotique, les forces armées américaines, ainsi que d'autres puissances, sont actuellement engagées dans le développement intensif de systèmes d'armes autonomes et autoguidés. Ces dispositifs, qualifiés de « robots tueurs » par les critiques, englobent divers engins tels que des avions, des chars, des navires et des sous-marins sans équipage, conçus pour opérer de manière autonome. Parmi les projets en cours, l'armée de l'air américaine travaille sur un « avion de combat collaboratif », un drone aérien destiné à participer à des missions à haut risque en tandem avec des avions pilotés. De même, l'armée de terre teste des véhicules terrestres autonomes sans pilote, tandis que la marine explore des navires de surface et des sous-marins sans pilote.

    L'émergence imminente de ces engins automatisés suscite des inquiétudes et des controverses mondiales. Certains pays cherchent déjà à les interdire complètement, tandis que d'autres, comme les États-Unis, envisagent de ne permettre leur utilisation que dans des conditions strictement supervisées par des humains. À Genève, un groupe d'États a tenté d'interdire ces armes autonomes en se basant sur un traité des Nations unies datant de 1980, la Convention sur certaines armes classiques, visant à réguler les munitions non nucléaires jugées particulièrement dangereuses pour les civils. Parallèlement, l'Assemblée générale des Nations unies a entamé des discussions sur les armes autonomes à New York, avec un examen complet prévu à l'automne.

    Le débat sur l'utilisation de ces dispositifs sur le champ de bataille se concentre principalement sur la question de leur habilitation à prendre des vies humaines sans surveillance directe. Des organisations religieuses et de la société civile soutiennent l'interdiction de ces systèmes, craignant leur incapacité à distinguer les combattants des civils, une préoccupation conforme au droit humanitaire international. Les responsables américains, quant à eux, soutiennent que ces armes peuvent être conçues pour respecter les contraintes légales.

    Une préoccupation sous-jacente, non encore abordée dans le débat, concerne la possibilité future de communication autonome entre ces machines intelligentes, leur permettant d'élaborer leurs propres tactiques sans intervention humaine. Ce concept de « comportement émergent », défini par les informaticiens, expose à divers dangers non encore pris en compte par les responsables à Genève, Washington ou aux Nations unies. Actuellement, la plupart des armes autonomes développées par l'armée américaine sont des versions sans pilote des plates-formes existantes, opérant en coordination avec des équivalents pilotés, au sein d'équipes de combat « en réseau », supervisées par des commandants humains.

    Les risques inexplores des systemes d'armes autonomes : mises en garde d'experts

    Les responsables militaires et diplomatiques de haut niveau aux États-Unis insistent sur la possibilité d'utiliser l'intelligence artificielle sans courir de risques futurs, affirmant que le pays se limitera à des dispositifs intégrant des protections adéquates contre tout comportement potentiellement dangereux. Cet engagement est au cœur de la « Déclaration politique sur l'utilisation militaire responsable de l'intelligence artificielle et de l'autonomie » émise par le département d'État en février 2023. Néanmoins, des experts en sécurité et technologie de renom restent prudents face aux risques liés aux comportements émergents des futures armes robotiques, continuant de mettre en garde contre une adoption précipitée de l'IA dans les conflits.

    Le rapport final de la Commission de sécurité nationale sur l'intelligence artificielle, paru en février 2021, présente un intérêt particulier. Sous la coprésidence de Robert Work, récemment revenu au CNAS après son service au Pentagone, et d'Eric Schmidt, ancien PDG de Google, la commission a préconisé l'adoption rapide de l'IA par l'armée américaine pour assurer la victoire dans de futurs conflits avec la Chine et/ou la Russie. Cependant, elle a également émis des inquiétudes quant aux dangers potentiels d'une saturation des champs de bataille par des robots.

    Le rapport souligne que l'utilisation mondiale incontrôlée de ces systèmes pourrait entraîner une escalade involontaire des conflits et une instabilité des crises. Les interactions complexes entre les systèmes d'armes autonomes et l'IA sur le champ de bataille, notamment les comportements émergents, posent des problèmes non testés. Face à ces dangers, le rapport conclut que les pays doivent prendre des mesures pour réduire les risques associés à ces systèmes.

    Lorsque les principaux défenseurs des armes autonomes soulèvent des préoccupations quant aux dangers involontaires de leur utilisation sur le champ de bataille, cela devrait susciter une réelle inquiétude chez le reste d'entre nous. Même pour ceux qui ne possèdent pas les compétences mathématiques nécessaires pour comprendre le comportement émergent de l'IA, il est évident que l'humanité pourrait être confrontée à un risque significatif si des machines à tuer acquièrent la capacité de penser par elles-mêmes. Bien que l'idée de leur adoption en tant que gardiens de la paix puisse surprendre, leur conception axée sur le combat et le meurtre les incline plutôt à exécuter ces instructions de manière indépendante et extrême.

    L'émergence des « robots tueurs » autonomes munis d'intelligence artificielle suscite des inquiétudes quant aux répercussions potentielles sur le paysage de la guerre. Ces armes automatisées, développées par des puissances majeures telles que les États-Unis, sont capables de prendre des décisions létales de manière indépendante, soulevant des préoccupations éthiques et de sécurité. Le déploiement initial de ces engins en Ukraine et à Gaza souligne leur efficacité, mais soulève des questions sur leur capacité à distinguer entre combattants et civils, suscitant des inquiétudes liées aux violations du droit humanitaire international.


    L'utilisation de drones, navires et véhicules autonomes soulève des débats sur la nécessité de réglementer strictement leur usage. Certains pays envisagent des restrictions, voire une interdiction totale, tandis que d'autres cherchent à les exploiter de manière stratégique. Une approche alternative propose la formation d'essaims de robots interconnectés, mais cela comporte des risques liés à des comportements émergents imprévisibles.

    Malgré les assurances quant au contrôle de ces armes, le rapport souligne les risques potentiels et appelle à des mesures pour les atténuer. Le débat s'intensifie sur la question de permettre à ces dispositifs de prendre des vies humaines sans surveillance humaine, soulevant des préoccupations au sein de la société civile et des organisations religieuses. Les experts mettent en garde contre les dangers des comportements émergents, soulignant la nécessité d'une réglementation stricte et de mesures de réduction des risques. Alors que les forces armées s'efforcent de développer des armes autonomes, le rapport appelle à une vigilance continue face à l'évolution rapide de la technologie militaire.

    Sources : AFT, UNODA, U.S. Department of State Human Rights Watch

    Et vous ?

    Quel est votre avis sur le sujet ?

    Voir aussi :

    Intelligence artificielle et armement : l'armée de l'air américaine veut 6 milliards de dollars pour construire 2 000 drones, dotés d'une intelligence artificielle

    Les robots de la police de San Francisco sont autorisés à tuer dans des situations dangereuses, selon un projet de politique approuvé à l'unanimité par le conseil de surveillance de la ville

    San Francisco va permettre à la police de déployer des robots capables de tuer des humains et ravive le débat mondial sur la possibilité d'une utilisation éthique de tels outils
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  11. #31
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 838
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 838
    Points : 36 223
    Points
    36 223
    Par défaut Les plus grands scientifiques chinois et occidentaux de l'IA publient une déclaration commune
    Les plus grands scientifiques chinois et occidentaux de l'IA publient une déclaration commune :
    la menace existentielle que représente l'IA nécessite une collaboration similaire à celle de la guerre froide

    Des experts en intelligence artificielle, tant occidentaux que chinois, ont conjointement établi des « lignes rouges » pour circonscrire les dangers potentiels inhérents à l'IA, définissant ainsi les territoires à ne pas franchir pour éviter des risques existentiels. Réunis à Pékin lors d'une rencontre récente, ces scientifiques ont exprimé un avertissement grave, soulignant la nécessité d'une collaboration mondiale similaire à celle observée pendant la guerre froide pour prévenir des scénarios critiques, comparables à ceux des conflits nucléaires. Les experts ont identifié des domaines sensibles tels que la création d'armes biologiques et les cyberattaques comme des points de vigilance essentiels dans le développement de l'IA.

    Cette déclaration, appuyée par des personnalités éminentes telles que Geoffrey Hinton, Yoshua Bengio, Stuart Russell et Andrew Yao, intervient après un dialogue international sur la sécurité de l'IA, où des représentants du gouvernement chinois étaient également présents, laissant ainsi envisager un soutien tacite de l'État. L'engagement des présidents américain et chinois dans ce domaine, ainsi que la participation de plusieurs nations et entreprises majeures de l'IA à des initiatives de coopération internationale, soulignent l'importance de cette déclaration dans la quête d'une gouvernance responsable de l'IA face aux enjeux existentiels.

    Nom : usachine.jpg
Affichages : 332744
Taille : 38,9 Ko

    Lors d'une réunion qui s'est tenue à Pékin la semaine dernière, des experts occidentaux et chinois de l'IA ont lancé un avertissement sévère : pour faire face aux menaces associées à une technologie puissante, il faut une coopération mondiale équivalente aux efforts déployés pendant la guerre froide pour éviter les guerres nucléaires.

    Le groupe de scientifiques internationaux spécialisés dans l'IA a identifié des « lignes rouges » dans le développement de l'IA, notamment la création d'armes biologiques et le lancement de cyberattaques. Comme l'a rapporté le Financial Times dans les jours qui ont suivi la conférence, les universitaires ont averti qu'une approche collaborative de la sécurité de l'IA était nécessaire pour éviter « des risques catastrophiques, voire existentiels, pour l'humanité au cours de notre vie ». Au plus profond de la guerre froide, la coordination scientifique et gouvernementale internationale a permis d'éviter une catastrophe thermonucléaire. L'humanité doit à nouveau se coordonner pour éviter une catastrophe qui pourrait résulter d'une technologie sans précédent », indique la déclaration.

    Parmi les signataires de la déclaration figurent d'éminents experts tels que Geoffrey Hinton et Yoshua Bengio, lauréats du prix Turing et considérés comme les "parrains de l'IA", Stuart Russell, professeur d'informatique à l'université de Californie (Berkeley), et Andrew Yao, l'un des chercheurs en informatique les plus renommés de Chine. Ces remarques acerbes font suite au « Dialogue international sur la sécurité de l'IA » qui s'est tenu à Pékin la semaine dernière et auquel ont participé des représentants du gouvernement chinois, ce qui laisse supposer un soutien tacite du gouvernement à la conférence et à ses thèmes.

    Sécurité de l'intelligence artificielle : Dialogue international sur la sécurisation de l'IA

    L'intelligence artificielle est de plus en plus populaire, et les grandes entreprises technologiques du monde entier investissent massivement pour s'imposer dans ce domaine hautement concurrentiel. À mesure que l'IA entre dans nos vies, les protocoles et les mesures de sécurité se retrouvent sous les feux de la rampe. Liu Xinqing en dit plus.

    Le dialogue international de Pékin 2024 sur la sécurité de l'IA, le premier du genre organisé en Chine, a été organisé dans un contexte d'attention croissante du public à l'égard de la sécurité de l'IA. Le dialogue réunit des scientifiques du monde entier pour collaborer à l'atténuation des risques associés à l'intelligence artificielle. Les experts participant à la réunion ont convenu que les percées réalisées par les grands modèles l'ont été essentiellement par des moyens empiriques. Toutefois, les mécanismes de génération et d'émergence de l'intelligence qui les sous-tendent ne sont pas encore clairs.

    La croissance rapide de l'intelligence artificielle s'accompagne d'une augmentation des risques d'utilisation abusive. La communauté internationale en sait encore très peu sur la manière de construire un système d'intelligence artificielle sûr, ce qui représente un défi pour l'humanité dans son ensemble. YOSHUA BENGIO Lauréat du prix Turing « La science ne sait pas comment s'assurer que ces futurs systèmes d'intelligence artificielle, que nous appelons AGI, sont sûrs. Nous devrions commencer à travailler dès maintenant sur des solutions scientifiques et politiques à ce problème. »

    HU TIEJUN Président de l'Académie d'intelligence artificielle de Pékin « La sécurisation de l'intelligence artificielle est une nécessité absolue. Les experts, les gouvernements, les organisations internationales et même les Nations unies se concentrent sur cette question. Je pense que cette réunion est l'occasion pour les experts de l'industrie de discuter des moyens techniques et des mesures visant à garantir la sécurité de l'intelligence artificielle. Cela permettra également de faire progresser nos travaux de recherche sur la sécurité de l'IA ».

    Le forum est parvenu à un consensus préliminaire sur la recherche technologique mondiale en matière de sécurité de l'IA, la pratique industrielle et la gouvernance. Il espère également établir en Chine un dialogue international et un mécanisme d'échange pour la sécurité de l'IA, afin de promouvoir le développement sain et durable de l'intelligence artificielle mondiale.

    Le président américain Joe Biden et le président chinois Xi Jinping ont convenu d'ouvrir une discussion sur la sécurité de l'IA lors de leur rencontre à San Francisco en novembre. Au début du mois de novembre, la Chine et les États-Unis faisaient partie des 28 pays accueillis par le Premier ministre britannique Rishi Sunak pour le premier sommet sur la sécurité de l'IA, au cours duquel les principales entreprises d'IA se sont engagées à collaborer pour faire face aux risques existentiels posés par l'IA avancée.

    Compte rendu de la rencontre entre le président Joe Biden et le président Xi Jinping de la République populaire de Chine

    Le président Joseph R. Biden Jr. a tenu le 15 novembre 2023 un sommet avec le président Xi Jinping de la République populaire de Chine (RPC), à Woodside, en Californie. Les deux dirigeants ont eu une discussion franche et constructive sur une série de questions bilatérales et mondiales, notamment sur les domaines de coopération potentielle, et ont échangé leurs points de vue sur les domaines de divergence.

    Le président Biden a souligné que les États-Unis et la Chine sont en concurrence, notant que les États-Unis continueraient à investir dans les sources de la force américaine à l'intérieur du pays et à s'aligner sur les alliés et les partenaires dans le monde entier. Il a souligné que les États-Unis défendraient toujours leurs intérêts, leurs valeurs, leurs alliés et leurs partenaires. Il a réaffirmé que le monde attendait des États-Unis et de la Chine qu'ils gèrent la concurrence de manière responsable afin d'éviter qu'elle ne débouche sur un conflit, une confrontation ou une nouvelle guerre froide.

    Les deux dirigeants ont progressé sur un certain nombre de questions clés. Ils se sont félicités de la reprise de la coopération bilatérale pour lutter contre la fabrication et le trafic de drogues illicites à l'échelle mondiale, y compris les drogues synthétiques comme le fentanyl, et de la création d'un groupe de travail pour une communication permanente et une coordination des services répressifs sur les questions liées à la lutte contre les stupéfiants. Le président Biden a souligné que cette nouvelle étape fera progresser les efforts déployés par l'ensemble du gouvernement américain pour contrer la menace croissante des drogues synthétiques illicites et pour réduire le détournement des précurseurs chimiques et des presses à comprimés vers les cartels de la drogue.

    Les deux dirigeants se sont félicités de la reprise des communications entre militaires de haut niveau, ainsi que des pourparlers de coordination de la politique de défense entre les États-Unis et la Chine et des réunions de l'accord consultatif militaire maritime entre les États-Unis et la Chine. Les deux parties reprennent également les conversations téléphoniques entre les commandants de théâtre.

    Les dirigeants ont affirmé la nécessité de faire face aux risques liés aux systèmes d'IA avancés et d'améliorer la sécurité de l'IA dans le cadre des discussions gouvernementales sino-américaines.

    Les deux dirigeants ont échangé leurs points de vue sur les principaux défis régionaux et mondiaux. Le président Biden a souligné le soutien des États-Unis à une région indo-pacifique libre et ouverte, connectée, prospère, sûre et résiliente. Le président a réaffirmé l'engagement sans faille des États-Unis à défendre leurs alliés de la région indo-pacifique. Le président a souligné l'engagement durable des États-Unis en faveur de la liberté de navigation et de survol, du respect du droit international, du maintien de la paix et de la stabilité en mer de Chine méridionale et orientale, et de la dénucléarisation complète de la péninsule coréenne.

    Le président Biden a réaffirmé que les États-Unis, aux côtés de leurs alliés et partenaires, continueront à soutenir la défense de l'Ukraine contre l'agression russe, afin que l'Ukraine sorte de cette guerre en tant que nation démocratique, indépendante, souveraine et prospère, capable de dissuader et de se défendre contre de futures agressions. En ce qui concerne le conflit entre Israël et le Hamas, le président a réitéré le soutien des États-Unis au droit d'Israël de se défendre contre le terrorisme et a souligné l'importance pour tous les pays d'user de leur influence pour empêcher l'escalade et l'extension du conflit.

    Le président Biden a souligné l'universalité des droits de l'homme et la responsabilité de toutes les nations de respecter leurs engagements internationaux en matière de droits de l'homme. Il a fait part de ses préoccupations concernant les violations des droits de l'homme commises par la RPC, notamment au Xinjiang, au Tibet et à Hong Kong. En ce qui concerne Taïwan, le président Biden a souligné que notre politique d'une seule Chine n'a pas changé et qu'elle a été cohérente au fil des décennies et des administrations. Il a réaffirmé que les États-Unis s'opposent à toute modification unilatérale du statu quo de la part de l'une ou l'autre partie, que nous attendons que les différends entre les deux rives du détroit soient résolus par des moyens pacifiques et que le monde a intérêt à ce que la paix et la stabilité règnent dans le détroit de Taïwan. Il a appelé la RPC à faire preuve de retenue dans ses activités militaires à l'intérieur et autour du détroit de Taïwan.

    Le président Biden a également fait part de ses préoccupations constantes concernant les politiques commerciales déloyales de la RPC, ses pratiques économiques non commerciales et ses actions punitives à l'encontre des entreprises américaines, qui nuisent aux travailleurs et aux familles des États-Unis. Le président a souligné que les États-Unis continueront à prendre les mesures nécessaires pour empêcher que des technologies américaines avancées ne soient utilisées pour porter atteinte à leur propre sécurité nationale, sans pour autant limiter indûment le commerce et l'investissement.

    Le président a une nouvelle fois souligné que la résolution des cas de citoyens américains détenus à tort ou soumis à des interdictions de sortie du territoire en Chine restait une priorité. Les deux dirigeants ont réaffirmé l'importance des liens entre les peuples des États-Unis et de la République populaire de Chine et se sont engagés à œuvrer en faveur d'une nouvelle augmentation significative des vols réguliers de passagers au début de l'année prochaine, parallèlement à des actions visant à rétablir la pleine mise en œuvre de l'accord de transport aérien entre les États-Unis et la Chine, afin de soutenir les échanges entre les deux pays. Les deux dirigeants ont également encouragé l'expansion des échanges dans les domaines de l'éducation, des étudiants, de la jeunesse, de la culture, du sport et des affaires.

    Les deux dirigeants ont souligné l'importance de travailler ensemble pour accélérer les efforts de lutte contre la crise climatique au cours de cette décennie critique. Ils se sont félicités des discussions positives qui ont eu lieu récemment entre leurs envoyés spéciaux respectifs pour le climat, notamment sur les mesures nationales visant à réduire les émissions dans les années 2020, sur les approches communes à adopter pour assurer le succès de la COP 28 et sur la mise en place du groupe de travail sur le renforcement de l'action climatique dans les années 2020 afin d'accélérer la mise en œuvre de mesures concrètes en faveur du climat. Le président Biden a déclaré que les États-Unis étaient prêts à collaborer avec la RPC pour relever les défis transnationaux, tels que la sécurité sanitaire, la dette et le financement du climat dans les pays en développement et les marchés émergents.

    S'appuyant sur la réunion de novembre 2022 à Bali, au cours de laquelle ils ont discuté de l'élaboration de principes relatifs aux relations entre les États-Unis et la Chine, les deux dirigeants ont reconnu les efforts déployés par leurs équipes respectives pour explorer les meilleures pratiques en matière de relations. Ils ont souligné l'importance d'une gestion responsable des aspects concurrentiels des relations, de la prévention des conflits, du maintien de lignes de communication ouvertes, de la coopération dans des domaines d'intérêt commun, du respect de la charte des Nations unies, et du fait que tous les pays se traitent mutuellement avec respect et trouvent un moyen de vivre les uns à côté des autres de manière pacifique. Les dirigeants se sont félicités de la poursuite des discussions à cet égard.

    Les deux dirigeants sont convenus que leurs équipes assureront le suivi de leurs discussions à San Francisco en poursuivant la diplomatie et les interactions à haut niveau, y compris des visites dans les deux sens et des consultations permanentes au niveau opérationnel dans des domaines clés, notamment les questions commerciales, économiques et financières, l'Asie-Pacifique, le contrôle des armements et la non-prolifération, les questions maritimes, l'application du contrôle des exportations, la planification des politiques, l'agriculture et les questions relatives aux personnes handicapées.

    Les scientifiques définissent les limites de l'IA : un appel à l'action mondiale

    D'éminents scientifiques occidentaux et chinois spécialisés dans l'intelligence artificielle ont lancé un avertissement sévère : la lutte contre les risques liés à cette puissante technologie nécessite une coopération mondiale semblable à celle qui existait pendant la guerre froide pour éviter les conflits nucléaires. Un groupe d'experts internationaux renommés s'est réuni à Pékin la semaine dernière et a défini des « lignes rouges » pour le développement de l'IA, notamment en ce qui concerne la fabrication d'armes biologiques et le lancement de cyberattaques.

    Dans une déclaration publiée dans les jours qui ont suivi la réunion, les universitaires ont prévenu qu'une approche commune de la sécurité de l'IA était nécessaire pour mettre fin aux « risques catastrophiques, voire existentiels, qui pèsent sur l'humanité au cours de notre vie ».

    « Au plus profond de la guerre froide, la coordination scientifique et gouvernementale internationale a permis d'éviter une catastrophe thermonucléaire. L'humanité doit à nouveau se coordonner pour éviter une catastrophe qui pourrait résulter d'une technologie sans précédent », indique la déclaration. Parmi les signataires figurent Geoffrey Hinton et Yoshua Bengio, qui ont remporté un prix Turing pour leurs travaux sur les réseaux neuronaux et sont souvent décrits comme les « parrains » de l'IA ; Stuart Russell, professeur d'informatique à l'université de Californie à Berkeley ; et Andrew Yao, l'un des informaticiens chinois les plus éminents.

    Cette déclaration fait suite au dialogue international sur la sécurité de l'IA qui s'est tenu à Pékin la semaine dernière, une réunion à laquelle ont participé des représentants du gouvernement chinois, signe d'une approbation officielle tacite du forum et de ses résultats. Cette rencontre s'inscrit dans le cadre des pressions exercées par la communauté universitaire sur les entreprises technologiques et les gouvernements pour qu'ils collaborent à la sécurité de l'IA, notamment en réunissant les deux superpuissances technologiques mondiales, la Chine et les États-Unis.

    Le président américain Joe Biden et son homologue chinois Xi Jinping se sont rencontrés en novembre pour discuter de la sécurité de l'IA et ont convenu d'établir un dialogue sur la question. Ces derniers mois, de grandes entreprises d'IA du monde entier ont également rencontré à huis clos des experts chinois de l'IA. En novembre, 28 pays, dont la Chine, et les principales entreprises d'IA se sont engagés à collaborer pour faire face aux risques existentiels liés à l'IA avancée lors du sommet sur la sécurité de l'IA organisé par le Premier ministre britannique Rishi Sunak.

    La semaine dernière, à Pékin, des experts ont examiné les menaces liées au développement de l' « intelligence artificielle générale », c'est-à-dire de systèmes d'IA égaux ou supérieurs à l'homme. « Les discussions ont porté essentiellement sur les lignes rouges qu'aucun système d'IA puissant ne devrait franchir et que les gouvernements du monde entier devraient imposer en matière de développement et de déploiement de l'IA », a déclaré Bengio.

    Ces lignes rouges concernent les systèmes de plus en plus autonomes. Selon la déclaration, « aucun système d'IA ne devrait être capable de se copier ou de s'améliorer sans l'approbation et l'assistance explicites d'un être humain » ou « de prendre des mesures visant à accroître indûment son pouvoir et son influence ». Les scientifiques ont ajouté qu'aucun système ne devrait « accroître substantiellement la capacité des acteurs à concevoir des armes de destruction massive, à violer la convention sur les armes biologiques ou chimiques » ou à « exécuter de manière autonome des cyberattaques entraînant de graves pertes financières ou des dommages équivalents ».

    Sources : CGTN, Whitehouse

    Et vous ?

    Quel est votre avis sur le sujet ?

    Pourquoi les experts ont-ils comparé les dangers potentiels de l'IA à ceux des conflits nucléaires ?

    Quelles pourraient être les conséquences existentielles si les « lignes rouges » établies par les experts étaient franchies dans le développement de l'IA ?

    Comment les pays peuvent-ils concrètement coopérer pour mettre en œuvre les mesures de prévention recommandées par les experts en IA ?

    Voir aussi :

    « Bientôt, tout le monde possédera un robot, comme une voiture ou un téléphone aujourd'hui », affirme le fondateur de Figure AI, mais la question du coût des robots fait l'objet de débat

    Google étend l'affichage des résultats de recherche assistés par IA aux utilisateurs qui n'ont pas donné leur accord, proposant des résumés générés automatiquement afin d'enrichir leur expérience
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  12. #32
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    9 584
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 9 584
    Points : 18 476
    Points
    18 476
    Par défaut
    Citation Envoyé par Bruno Voir le message
    Quel est votre avis sur le sujet ?
    Il ne va pas y avoir une nouvelle guerre froide, il va y avoir une guerre tout court.
    Que ce soit légal ou illégal, les USA et la Chine développeront toutes les solutions technologique capable de leur donner un avantage.

    Ils disent que la ligne rouge c'est notamment :
    - la création d'armes biologiques
    - le lancement de cyberattaques
    Je trouve ça bizarre comme exemples.

    En temps de guerre il n'y a pas de règle. (le gagnant ne sera pas sanctionné)
    Des pays vont concevoir des armes de destruction massive et vont violer les conventions sur les armes biologiques ou chimique.

    Ils sont marrant quand ils parlent d'efforts déployés pendant la guerre froide pour éviter les guerres nucléaires, aujourd'hui plein de pays ont des armes nucléaires et ne devraient pas en avoir.
    Bon après c'est une défense (mutually assured destruction), tu m'envoies une bombe, je t'envoie une bombe, on est tous mort, donc tu ne vas pas m'envoyer de bombe et je ne vais pas t'envoyer de bombe.

    Je trouve que c'est un peu naïf de croire que des superpuissances comme les USA vont se mettre à respecter les règles.
    Il y a quand même beaucoup à gagner, beaucoup à perdre.
    Donc là faut faire comme les champions et se doper, "les autres le font, donc je dois le faire".

    =======
    L'ambiance va ressembler à ça :
    L'arme biologique, une vieille histoire
    En 1943, l'armée américaine entame la construction d'un complexe de recherche et développement d'armes biologiques à Camp Detrick, dans le Maryland (rebaptisé depuis Fort Detrick). Le programme est rapidement renforcé pour contrer les recherches de l'Allemagne nazie et du Japon. Les travaux américains portent sur la mise au point de bombes à fragmentation capables de disséminer des projectiles contenant du charbon. D'autres travaux portent sur la toxine du botulisme. En 1944, les responsables du programme d'armes biologiques réclament des moyens pour fabriquer un million de bombes au charbon par mois.

    Moustiques. A la fin de la guerre, les Etats-Unis mettent leur programme en veilleuse. En 1946, le ministère de la Guerre reconnaît publiquement l'existence de son programme de recherche sur les armes biologiques. Deux ans plus tard, un rapport souligne la vulnérabilité du pays, notamment en cas d'attaque subversive contre les réseaux d'eau et les métros. En Chine, 1000 à 3000 prisonniers des Japonais seraient décédés pendant la guerre lors d'expériences d'inhalation du charbon dans l'unité 731 de l'Armée impériale, chargée de la guerre bactériologique. Après 1945, les Etats-Unis accordent l'impunité au général japonais Ishii qui dirigeait l'unité 731 et à quelques-uns de ses chercheurs et récupèrent en échange leur savoir-faire.

    Face à la menace soviétique, les Etats-Unis décident en 1950 de construire une usine de fabrication d'armes biologiques. La production démarre en décembre 1953. Sept agents biologiques seront fabriqués entre 1954 et 1967, dont le bacille du charbon.
    À la fin de la guerre, les USA n'ont pas dit "les scientifiques Nazis doivent être condamné", ils ont dit "il faut qu'on embauche un maximum de scientifiques Nazis".
    Opération Paperclip
    L’opération Paperclip (originellement appelée « Opération Overcast ») fut menée à la fin de la Seconde Guerre mondiale par l'état-major de l'armée des États-Unis afin d'exfiltrer et de recruter près de 1 500 scientifiques allemands issus du complexe militaro-industriel de l'Allemagne nazie pour lutter contre l'URSS et récupérer les armes secrètes du Troisième Reich.
    ======
    Pour la blague j'ai envie de dire qu'il est possible que le problème d'électricité du porte-conteneurs qui a détruit le pont Francis Scott Key de Baltimore soit mis sur le dos d'une cyberattaque chinoise.
    Keith Flint 1969 - 2019

  13. #33
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    1 777
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 1 777
    Points : 5 705
    Points
    5 705
    Par défaut
    Des experts en intelligence artificielle, tant occidentaux que chinois, ont conjointement établi des « lignes rouges » pour circonscrire les dangers potentiels inhérents à l'IA, définissant ainsi les territoires à ne pas franchir pour éviter des risques existentiels.

    Et ces mêmes experts se feront un plaisir de développer les armes équipées d'IA à la demande de leur état respectif sans se préoccuper le moins du monde de la moindre "ligne rouge"!

Discussions similaires

  1. Réponses: 23
    Dernier message: 20/08/2019, 09h52
  2. Réponses: 2
    Dernier message: 24/10/2018, 11h25
  3. Réponses: 362
    Dernier message: 05/04/2018, 13h59
  4. Un type plus long que le type "double"
    Par savoir dans le forum Débuter
    Réponses: 5
    Dernier message: 09/04/2008, 15h05

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo