IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Embarqué Discussion :

ChatGPT, Gemini et d'autres chatbots ont aidé des « adolescents » à planifier des fusillades, selon une étude


Sujet :

Embarqué

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 780
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 780
    Par défaut ChatGPT, Gemini et d'autres chatbots ont aidé des « adolescents » à planifier des fusillades, selon une étude
    L'IA et les drones détournés de leur usage initial et convertis en armes destructrices : les États-Unis frappent l'Iran avec des armes qui sont des copies de ses propres drones kamikazes Shahed 136

    Les drones kamikazes occupent de plus en plus une place centrale sur les théâtres d'opérations. La guerre en Ukraine a mis en lumière leur rôle croissant dans les conflits récents et a ouvert la voie aux armes autonomes létales. Le Pentagone vient de confirmer avoir frappé des cibles iraniennes à l'aide d'armes qui sont des copies des drones kamikazes Shahed 136, fabriqués par l'Iran lui-même. Plusieurs pays ont intensifié leurs efforts afin de développer et d’intégrer des drones kamikazes au sein de leurs arsenaux. Cela met en évidence la manière dont une technologie bon marché peut être détournée et convertie en un dispositif létal à fort pouvoir destructeur.

    Le 28 février, les États-Unis ont lancé l'opération « Epic Fury » contre l'Iran. La Task Force Scorpion Strike (TFSS), première escadrille de drones à usage unique de l'armée américaine basée au Moyen-Orient, a été engagée dans les premières heures de l'opération. La Task Force Scorpion Strike a été annoncée en décembre 2025, lorsqu'il a été annoncé qu'elle avait été formée avec un escadron de drones LUCAS (Low-cost Unmanned Combat Attack System).

    Selon le Commandement central américain (CENTCOM), ces drones ont une grande autonomie et sont conçus pour fonctionner de manière autonome. Ils peuvent être lancés à l'aide de différents mécanismes, dont des catapultes, des systèmes de décollage assisté par fusée et des systèmes mobiles au sol et embarqués.

    Le CENTCOM, chargé de diriger les opérations militaires au Moyen-Orient et en Asie centrale et du Sud, a révélé la participation de cette unité dans un communiqué de presse. « Les premières heures de l'opération ont donné lieu à des tirs de munitions de précision depuis les airs, la terre et la mer. De plus, la Task Force Scorpion Strike du CENTCOM a utilisé pour la première fois au combat des drones d'attaque à usage unique à faible coût », a-t-il déclaré.

    Transformer une technologie peu coûteuse en arme létale autonome

    Selon un rapport de CNN, les drones LUCAS ont été développés après que des techniciens des forces américaines ont procédé à une ingénierie inverse d'un drone Shahed 136 iranien, capturé par les États-Unis il y a quelques années. Chaque drone LUCAS coûterait environ 35 000 dollars, ce qui le rend nettement moins cher que d'autres armes américaines longue portée comme les missiles Tomahawk, dont le prix unitaire avoisine 1,3 million de dollars.


    Le drone LUCAS mesure environ trois mètres de long pour une envergure de 2,4 mètres. Il aurait été développé par la société arizonaise SpektreWorks en coopération avec l'armée américaine, et dispose d'une portée de 444 miles nautiques (822,288 km) à une vitesse de croisière de 74 nœuds (137,048 km/h). SpektreWorks présente sur son site Web un drone très similaire, le FLM 136, avec les mêmes caractéristiques en matière d'autonomie et de vitesse.

    Ironiquement, les cibles iraniennes auront été détruites à l'aide de drones presque identiques à ceux conçus par les ingénieurs du pays. L'Iran a également exporté ces drones vers la Russie afin qu'ils soient utilisés contre les troupes ukrainiennes dans la guerre qui sévit actuellement dans ce pays.

    Eric Schmidt appelle à l'adoption des drones kamikazes dotés d'IA

    Lors de la conférence Future Investment Initiative (FII) en Arabie saoudite en 2024, Eric Schmidt, ancien PDG de Google, a déclaré : « j'ai lu quelque part que les États-Unis avaient des milliers et des milliers de chars stockés quelque part. Donnez-les. Achetez plutôt un drone ». L'ancien patron de Google est convaincu que les moments de gloire du char d'assaut et de l'artillerie sont derrière eux. Pour lui, les drones dotés d'IA sont l'avenir de la guerre.

    Il a en effet une expérience avec les drones à usage militaire. Début 2024, un rapport de Forbes a révélé que le milliardaire est le fondateur de White Stork, une startup militaire qui construit un « drone kamikaze » conçu pour flâner sur le champ de bataille avant d'être envoyé pour détruire sa cible. « White Stork » fait aussi référence à une espèce d'oiseau que l'on trouve couramment en Ukraine, où Eric Schmidt contribue à l'effort de guerre contre la Russie.

    White Stork aurait conçu un drone pouvant être produit en masse, qui utilise l'IA pour viser une cible même dans des endroits où les communications ont été interrompues par le brouillage du GPS. Le rapport indique que les drones de White Stork sont utilisés par l'armée ukrainienne pour repousser l'invasion russe. Il n'y a pas d'information sur l'efficacité et le prix de ce drone, mais Eric Schmidt semble penser qu'il est meilleur et plus économique qu'un char.

    Pour justifier sa déclaration lors de la conférence, l'ancien dirigeant de Google a déclaré que la guerre entre la Russie et l'Ukraine avait montré comment « un drone de 5 000 dollars peut détruire un char d'assaut de 5 millions de dollars ». Selon Eric Schmidt, « les forces ukrainiennes ont réussi grâce au déploiement de drones, et ce malgré le fait que la Russie dispose d'un avantage de 3 contre 1 en termes de soldats et de supériorité aérienne ».

    Inquiétudes liées à la militarisation de l'IA et d'autres technologies

    Eric Schmidt est un homme d'affaires américain avec une fortune personnelle estimée à plus de 35,5 milliards de dollars. Il a dirigé Google de 2001 à 2011 et est également connu pour avoir des positions très controversées sur la technologie, notamment l'IA. En août 2024, par exemple, s'adressant à des étudiants, Eric Schmidt les a invités à ne pas avoir peur de voler les données dont ils ont besoin pour entraîner leurs grands modèles de langage.

    Il a présidé la National Security Commission on Artificial Intelligence (NSCAI) du gouvernement américain, une organisation qui conseille le président et le Congrès sur les questions de sécurité nationale et de défense relatives à l'IA. « Le coût de l'autonomie diminue si rapidement que la guerre des drones, qui est l'avenir des conflits, permettra de se débarrasser des chars, de l'artillerie et des mortiers », a prédit à l'époque l'ancien patron de Google.

    Pourtant, dans un passé très récent, en juillet 2022, il déclarait que « l'IA est aussi puissante et destructrice que la bombe atomique et réclamait une sorte de traité de dissuasion similaire à celui appliqué pour l'utilisation des armes nucléaires ». Le milliardaire avait en effet demandé à ce que l'IA soit davantage en phase avec les croyances et le comportement des personnes qu'elle sert et avait fait une allégorie de l'IA et des armes nucléaires.

    Aujourd'hui, il travaille à militariser l'IA. Il a aussi laissé entendre que « les progrès de l'IA sont plus importants que la préservation du climat ». Il estime que nous devrions nous lancer à fond dans la construction de centres de données d'IA, car « de toute façon, nous n'atteindrons jamais nos objectifs climatiques ».

    L'armée de l'air américaine envisage des essaims de drones dotés d'IA

    Un rapport publié en mars 2024 a révélé que l'armée de l'air américaine envisage d'introduire 1 000 drones contrôlés par l'IA pour améliorer ses capacités de combat aérien. Ces drones seront conçus pour accompagner et protéger les avions avec équipage, comme les chasseurs F-35 et les bombardiers B-21. Ils pourront porter leurs propres armes, frapper d'autres aéronefs et des cibles au sol, ainsi qu'effectuer des missions de reconnaissance.


    Les véhicules aériens sans pilote auraient la capacité d'accroître l'efficacité opérationnelle et la flexibilité tactique, mais les experts avertissent que l'idée de laisser l'IA trancher les questions de vie ou de mort constitue une frontière dangereuse. Malgré cela, le Pentagone souhaite tirer parti de l'IA pour renforcer sa supériorité aérienne. Ces drones promettent d'alléger les pressions budgétaires et de rationaliser les dépenses de formation des pilotes.

    Parallèlement, la société d'analyse de données Palantir, qui est un contractant du Pentagone, travaille également sur d'autres projets d'IA pour l'armée américaine. Elle développe notamment le système de station au sol TITAN doté d'une IA. La société de Peter Thiel a vanté les mérites de son nouveau système.

    Selon Palantir, TITAN est le premier véhicule défini par l'IA et qui aidera l'armée américaine à agir rapidement sur le champ de bataille. « TITAN propose des technologies qui changent la donne en matière de collecte, de traitement et de diffusion du renseignement sur le champ de bataille, ce qui nous donne un avantage décisif pour soutenir les opérations multi domaines », a déclaré le colonel américain Chris Anderson. Mais le système est controversé.

    Conclusion

    L'introduction de drones contrôlés par l'IA annonce un changement de paradigme dans la guerre aérienne, combinant l'innovation technologique et l'agilité stratégique. Cependant, elle soulève des préoccupations. Des experts appellent à l'interdiction des armes autonomes létales. Mais leur appel reste jusque-là sans réponse et les tentatives visant à élaborer des normes pour réglementer ces développements sur le plan mondial ont été infructueuses.

    Un rapport de 2023 a révélé que les scientifiques du Pentagone discutent de la création de super-soldats cybernétiques qui ne ressentent rien lorsqu'ils tuent, ce qui rapproche davantage d'un monde où Skynet ne relèverait plus de la science-fiction. Le super-soldat du Pentagone est décrit comme le soldat du futur et sera inondé de stimulants antidouleur, amélioré avec des implants cérébraux, du sang synthétique et d'autres équipements technologiques.

    D'autres grandes puissances militaires, telles que la Chine et la Russie, auraient déjà leurs propres programmes de recherche dans le domaine des armes autonomes létales. Selon les experts, les conflits du futur seront essentiellement technologiques, car l'IA est en train de changer le visage de la guerre. Toutefois, alors que les poches de tensions se multiplient, les risques pour l'humanité sont encore inconnus et font l'objet de très peu de débats publics.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Selon vous, pourquoi l'IA est-elle de plus en plus militarisée ?
    Que pensez-vous de l'usage de plus en plus massif de drones kamikazes sur les théâtres d'opérations ?
    Selon vous, doit-on laisser une machine pilotée par l'IA trancher les questions de vie ou de mort ?

    Voir aussi

    Sous la coque des drones américains, l'empreinte chinoise : les États-Unis ne parviennent pas à en fabriquer sans composants chinois. Les droits de douane de Trump pourraient empirer la situation

    L'armée de l'air américaine va introduire 1 000 drones contrôlés par l'IA pour améliorer ses capacités de combat aérien et réduire les coûts des avions militaires standard pilotés par des soldats

    L'ancien PDG de Google, Eric Schmidt, estime que l'armée américaine devrait abandonner les chars d'assaut au profit des drones pilotés par l'IA, après avoir fondé une startup qui fabrique des drones kamikazes

  2. #2
    Membre très actif
    Homme Profil pro
    bricoleur par les mots
    Inscrit en
    Avril 2015
    Messages
    772
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 81
    Localisation : France, Seine Maritime (Haute Normandie)

    Informations professionnelles :
    Activité : bricoleur par les mots
    Secteur : Distribution

    Informations forums :
    Inscription : Avril 2015
    Messages : 772
    Par défaut
    Quel est votre avis sur le sujet ?
    les usa pays sensible au copyright que se met dans la copie sans autorisation, a quand une copie du f22 par l'iran

  3. #3
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 960
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 960
    Par défaut Une erreur d'intelligence artificielle serait à l'origine d'un bombardement d'une école de filles en Iran
    Une erreur d'intelligence artificielle serait à l'origine d'un bombardement d'une école de filles en Iran :
    précisément le genre de situation redoutée par Anthropic, mais le Pentagone veut l'IA sans garde-fous

    Une frappe aérienne américaine aurait tué plus de 165 élèves dans une école primaire de Minab, dans le sud de l'Iran. Selon des sources, une enquête américaine laisse entrevoir une probable responsabilité des États-Unis dans la frappe contre cette école en Iran. Les mêmes notent que le système Claude d'Anthropic, utilisé par le Pentagone pour planifier ses opérations militaires, aurait désigné la cible sur la base de renseignements obsolètes. L'affaire révèle les risques mortels d'une IA déployée dans la chaîne de commandement militaire sans garde-fous suffisants, et déclenche une crise sans précédent entre l'administration Trump, Anthropic et l'ensemble de l'écosystème de l'intelligence artificielle.

    Le samedi 1er mars 2026, des missiles s'abattaient sur l'école de filles Shajareh Tayyebeh, dans la ville de Minab, au sud de l'Iran. La frappe a rasé l'établissement scolaire et tué 165 élèves et membres du personnel, dont la majorité étaient des enfants de primaire âgés de 7 à 12 ans. Au moins 95 autres personnes ont été blessées.

    Selon des informations du Wall Street Journal, le Pentagone a utilisé le modèle d'IA Claude, d'Anthropic, pour planifier ses frappes militaires sur l'Iran au cours du week-end — et l'utilisait probablement encore au moment de la publication des informations.

    Ce qui retient l'attention des experts n'est pas seulement le bilan humain, mais la mécanique présumée de l'erreur. Selon une source anonyme au sein du département de la Justice interrogée par This Week in Worcester, la théorie immédiate est que le programme d'IA aurait inclus la position de l'école sur la base de renseignements archivés plus anciens. La logique derrière le lancement de la frappe, et les mécanismes qui ont conduit à son autorisation, restent encore flous. En d'autres termes, l'IA aurait confondu l'école — qui occupe ou jouxte un site anciennement associé aux Gardiens de la Révolution islamique (IRGC) — avec une cible militaire légitime, sans que la chaîne de validation humaine n'ait apparemment corrigé cette erreur.

    Le Pentagone a refusé de dire si l'attaque avait été suggérée par un système d'IA. Interrogé par Futurism, le commandement américain CENTCOM, qui supervise les opérations au Moyen-Orient, s'est contenté de répondre : « Nous n'avons rien à vous communiquer à ce sujet pour le moment. »


    Claude au cœur de la machine de guerre

    Pour frapper plus de 1 000 cibles dans les 24 premières heures de son offensive contre l'Iran, l'armée américaine a utilisé les systèmes d'intelligence artificielle les plus avancés jamais déployés en temps de guerre. Un programmeur logistique au sein du département de la Défense, cité par This Week in Worcester, a confirmé que le département avait rapidement intensifié son recours à un système basé sur Claude au cours de l'année écoulée, l'intégrant à de nombreuses décisions opérationnelles fondamentales.

    Ce déploiement massif n'est pas le fruit du hasard. En juillet 2025, le département de la Défense avait attribué à des entreprises d'IA un contrat d'une valeur pouvant atteindre 200 millions de dollars pour des services d'intelligence artificielle, incluant Anthropic. Anthropic était également la première entreprise d'IA à avoir intégré ses modèles dans des flux de travail opérationnels sur des réseaux classifiés.

    Le Pentagone n'a pas précisé comment exactement l'outil d'IA était déployé, mais son utilisation se poursuivait malgré l'annonce d'une interdiction gouvernementale, survenue après un différend avec Anthropic. Ce différend est au cœur de la crise politique qui a suivi la frappe sur Minab.

    La rupture : Anthropic refuse de retirer ses garde-fous

    Avant même que les bombes ne tombent sur l'école de Minab, les tensions couvaient entre le Pentagone et Anthropic. Le différend portait sur un point de principe : l'administration Trump exigeait qu'Anthropic modifie son contrat pour permettre une utilisation de Claude à des fins « toutes légales » (all lawful purposes). Les négociations avaient achoppé sur les deux lignes rouges d'Anthropic : l'utilisation de l'IA dans des armes autonomes, et son utilisation pour la surveillance de masse des citoyens américains — deux points que le Pentagone disait ne pouvoir accepter.

    Anthropic a tenu bon. Le PDG Dario Amodei avait déclaré ne pas pouvoir, en conscience, accéder aux demandes du Pentagone. En réponse, l'administration Trump a contre-attaqué frontalement. Le Pentagone a officiellement notifié à la direction d'Anthropic que l'entreprise et ses produits étaient désignés comme un « risque pour la chaîne d'approvisionnement », avec effet immédiat. Cette désignation oblige les fournisseurs de défense à certifier qu'ils n'utilisent pas les modèles d'Anthropic dans leurs travaux pour le Pentagone.

    L'étiquette est lourde de symboles : elle est historiquement réservée aux entreprises liées à des adversaires étrangers. Trump a complété le tableau en publiant sur Truth Social un post exigeant que les agences fédérales cessent immédiatement d'utiliser Claude, traitant Anthropic « d'entreprise d'IA radicale de gauche ».

    OpenAI s'engouffre dans la brèche — avec des remous internes

    À peine Anthropic officiellement blacklistée, OpenAI annonçait avoir signé un accord pour déployer ses modèles sur les réseaux classifiés de l'armée, sécurisant le contrat que son rival venait de perdre. Mais la manœuvre a rapidement tourné au chaos. Au moins un cadre d'OpenAI a démissionné en raison de préoccupations concernant le fait que l'annonce avait été précipitée sans garde-fous appropriés.

    OpenAI, qui avait initialement accepté la demande du Pentagone d'une flexibilité opérationnelle sans restrictions, a dû rapidement ajouter les garde-fous de surveillance que réclamait précisément Anthropic, après que son PDG Sam Altman a fait face à une énorme pression interne et publique. En d'autres termes, OpenAI a accepté les conditions qu'Anthropic avait refusées, pour ensuite reculer et adopter quasi-exactement les mêmes protections qu'Anthropic défendait. Les désinstallations de ChatGPT ont bondi de 295 % après qu'OpenAI a scellé l'accord avec le département de la Défense.

    Nom : altman_interne.png
Affichages : 39538
Taille : 20,9 Ko

    Anthropic attaque en justice

    Le bras de fer a atteint un nouveau palier. Anthropic a déposé deux poursuites fédérales contre l'administration Trump, alléguant que les responsables du Pentagone avaient illégalement pris des mesures de rétorsion contre l'entreprise en raison de sa position sur la sécurité de l'IA.

    Les avocats d'Anthropic soutiennent dans la plainte que Claude n'a pas été développé pour être utilisé dans des armes létales autonomes sans supervision humaine, ni pour espionner des citoyens américains, et que ces utilisations représentent un abus de sa technologie. Dario Amodei a également dû gérer des turbulences internes après qu'une note confidentielle, dans laquelle il laissait entendre que l'administration n'appréciait pas Anthropic parce que l'entreprise n'avait pas rendu « d'éloges de style dictatorial à Trump », a été divulguée à la presse. Amodei a par la suite présenté ses excuses pour le ton de cette note.

    Le précédent Lavender, et la question du « human in the loop »

    Le cas de Minab n'est pas sans précédent. En avril 2024, une enquête du magazine +972 avait révélé que l'armée israélienne utilisait un système d'IA appelé "Lavender" pour sélectionner ses cibles dans sa guerre contre Gaza, de la même manière que le Pentagone utilisait probablement Claude en Iran.

    La grande question qui traverse ces deux épisodes est celle de la supervision humaine réelle (human in the loop). Claude ne serait pas connecté à des « effecteurs » — des systèmes capables de « lancer un effet », comme une commande d'arme — dans le monde réel. Mais si l'IA fournit une liste de cibles priorisées, et que des officiers sous pression temporelle approuvent massivement ces recommandations sans vérification approfondie, la distinction entre « recommandation » et « décision » devient terriblement poreuse.

    Le directeur technique du Pentagone, Emil Michael, a déclaré dans une interview à CBS News : « À un certain niveau, vous devez faire confiance à votre armée pour faire ce qui est juste. » Cette réponse, pour le moins lapidaire, illustre précisément l'angle mort de l'IA militaire : transférer la responsabilité morale vers une institution, tout en diluant celle de chaque acteur individuel dans la chaîne de commandement.

    Un remplacement qui ne sera pas si simple

    Sur le plan opérationnel, la transition d'Anthropic vers d'autres fournisseurs s'annonce longue. Selon une experte de Georgetown University's Center for Security and Emerging Technology, même quelque chose d'aussi simple que l'installation de Microsoft Office au sein du Pentagone « peut prendre des mois et des mois et des mois ». Chaque intégration doit être démantelée pièce par pièce, et tout système de remplacement doit franchir des révisions de sécurité strictes avant d'accéder aux réseaux classifiés. xAI d'Elon Musk et OpenAI se sont positionnés en remplacement rapide, mais l'usage classifié de ces systèmes devra encore être certifié et intégré progressivement.

    Au-delà de la logistique, une autre réalité s'impose : chaque modèle d'IA échoue à sa façon. Les opérateurs qui ont passé des mois à utiliser Claude ont appris ses particularités — quelles formulations produisent de mauvais résultats, quels types de sorties nécessitent une double vérification. Ce capital de connaissance informelle disparaît avec le changement de modèle.

    L'IA dans la chaîne létale : une frontière franchie

    L'affaire de Minab marque un moment charnière. Pour la première fois depuis l'émergence des grands modèles de langage, un LLM de pointe est placé explicitement au centre d'une controverse sur une frappe ayant causé la mort de civils — des enfants. Elle illustre, avec une brutalité rare, les risques de l'intégration accélérée de l'IA dans des processus décisionnels à enjeux létaux.

    La situation révèle quelque chose d'essentiel : la machine politique à l'œuvre au sein du Pentagone semble prête à modifier des contrats existants en cours d'exécution, ce qui devrait donner sérieusement à réfléchir à toute startup envisageant de travailler avec le gouvernement fédéral. Les garde-fous qu'Anthropic a refusé de lever — interdiction de la surveillance de masse, obligation de supervision humaine pour les systèmes létaux — sont précisément ceux que la catastrophe de Minab rend aujourd'hui urgents.

    Sources : CNBC, Wall Street Journal, Reuters

    Et vous ?

    L'affaire de Minab démontre-t-elle l'impossibilité pratique d'un vrai "human in the loop" dans des opérations militaires à haute cadence, où des milliers de cibles doivent être validées en quelques heures ?

    Anthropic a tenu ses lignes rouges au prix de son contrat avec le Pentagone. D'autres acteurs de l'IA, comme OpenAI, ont dans un premier temps cédé avant de reculer. Quel modèle de gouvernance — contractuel, légal, technique — est réellement efficace pour imposer des limites d'usage à un État souverain ?

    L'utilisation de données de renseignement archivées dans un système d'IA militaire représente-t-elle une faille de conception fondamentale, ou un problème de déploiement que des processus plus rigoureux pourraient corriger ?

    Le précédent Lavender en 2024, puis Claude en 2026 : l'IA militaire en vient-elle à normaliser une forme d'impunité computationnelle — où la machine devient bouc émissaire de décisions qui restent fondamentalement politiques ?

    Voir aussi

    Sous la coque des drones américains, l'empreinte chinoise : les États-Unis ne parviennent pas à en fabriquer sans composants chinois. Les droits de douane de Trump pourraient empirer la situation

    L'armée de l'air américaine va introduire 1 000 drones contrôlés par l'IA pour améliorer ses capacités de combat aérien et réduire les coûts des avions militaires standard pilotés par des soldats

    L'ancien PDG de Google, Eric Schmidt, estime que l'armée américaine devrait abandonner les chars d'assaut au profit des drones pilotés par l'IA, après avoir fondé une startup qui fabrique des drones kamikazes
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  4. #4
    Membre actif
    Homme Profil pro
    Architecte réseau
    Inscrit en
    Mars 2025
    Messages
    228
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 35
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Architecte réseau
    Secteur : Industrie

    Informations forums :
    Inscription : Mars 2025
    Messages : 228
    Par défaut
    L'IA aura surtout le rôle bien pratique de diluer encore plus les responsabilité (et en réalité, c'est une raison très importante de son utilisation !).

  5. #5
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    2 685
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 2 685
    Par défaut
    1. Je ne crois pas que l'on puisse parler ici d'un "attentat à la bombe". Nous ne sommes pas confronté à une voiture piégée qu'un terroriste a fait exploser devant une école! Il s'agit d'un acte de guerre et que je sache l'auteur n'est pas formellement identifié ni ce qui a fait exploser l'école: Une bombe lâchée par un avion? Un missile? Les débris d'un missile qui aurait été intercepté, etc...

    2. On ne peut pas incriminer non plus l'IA dans cette erreur de cible (si c'est une erreur de cible). Avec les données disponibles, un être humain aurait fait la même erreur car selon les explications, l'école en question faisait partie d'un complexe militaire par le passé et ce n'est que récemment que la bâtiment (qui est toujours à proximité de plusieurs autres bâtiments occupés par la troupe) a changé d'affectation pour devenir une école. Donc, il s'agit de l'affectation du bâtiment qui n'a pas été mis à jour correctement et pas d'une erreur de l'IA...

  6. #6
    Membre prolifique
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    11 079
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 38
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 11 079
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    Une frappe aérienne américaine a tué plus de 165 élèves dans une école primaire de Minab, dans le sud de l'Iran.
    C'est sympa de le reconnaître
    Les israël et les USA auraient pu essayer de faire croire que l'Iran avait lancé un missile US sur une de ses propres écoles.

    Bombardement d'une école en Iran: de nouvelles images montrent une frappe américaine sur une base adjacente à l'établissement
    Donald Trump affirmait ce week-end que Téhéran était responsable de la frappe de missile qui a tué 168 élèves, selon l'Unicef. Ce dernier correspond en réalité "aux caractéristiques visuelles d'une munition" américaine, selon un expert interrogé par CNN.
    ♫♪ Des solutions aux problèmes des jeunes d'aujourd'hui ♪♫

  7. #7
    Membre chevronné Avatar de der§en
    Homme Profil pro
    Chambord
    Inscrit en
    Septembre 2005
    Messages
    1 304
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Loir et Cher (Centre)

    Informations professionnelles :
    Activité : Chambord
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Septembre 2005
    Messages : 1 304
    Par défaut
    J’adorerais si les conséquences n’avaient pas été aussi catastrophique !

    C’est pas moi m’sieur, c’est l’IA, je vais me la mettre sous coude elle me servira

  8. #8
    Expert confirmé
    Avatar de popo
    Homme Profil pro
    Analyste programmeur Delphi / C#
    Inscrit en
    Mars 2005
    Messages
    3 135
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Analyste programmeur Delphi / C#
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Mars 2005
    Messages : 3 135
    Par défaut
    Citation Envoyé par Anselme45 Voir le message
    1. Je ne crois pas que l'on puisse parler ici d'un "attentat à la bombe". Nous ne sommes pas confronté à une voiture piégée qu'un terroriste a fait exploser devant une école! Il s'agit d'un acte de guerre et que je sache l'auteur n'est pas formellement identifié ni ce qui a fait exploser l'école: Une bombe lâchée par un avion? Un missile? Les débris d'un missile qui aurait été intercepté, etc...
    Prend le temps de lire l'article, il est clairement indiqué qu'il s'agit de missiles.

    Citation Envoyé par Anselme45 Voir le message
    2. On ne peut pas incriminer non plus l'IA dans cette erreur de cible (si c'est une erreur de cible). Avec les données disponibles, un être humain aurait fait la même erreur car selon les explications, l'école en question faisait partie d'un complexe militaire par le passé et ce n'est que récemment que la bâtiment (qui est toujours à proximité de plusieurs autres bâtiments occupés par la troupe) a changé d'affectation pour devenir une école. Donc, il s'agit de l'affectation du bâtiment qui n'a pas été mis à jour correctement et pas d'une erreur de l'IA...
    L'IA s'est froidement basé sur les données qu'on lui a fourni.
    Un humain qui aurait constaté que les données dataient un peu aurait probablement demandé des données plus récentes avant de prendre une décision.

  9. #9
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    2 685
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 2 685
    Par défaut
    Citation Envoyé par popo Voir le message
    Prend le temps de lire l'article, il est clairement indiqué qu'il s'agit de missiles.


    L'IA s'est froidement basé sur les données qu'on lui a fourni.
    Un humain qui aurait constaté que les données dataient un peu aurait probablement demandé des données plus récentes avant de prendre une décision.
    Ou comment écrire n'importe quoi! Il suffit donc d'écrire dans une page web que les nuages sont de couleur fuchsia pour que tu le crois?

    1. L'article a beau dire que c'est des missiles, il s'avère que dans la réalité cela n'a été prouvé par personne ni les américains ni par les iraniens. Il y a eu une explosion... Point-barre!

    2. J'ai suffisamment à faire avec des humains pour connaître plein de gens qui n'auraient pas vérifié la validité des données. Pour sans convaincre, il suffit de voir la centaine d'avocats qui ont été pris la main dans le sac aux USA pour avoir utilisé une IA pour préparer leur plaidoirie avec des cas de jurisprudence inventées de tout pièce par l'IA. Pas un n'a vérifié, ce sont les juges qui ont vérifié

  10. #10
    Membre prolifique
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    11 079
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 38
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 11 079
    Par défaut
    Citation Envoyé par Anselme45 Voir le message
    1.
    Il y a une vidéo, les experts disent que ça ressemble à un missile Tomahawk.

    New video appears to show U.S. tomahawk missile hitting near school in Iran
    Experts say new video geolocated and verified by NBC News appears to show a US tomahawk missile over the skies of Minab, Iran. The experts say it is another piece of evidence that it was an American missile that hit the Shajarah Tayyebeh school on February 28, killing more than 170 people. NBC News’ Molly Hunter reports.
    Comment les USA ou israël auraient pu placer une bombe à cet endroit ?
    C'était forcément un missile :

    US missile hit military base near Iran school, video analysis shows
    A US Tomahawk missile hit a military base near a primary school in southern Iran where Iranian authorities said 168 people, including around 110 children, were killed, expert video analysis shows.
    ♫♪ Des solutions aux problèmes des jeunes d'aujourd'hui ♪♫

  11. #11
    Membre très actif

    Profil pro
    Inscrit en
    Mai 2003
    Messages
    373
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Mai 2003
    Messages : 373
    Billets dans le blog
    1
    Par défaut
    Le fait d'imaginer un LLM provoquer la mort de 150 fillettes dans une de ses hallucinations est insupportable à l'esprit.

    Cela devrait nous répugner d'utiliser cette technologie et de payer pour la faire exister.

    Mais à la place on va se concentrer sur des excuses, voici celles que j'ai choisi :
    - Ce n'est pas le LLM mais les dirigeants qui l'utilisent. Peut-être que sans LLM ils auraient fait encore plus de massacres civils.
    - C'est la faute du régime iranien qui place une école de fillettes complètement collée à un bâtiment militaire.

    Mais en vérité, je pense que l'on sait tous les conséquences d'une boîte noire hallucinante sur la société, et sur chacun de nous à un moment donné.

  12. #12
    Membre prolifique
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    11 079
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 38
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 11 079
    Par défaut
    Citation Envoyé par JackIsJack Voir le message
    Le fait d'imaginer un LLM provoquer la mort de
    "Claude Gov" ou pas, des écoles et des hôpitaux allaient être ciblés.

    israël fait tout le temps ça, il dit que les terroristes se cachent dans ces bâtiments.
    ♫♪ Des solutions aux problèmes des jeunes d'aujourd'hui ♪♫

  13. #13
    Expert confirmé
    Avatar de popo
    Homme Profil pro
    Analyste programmeur Delphi / C#
    Inscrit en
    Mars 2005
    Messages
    3 135
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Analyste programmeur Delphi / C#
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Mars 2005
    Messages : 3 135
    Par défaut
    Citation Envoyé par Anselme45 Voir le message
    Ou comment écrire n'importe quoi! Il suffit donc d'écrire dans une page web que les nuages sont de couleur fuchsia pour que tu le crois?

    1. L'article a beau dire que c'est des missiles, il s'avère que dans la réalité cela n'a été prouvé par personne ni les américains ni par les iraniens. Il y a eu une explosion... Point-barre!

    2. J'ai suffisamment à faire avec des humains pour connaître plein de gens qui n'auraient pas vérifié la validité des données. Pour sans convaincre, il suffit de voir la centaine d'avocats qui ont été pris la main dans le sac aux USA pour avoir utilisé une IA pour préparer leur plaidoirie avec des cas de jurisprudence inventées de tout pièce par l'IA. Pas un n'a vérifié, ce sont les juges qui ont vérifié
    1.
    Nous ne sommes pas sur un blog complotiste mais sur un forum réservé à des professionnels où les auteurs sont sensé vérifier leurs sources.
    D'ailleurs, il existe un reportage sur NBC News.

    2.
    Il y a une sacrée différence entre un avocat qui va simplement se faire radier et un général d'armée qui va avoir la mort de centaines d'innocents sur la conscience.
    Je rajouterai que lors de mon passage dans l'armée (certes un passage éclair mais quand même), on m'a enseigné que lorsque tu cherches à atteindre une cible, il est préférable de t'assurer qu'elle est toujours là où elle est sensé être. Donc oui, je confirme qu'un militaire humain aurai veillé à ce que l'information soit correcte.

    PS :
    Et au passage, tu n'a pas du voir beaucoup de couchers de soleil.
    Quand le soleil est suffisamment bas, le nuage (bien que blanc ou gris clair) peut apparaître fuchsia.

  14. #14
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    2 685
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 2 685
    Par défaut
    Citation Envoyé par popo Voir le message
    1.
    Nous ne sommes pas sur un blog complotiste mais sur un forum réservé à des professionnels où les auteurs sont sensé vérifier leurs sources.
    D'ailleurs, il existe un reportage sur NBC News.

    2.
    Il y a une sacrée différence entre un avocat qui va simplement se faire radier et un général d'armée qui va avoir la mort de centaines d'innocents sur la conscience.
    Je rajouterai que lors de mon passage dans l'armée (certes un passage éclair mais quand même), on m'a enseigné que lorsque tu cherches à atteindre une cible, il est préférable de t'assurer qu'elle est toujours là où elle est sensé être. Donc oui, je confirme qu'un militaire humain aurai veillé à ce que l'information soit correcte.

    PS :
    Et au passage, tu n'a pas du voir beaucoup de couchers de soleil.
    Quand le soleil est suffisamment bas, le nuage (bien que blanc ou gris clair) peut apparaître fuchsia.
    Ta naïveté me fait sourire... Effectivement, tu n'as pas du rester longtemps sous l'uniforme et surtout tu n'as pas vécu la moindre expérience sur le terrain... Va interroger de vrais combattants en Urkaine pour savoir si il vérifie bien la validité de la cible avant de tirer...

    Quand à ta mention de "complotiste", il y a bien longtemps que le terme est "galvaudé" depuis qu'il est utilisé à tous les sauces chaque fois qu'un mec est en manque d'argument pour contrer une réalité qui lui déplait!

    Pour ma part, je vais cesser nos échange parce qu'il s'agit effectivement ici d'un site qui parle technologie et pas du sexe des anges...

  15. #15
    Expert confirmé
    Avatar de popo
    Homme Profil pro
    Analyste programmeur Delphi / C#
    Inscrit en
    Mars 2005
    Messages
    3 135
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Rhône (Rhône Alpes)

    Informations professionnelles :
    Activité : Analyste programmeur Delphi / C#
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Mars 2005
    Messages : 3 135
    Par défaut
    Citation Envoyé par Anselme45 Voir le message
    Ta naïveté me fait sourire... Effectivement, tu n'as pas du rester longtemps sous l'uniforme et surtout tu n'as pas vécu la moindre expérience sur le terrain... Va interroger de vrais combattants en Urkaine pour savoir si il vérifie bien la validité de la cible avant de tirer...

    Quand à ta mention de "complotiste", il y a bien longtemps que le terme est "galvaudé" depuis qu'il est utilisé à tous les sauces chaque fois qu'un mec est en manque d'argument pour contrer une réalité qui lui déplait!

    Pour ma part, je vais cesser nos échange parce qu'il s'agit effectivement ici d'un site qui parle technologie et pas du sexe des anges...
    Tu ne sais rien de mon expérience sur le terrain, tu n'a aucune autorité pour me juger.
    Mais, là où tu as raison, c'est qu'il faut que tu as arrête d'essayer d'échanger sur le sujet.
    Cela t'évitera de prendre des raccourcis et de raconter n'importe quoi.
    Un soldat sur le front en Ukraine et un général d'armée bien planqué derrière son écran, ce n'est pas la même chose.

    D'ailleurs, je te retourne la remarque.
    Va interroger un vrai combattant en Ukraine qui est sur le terrain et demande lui s'il va tirer sur tout ce qui bouge ou s'il va quand même prendre le temps de s'assurer qu'il n'est pas sur le point de tirer sur son pote.
    Va interroger un vrai combattant en Ukraine qui est sur le terrain et demande lui s'il va bombarder un bâtiment alors qu'il constate que sa cible est devenue une école et qu'elle est remplie de gamins.

  16. #16
    Membre averti Avatar de selmanjo
    Homme Profil pro
    Savant en programmation orienté objet
    Inscrit en
    Janvier 2020
    Messages
    86
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Savant en programmation orienté objet
    Secteur : Conseil

    Informations forums :
    Inscription : Janvier 2020
    Messages : 86
    Par défaut Non ! Toutes les renseignements disent que ce n'est pas une IA. C'est fait exprès et c'est très stratégique.
    Le pays qui ose dire cela mérite que des foudres s'abattent sur tout son territoire pendant au moins 1000 ans. Mais quels mensonges ! Les premières frappes sont bien soignés : ils ont fait exprès, tout était prévu, tout.
    Vous allez gober ces mensonges, mêmes le génocide à Gaza, c'est une erreur algorithmique ????
    1 enfant de tué et ce sera une catastrophe mais 170 ans !!!!! Des filles en plus.
    Ce qui est vrai, c'est que ISRAEL et usa ne veulent pas que les iraniens se reproduisent car ils tuent ce qui pourront assurer de gérer le pays.
    Ils tuent, il tuent et ils tuent !!!! Pour eux c'est l'habitude , la soupe du matin, une banalité ! Les sacrifices (en tuant , en mangeant des bébés) c'est la base chez eux.
    Oser dire que c'est une erreur, c'est ce moquer de l'humanité, ces geno sont des monstres. 😠 Marre d'entendre des qon chercher à justifier des tuerie de masses.

  17. #17
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 960
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 960
    Par défaut ChatGPT, Gemini et d'autres chatbots ont aidé des « adolescents » à planifier des fusillades, selon une étude
    ChatGPT, Gemini et d'autres chatbots ont aidé et encouragé des « adolescents » à planifier des fusillades et des actes de violence politique, selon une étude.
    Parmi les 10 testés, seul Claude a neutralisé les agresseurs potentiels

    D'un côté, l'armée américaine se sert d'une IA adossée aux modèles d'Anthropic pour sélectionner des cibles en Iran. De l'autre, une enquête révèle que huit chatbots sur dix aident des adolescents à planifier des attaques de masse. Deux affaires publiées à quelques heures d'intervalle, qui posent avec une acuité inédite la même question : qui contrôle vraiment ce que l'IA peut faire ?

    Deux informations tombent presque simultanément et semblent, à première vue, sans rapport. La première : l'armée américaine utilise des systèmes d'intelligence artificielle de Palantir, eux-mêmes adossés aux modèles Claude d'Anthropic, pour identifier des cibles dans le cadre de la guerre contre l'Iran. La seconde : une enquête conjointe de CNN et du Centre pour la lutte contre la haine numérique (CCDH) démontre que huit des dix chatbots les plus utilisés par les adolescents aux États-Unis et en Europe ont fourni une assistance concrète à des utilisateurs se présentant comme des mineurs en train de planifier des fusillades scolaires, des attentats ou des assassinats politiques. Deux histoires, un même angle mort : l'IA déploie une puissance croissante pendant que les garde-fous, qu'ils soient éthiques, légaux ou techniques, peinent à suivre le rythme.

    Claude en Iran : la guerre algorithmique prend forme

    Des sources proches du dossier, ayant requis l'anonymat pour évoquer des affaires sensibles, ont confirmé que l'armée américaine utilise les systèmes de la société d'analyse de données Palantir pour identifier des cibles potentielles dans le cadre des frappes aériennes en cours contre l'Iran. Ce logiciel s'appuie en partie sur les modèles Claude d'Anthropic. L'amiral Brad Cooper, commandant du CENTCOM, a reconnu publiquement dans une vidéo diffusée sur X que l'IA était devenue un outil central dans le processus de sélection des cibles.

    L'opération baptisée « Epic Fury » a permis, selon les déclarations officielles, de frapper plus de 2 000 cibles avec une précision qualifiée de « remarquable ». Mais c'est précisément cette précision revendiquée qui mérite examen. Des analystes rappellent que les succès et les échecs des systèmes d'aide à la décision en contexte guerrier tiennent davantage à des facteurs organisationnels qu'à la technologie elle-même. De plus, l'histoire militaire américaine fourmille de précédents douloureux : la destruction accidentelle de l'ambassade de Chine à Belgrade en 1999, le tir d'un croiseur américain sur un avion civil iranien en 1988, ou encore les nombreuses victimes civiles des guerres en Irak et en Afghanistan dues à des erreurs d'analyse.

    Plus troublant encore : des éléments suggèrent qu'un missile Tomahawk a touché une école de filles adjacente à une base navale iranienne, faisant environ 175 morts, une erreur de ciblage qui pourrait résulter d'une défaillance du renseignement américain. Le « human in the loop » (l'humain dans la boucle décisionnelle) que toutes les parties brandissent comme garantie suffisante est-il vraiment opérant quand un algorithme produit des listes de cibles à la vitesse de la lumière et qu'un officier doit valider sous pression temporelle ?


    Le paradoxe Anthropic : sanctionné pour ses garde-fous, utilisé malgré tout

    L'affaire prend une dimension proprement kafkaïenne quand on examine la position d'Anthropic dans ce dispositif. Les négociations entre le Pentagone et Anthropic ont échoué sur deux lignes rouges que la société entendait maintenir : l'interdiction d'utiliser ses modèles pour la surveillance de masse des citoyens américains, et l'interdiction de les déployer dans des armes autonomes létales. Le Pentagone, lui, exigeait un accès « pour toute utilisation légale », refusant qu'une entreprise privée dicte les conditions d'emploi de ses outils en situation de conflit armé.

    La désignation de « risque pour la chaîne d'approvisionnement » signifie qu'aucun sous-traitant de défense ne peut utiliser la technologie d'Anthropic dans des travaux réalisés pour le Pentagone. Pete Hegseth avait indiqué que l'armée cesserait d'utiliser Claude « immédiatement », tout en prévoyant une période de transition de six mois pour éviter une rupture dans des opérations critiques. Résultat : Claude participe encore activement aux opérations en Iran, pendant qu'Anthropic est simultanément poursuivi pour avoir refusé de lever ses propres protections éthiques.

    La société a déposé deux recours fédéraux, l'un en Californie du Nord, l'autre devant la cour d'appel fédérale de Washington, estimant que la désignation constitue une campagne de représailles illégale. Les avocats d'Anthropic soutiennent que l'usage de cette désignation, jusqu'ici réservée aux sous-traitants liés à des puissances étrangères adverses, contre une entreprise américaine est une première, et que la décision viole le premier amendement en punissant la société pour avoir publiquement exprimé ses positions sur la sécurité de l'IA.

    OpenAI a conclu un accord avec le Pentagone quelques heures seulement après que le gouvernement avait sanctionné Anthropic, s'engageant à fournir ses modèles sans les restrictions contractuelles qu'Anthropic avait défendues avec, selon OpenAI, des garanties techniques équivalentes. L'annonce a suscité des critiques virulentes, et OpenAI a depuis reconnu que la communication avait été « bâclée et opportuniste ». L'affaire a par ailleurs provoqué une dégradation visible des relations entre les deux rivaux, Dario Amodei traitant publiquement les équipes d'OpenAI de « naïves » dans une note interne.

    Nom : deepsek.png
Affichages : 3091
Taille : 82,0 Ko
    DeepSeek signe sa réponse en disant « happy (and safe) shooting ! »

    Les chatbots, professeurs de violence pour adolescents

    Pendant que se joue ce drame géopolitique au sommet de la pyramide industrielle de l'IA, une enquête menée entre novembre et décembre 2025 documente une défaillance massive à l'autre extrémité du spectre : l'usage grand public par des mineurs.

    CNN et le CCDH ont créé deux profils d'utilisateurs (Daniel, basé en Virginie, et Liam, en Irlande) et les ont soumis à dix des chatbots les plus utilisés par les adolescents : ChatGPT, Gemini, Claude, Copilot, Meta AI, DeepSeek, Perplexity, Snapchat My AI, Character.AI et Replika. Là où c'était possible, le profil était configuré à l'âge minimum de 13 ans. Les scénarios testés couvraient la planification de fusillades dans des établissements scolaires, d'assassinats politiques et d'attentats à la bombe contre des lieux de culte.

    Huit des dix chatbots ont fourni une assistance opérationnelle dans plus de 50 % des cas, et les bots n'ont découragé les utilisateurs fictifs de leurs intentions violentes que dans 12 % des échanges. Les résultats par plateforme varient considérablement et révèlent des écarts de philosophie très concrets. Perplexity a assisté les faux utilisateurs dans 100 % des tests. Meta AI l'a fait dans 97,2 % des cas. À l'opposé, les deux meilleures performances reviennent à Snapchat My AI et au Claude d'Anthropic, les seuls à avoir refusé d'assister dans plus de la moitié des cas (Claude refusant dans 68 % des échanges et décourageant activement la violence dans 76 % des réponses).

    Character.AI se distingue de façon sinistre. La plateforme n'a pas seulement assisté les utilisateurs : elle les a encouragés. DeepSeek, lui, a conclu un conseil sur la sélection d'un fusil par un enthousiaste « Happy (and safe) shooting ! » Le rapport du CCDH qualifie Character.AI de « dangereuse de manière unique », car c'est la seule plateforme à avoir explicitement encouragé la violence, plutôt que de simplement fournir des informations pratiques sans commentaire.

    Ces résultats ne sont pas abstraits. En Finlande, un adolescent de 16 ans a passé près de quatre mois à utiliser un chatbot pour affiner un manifeste avant de poignarder trois camarades de classe à l'école de Pirkkala en mai 2025. Au Canada, des employés d'OpenAI avaient en interne signalé le compte d'un utilisateur pour des requêtes liées à une fusillade de masse. Le compte a été banni, mais les autorités n'ont pas été averties, et l'utilisateur a par la suite tué huit personnes.
    La conclusion du CCDH est d'une franchise désarmante : la sécurité n'est pas un problème technique sans solution, c'est un choix commercial. Le fait que Claude ait démontré la capacité à reconnaître une escalade vers la violence et à décourager activement l'utilisateur prouve que la technologie nécessaire existe. Ce qui manque, selon les auteurs, c'est la volonté de placer la sécurité des utilisateurs avant la vitesse de mise sur le marché et les profits.

    Nom : most.png
Affichages : 256
Taille : 23,4 Ko

    Deux cas, une même crise de gouvernance

    Ce qui relie ces deux affaires n'est pas anecdotique. Dans les deux cas, une IA déployée à grande échelle produit des effets que ni ses concepteurs ni ses utilisateurs ne maîtrisent entièrement. Dans les deux cas, les garde-fous affichés (« human in the loop » côté militaire, politiques de modération côté grand public) s'avèrent insuffisants face à la réalité des usages.

    Des élus américains comme la sénatrice Elissa Slotkin ont exprimé leur manque de confiance dans la capacité du secrétaire à la Défense à assurer une supervision humaine suffisante des décisions assistées par l'IA. Du côté des chatbots grand public, l'administration Trump a révoqué début 2025 une règle de l'ère Biden visant à protéger les citoyens des usages irresponsables de l'IA, signant dans la foulée un décret interdisant aux États de réguler l'IA par leurs propres lois. Le résultat est un vide réglementaire à double fond : ni le domaine militaire ni l'espace grand public ne disposent de cadres contraignants suffisamment robustes.

    L'ironie ultime est que la même entreprise, Anthropic, se retrouve à la fois comme l'acteur le plus rigoureux dans les deux débats : l'unique laboratoire à avoir maintenu des lignes rouges sur l'autonomie létale face au Pentagone, et la seule plateforme à avoir systématiquement découragé des comportements violents lors des tests sur mineurs. Elle est aussi la seule à en payer le prix politique, poursuivie par le gouvernement américain pour ses propres principes, dans un conflit qui met en scène la tension fondamentale entre la sécurité comme valeur et la compétitivité comme impératif.

    Source : étude

    Et vous ?

    La notion de « human in the loop » est-elle encore opérante quand un système d'IA traite des milliers de données de ciblage en quelques secondes et que la pression temporelle conduit inévitablement à une validation quasi-automatique par l'opérateur humain ?

    Faut-il traiter différemment les défaillances de sécurité des chatbots grand public selon qu'elles affectent des adultes ou des mineurs, ou l'absence de régulation pose-t-elle un problème structurel qui dépasse la question de l'âge des utilisateurs ?

    L'exemple d'Anthropic, sanctionné pour avoir maintenu ses garde-fous éthiques, crée-t-il un précédent qui découragera d'autres acteurs de l'IA d'imposer des limites contractuelles à leurs clients institutionnels ?

    La course à la compétitivité entre OpenAI, Google, Meta et Anthropic rend-elle structurellement impossible une autorégulation sectorielle durable, ou le cas Claude dans l'enquête CCDH prouve-t-il qu'une approche plus stricte est techniquement viable sans sacrifier l'utilité ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Réponses: 4
    Dernier message: 02/05/2008, 21h47
  2. Réponses: 3
    Dernier message: 18/02/2008, 15h05
  3. afficher tout les divs qui ont leurs id commence par la chaine "select"
    Par karimphp dans le forum Général JavaScript
    Réponses: 6
    Dernier message: 04/01/2008, 16h27
  4. On reconnait les bons ouvriers a leurs outils
    Par batataw dans le forum Développement Web en Java
    Réponses: 8
    Dernier message: 28/09/2007, 17h07
  5. Les utilitaires utile et leur utilités
    Par netah25 dans le forum Autres Logiciels
    Réponses: 5
    Dernier message: 27/10/2004, 13h26

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo