[IRONIE]
Manque plus que le questionnaire de satisfaction
[/IRONIE]
Ma page sur developpez.com : http://chrtophe.developpez.com/ (avec mes articles)
Mon article sur le P2V, mon article sur le cloud
Consultez nos FAQ : Windows, Linux, Virtualisation
L'Argentine utilisera l'IA pour prédire les crimes futurs malgré les inconvénients relatifs aux logiciels de police prédictive
notamment les risques élevés de faux positifs et de violation des droits de l'homme
Le président argentin Javier Milei crée une unité de sécurité qui utilisera l'IA pour prédire les crimes futurs et aider à les prévenir. L'unité de la police utilisera des algorithmes d'apprentissage automatique pour analyser les données criminelles historiques afin de prédire les crimes futurs. Elle devrait en outre déployer des logiciels de reconnaissance faciale pour identifier les personnes recherchées, patrouiller sur les médias sociaux et analyser en temps réel les images des caméras de sécurité pour détecter les activités suspectes. Mais l'initiative suscite de vives inquiétudes et les experts mettent en garde contre les violations de la vie privée et les biais de la technologie.
L'Argentine lance un programme de surveillance basée sur l'IA à l'échelle nationale
Il semble que les autorités argentines ne voient pas d'inconvénient à s'inspirer des films hollywoodiens pour résoudre des crimes dans la vie réelle. Le pays d'Amérique latine lance une initiative qui s'inspire fortement l'univers du film de science-fiction Minority Report, où en 2054, l'humanité a réussi à éradiquer les crimes en s'appuyant sur un système de prévention, de détection et de répression le plus sophistiqué du monde. Dissimulés de tous, trois extra-lucides transmettent les images des crimes à venir aux policiers de la Précrime. L'idée des autorités argentines dérange et des voix s'élèvent contre son application.
Les forces de sécurité argentines ont annoncé la création d'une nouvelle unité conçue pour utiliser l'IA afin de prédire les crimes futurs, une initiative qui a suscité de vives inquiétudes parmi les experts des droits de l'homme. Cette unité de police prédictive, baptisée "Artificial Intelligence Applied to Security Unit", utilisera des algorithmes d'apprentissage automatique pour analyser les données historiques de la criminalité afin de prédire les activités criminelles potentielles.
En outre, l'unité devrait utiliser la technologie de reconnaissance faciale pour identifier "les personnes recherchées", surveiller les médias sociaux et analyser les images des caméras de sécurité en temps réel pour détecter les comportements suspects. Le ministère argentin de la Sécurité explique que cette initiative permettrait de mieux détecter les dangers potentiels, d'identifier les mouvements de groupes criminels et d'anticiper les troubles. Mais cela suscite le scepticisme.
L'initiative a été accueillie avec inquiétude par les organisations de défense des droits de l'homme, qui craignent qu'elle ne conduise à de graves atteintes à la vie privée et au ciblage de groupes sociaux spécifiques. Selon experts, la mise en œuvre de cette technologie pourrait entraîner un contrôle disproportionné de certaines communautés. Des inquiétudes ont également été exprimées quant à l'étendue de l'accès des forces de sécurité à ces informations sensibles.
Amnesty International craint que cette surveillance à grande échelle puisse porter atteinte aux droits de l'homme, en particulier à la liberté d'expression. Mariela Belski, directrice exécutive du groupe en Argentine, affirme que cela pourrait inciter les individus à s'autocensurer ou à éviter de partager leurs idées et leurs critiques s'ils pensent qu'ils sont surveillés. Le Centre argentin d'études sur la liberté d'expression et l'accès à l'information (CELE) a évoqué les dangers potentiels.
Le CELE craint particulièrement les risques liés à une utilisation abusive de ces technologies. Il a déclaré que "ces technologies ont toujours été utilisées pour établir le profil d'universitaires, de journalistes, de politiciens et d'activistes", ce qui, en l'absence de contrôle, menace la vie privée.
Les technologies de police prédictive ne sont ni efficaces ni fiables dans la pratique
Le président argentin Javier Milei, un libertaire d'extrême droite qui est arrivé au pouvoir l'année dernière, a prôné une approche sévère à l'égard de la criminalité. Et la ministre argentine de la Sécurité Patricia Bullrich semble adopter une approche de plus en plus militarisée de la politique de sécurité. Cependant, la dernière initiative des autorités argentines visant à transposer Minority Report dans la réalité se heurte à une opposition farouche. La mesure a suscité une réaction particulièrement vive dans un pays au passé sombre de répression étatique, comme la dictature militaire brutale et violente de 1976 à 1983.
Historiquement, les logiciels de police prédictive ont connu peu de succès. Une étude publiée en octobre dernier indique que le recours à ces logiciels pourrait n'être qu'une perte de temps. Le rapport de l'étude souligne que les prédictions de crimes générées par ces logiciels correspondent rarement aux crimes signalés. L'étude suggère en réalité que les algorithmes de prédiction utilisés par la police ne sont pas plus aptes à prédire l'avenir qu'une boule de cristal.
Dans un cas spécifique, l'équipe de recherche a remarqué que les prédictions faites par logiciel utilisé par la police de Plainfield, dans le New Jersey, ne pouvaient être considérées comme justes que dans 0,5 % des cas. Les prédictions concernant les vols ou les agressions graves susceptibles de se produire avaient un taux de réussite de 0,6 % et les prédictions de cambriolage avaient un taux de réussite de 0,1 %. La police prédictive a connu une grande popularité dans plusieurs pays.
Mais bien que certains policiers ne jurent que par elle, il n'y a pas toujours eu beaucoup de preuves que cette technologie fonctionne vraiment bien. Des études ont souligné au fil des ans les problèmes des logiciels de police prédictive. L'un des défauts des algorithmes prédictifs est qu'ils reposent sur un raisonnement inductif. Il s'agit de tirer des conclusions sur la base de la connaissance d'un petit échantillon et de supposer qu'elles s'appliquent à l'ensemble de la population.
Des études portant sur ces logiciels ont révélé qu'une personne noire avait cinq fois plus de chances d'être arrêtée sans raison valable qu'une personne blanche. Dans certains cas, des suspects ont été condamnés à tort. L'analyse des résultats du logiciel de prédiction des crimes Geolitica, utilisé par la police de Plainfield, a révélé que la police prédictive a été un gigantesque gâchis qui n'a produit pratiquement aucun résultat utile, tout en coûtant cher aux contribuables.
« Prédire des crimes dans des endroits où ils ne se produisent pas est une question destructrice. La police est un service, mais c'est un service qui peut avoir des conséquences négatives. Si vous envoyez la police quelque part, de mauvaises choses pourraient s'y produire », a déclaré le criminologue David Weisburd.
Par ailleurs, une étude de l'Université d'État de Caroline du Nord a révélé que les services de police utilisent ces logiciels sans même comprendre comment ces technologies fonctionnent. L’étude a montré que les policiers n’étaient pas bien informés sur les technologies d’IA qu’ils utilisent.
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous de l'utilisation de l'IA pour la prédiction des crimes futurs ?
Que pensez-vous des dangers liés à l'utilisation des logiciels de police prédictive ?
Pourquoi ces logiciels restent populaires malgré les rapports montrant qu'ils sont inefficaces ?
Peut-on rendre ces logiciels plus efficaces et plus fiables ? Peut-on corriger les biais dont ils souffrent ?
La technologie peut-elle être plus efficace pour lutter contre la criminalité que les approches traditionnelles ? Pourquoi ?
Voir aussi
Une étude affirme que les logiciels de police prédictive ne parviennent pas à prédire les crimes, et relance le débat sur l'efficacité des algorithmes de prédiction de la criminalité
La police de New York a dépensé des millions pour les services d'une entreprise tech prétendant pouvoir utiliser l'IA pour surveiller les réseaux sociaux et prédire qui seront les futurs criminels
Les outils d'IA sont utilisés par la police qui « ne comprend pas comment ces technologies fonctionnent », selon une étude de l'Université d'État de Caroline du Nord
Un nouveau livre explore comment le pouvoir des entreprises technologiques déstabilise la gouvernance,
soulignant que l'engagement citoyen est essentiel pour relever les défis technologiques en démocratie
Dans The Tech Coup, Marietje Schaake, ancienne parlementaire européenne et Fellow au Stanford Institute for Human-Centered AI, souligne l'influence grandissante des entreprises technologiques sur la démocratie. Elle critique le pouvoir démesuré de ces entreprises, qui prennent en charge des fonctions gouvernementales cruciales et menacent l'État de droit. À travers son expérience, elle illustre comment des entreprises comme NSO Group empiètent sur les prérogatives des gouvernements en matière de renseignement. Elle appelle à une sensibilisation et à des réformes pour rétablir la responsabilité et la transparence, en préconisant l'intégration d'experts technologiques dans le processus législatif.
Cependant, bien que cette analyse soit pertinente, elle peut paraître insuffisante face à l'ampleur des enjeux. L'absence d'actions concrètes et la volonté politique pour appliquer ses recommandations soulèvent des interrogations sur la capacité des gouvernements à contrer cette dérive technologique. La mobilisation citoyenne est cruciale, mais elle est souvent freinée par un sentiment de désillusion vis-à-vis des institutions, ce qui pourrait rendre difficile la mise en œuvre des solutions proposées par Schaake.
Pegasus et la montée en puissance des entreprises technologiques dans la surveillance globale
Dans le secteur technologique, les entreprises exercent de plus en plus d'influence, dépassant souvent celle des gouvernements. Des sociétés comme NSO Group Technologies, avec son logiciel espion Pegasus, offrent à ceux qui en ont les moyens des outils de renseignement puissants, permettant d'infiltrer et de compromettre les données personnelles de figures politiques, de journalistes, de juges et d'autres cibles.
En 2021, les services de renseignement français ont confirmé que le logiciel Pegasus avait été détecté sur les téléphones de journalistes. Parallèlement, les attaques visant les responsables politiques européens se sont multipliées.
Un rapport de 2022 du CitizenLab de l’Université de Toronto, en collaboration avec des groupes indépendantistes catalans, a révélé que plus de 65 personnes, dont des parlementaires européens tels que Diana Riba, Antoni Comín et Jordi Solé, avaient été ciblées ou infectées par Pegasus ou Candiru. La présidente du Parlement européen, Roberta Metsola, aurait également été victime d'une cyberattaque. Des membres de la Commission européenne ont également été visés par ces programmes d'espionnage.
Plus récemment, en juillet 2024, Daniel Freund, député européen allemand, a été la cible d'une tentative d'espionnage via le cheval de Troie Candiru. Dans un message sur X (anciennement Twitter), il a expliqué qu'un e-mail malveillant avait été envoyé le 27 mai, incitant à cliquer sur un lien. Heureusement, il n'a pas ouvert le lien, empêchant ainsi l'infection de son téléphone. Des experts en cybersécurité ont confirmé que le logiciel « Candiru » avait probablement été utilisé pour cette attaque.
Freund a également détaillé cet incident dans une interview. Il a expliqué qu'un e-mail contenant un lien suspect avait été envoyé deux semaines avant les élections européennes par un étudiant de l’Université internationale de Kiev, organisant un séminaire sur les chances d'adhésion de l'Ukraine à l'UE. Bien que l’étudiante mentionnée dans l’e-mail portait le même nom qu’une universitaire de Kiev, celle-ci a nié être l’expéditrice du message, se disant choquée et affirmant : « Cet e-mail n'est absolument pas de moi. »
Freund n'est pas le seul parlementaire européen ciblé par des logiciels espions récemment. En février 2024, il a été révélé que des programmes espions avaient été détectés sur les appareils des parlementaires Nathalie Loiseau et Elena Yoncheva, toutes deux membres de la sous-commission de sécurité, ainsi que sur ceux d'un fonctionnaire du Parlement.
La police américaine est devenue l'un des principaux clients des entreprises de la Silicon Valley spécialisées dans les technologies de surveillance. Des rapports révèlent que les forces de l'ordre américaines déploient de plus en plus des outils d'espionnage, tels que des drones de surveillance. Une étude récente de la Northwestern Pritzker School of Law estime qu'environ un quart des services de police utilisent aujourd'hui ces technologies. Les entreprises technologiques qui développent ces dispositifs sont financées par de grandes sociétés de capital-risque internationales. Cette tendance a suscité des préoccupations parmi les experts, qui avertissent de l'augmentation de la surveillance gouvernementale.
La vente de technologies de surveillance à l'État prend une ampleur croissante parmi les entreprises et startups de la Silicon Valley, qui fournissent des équipements de renseignement et de surveillance aux forces armées et à la police. Selon des analystes et des groupes de défense des droits humains, cela renforce le contrôle exercé par l'État et le gouvernement fédéral sur les citoyens. Ces technologies comprennent des drones de surveillance équipés d’intelligence artificielle, des robots autonomes de patrouille, des programmes de reconnaissance faciale, et bien d'autres encore. En conséquence, l'armée et la police américaines sont devenues des clients majeurs des entreprises technologiques de la région.
Certains analystes trouvent paradoxal que la Silicon Valley, autrefois symbole de liberté et d’innovation, aide désormais les forces de l'ordre à surveiller les citoyens. Bien que des figures emblématiques de la technologie aient défendu des valeurs libertaires, en particulier durant les premiers jours de l'Internet, cette collaboration avec l'État semble en contradiction avec ces principes. Alors que la Silicon Valley fournissait des puces pour l'industrie militaire américaine dès les années 1950, ses relations avec le gouvernement se sont détériorées au fil des années, lorsque l'attention des entreprises s’est déplacée vers le commerce électronique et les nouvelles technologies grand public. Pourtant, cette dynamique semble avoir changé.
Des entreprises comme NSO et Clearview, avec son logiciel de reconnaissance faciale, ou encore celles qui développent des technologies électorales, participent à cette évolution. Même des figures comme Elon Musk, qui contrôle l’accès à Internet via Starlink en Ukraine, illustrent cette concentration de pouvoir dans les mains d'acteurs privés. Autrefois des prérogatives de l'État, ces pouvoirs sont désormais exercés sans les garde-fous nécessaires dans une société fondée sur l’État de droit. Face à cette menace croissante, l’Union européenne envisage de renforcer ses recommandations pour limiter l’usage de ces technologies de surveillance.
Le principe de précaution : un levier pour encadrer l’innovation technologique
Dans son ouvrage, Marietje Schaake met en lumière une autre problématique : la consommation énergétique des entreprises technologiques dans les communautés où elles s’installent. Elle souligne que le public doit être mieux informé pour mieux superviser les centres de données qui soutiennent nos vies numériques. Actuellement, il n’existe pas de normes ou d’obligations d’information qui contraignent les entreprises à révéler leur consommation d’énergie ou d’eau, qu'elle soit réelle ou prévue. Nous avons accès à des estimations isolées, mais nous manquons d’une vue d’ensemble sur la consommation énergétique totale des centres de données.
Souvent, les grandes entreprises technologiques qui souhaitent établir des centres de données le font sous un nom d’emprunt, dissimulant ainsi leur identité, qu’il s’agisse d’Amazon, de Google ou de Microsoft. Les avocats et consultants engagés pour présenter ces projets peignent généralement un tableau très positif des avantages économiques pour les communautés, tout en minimisant des informations cruciales concernant leur identité et les besoins énergétiques des centres de données. Cette absence totale de transparence sur l’utilisation de ressources rares nuit à une bonne gouvernance.
Aux Pays-Bas, cette problématique a engendré de réelles difficultés. Des conseillers municipaux à temps partiel se retrouvaient à devoir autoriser ou non des centres de données d’envergure sur leur territoire, face à des entreprises milliardaires entourées de juristes, comptables et spécialistes en relations publiques. L’asymétrie de pouvoir était énorme, et je crois qu’en instituant des normes de transparence et des exigences de rapport, notamment sur l’identité des promoteurs de projets et leur consommation d’énergie, le débat public sur la capacité des communautés à accueillir ces centres pourrait devenir plus équilibré.
Cette transparence accrue ne répond pas à la question de savoir si la société désire davantage de centres de données consommant des ressources énergétiques limitées dans un contexte de changement climatique. Toutefois, nous ne pouvons pas évaluer cette question de coût-bénéfice sans connaître les coûts, alors que nous sommes bombardés de promesses de bénéfices dans des présentations peu claires.
Un autre enjeu majeur, notamment aux États-Unis, est la capacité des réseaux électriques. Dans des pays comme les Pays-Bas, qui est une économie avancée, tout comme les États-Unis et le Royaume-Uni, des rapports indiquent que les réseaux fonctionnent à des niveaux critiques, voire d'urgence. Ils sont poussés à leurs limites, ce qui entraîne des pannes de plus en plus fréquentes. Malgré cela, de nombreux centres de données continuent d’être construits, décision prise il y a plusieurs années. À leur mise en service dans deux ou trois ans, nous pourrions faire face à une série de catastrophes.
Fondamentalement, le principe de précaution requiert une pause pour évaluer l’impact sociétal d’une innovation avant son déploiement à grande échelle. Bien qu'il soit inscrit dans la législation européenne, il n’a pas été appliqué par les autorités à des innovations comme l’IA, en raison de la pression forte en faveur de son utilisation et de l’adoption récente d'une loi distincte sur l'IA par l'UE. Cela dit, ce principe peut être utile pour aborder des situations où même les ingénieurs sont surpris par le comportement des modèles d'IA, ou lorsque la société, les législateurs et les citoyens ne sont pas conscients des impacts d'une innovation. Nous souhaitons donc établir des processus qui répondent réellement aux besoins du public en utilisant le principe de précaution pour évaluer et rechercher avant que des problèmes évitables ne se propagent trop largement.
Rétablir la confiance dans le débat technologique grâce à l'engagement essentiel des citoyens
L'analyse de Marietje Schaake sur l'emprise des entreprises technologiques sur la démocratie soulève des questions cruciales, mais elle peut également paraître insuffisante face à la complexité du problème. D'une part, Schaake met en lumière des points importants concernant la perte de confiance du public envers les institutions, exacerbée par la désinformation en ligne. Ce phénomène, en effet, nuit à la confiance interpersonnelle et remet en cause les fondements mêmes de la démocratie.
Cependant, alors qu'elle appelle à des réformes et à une plus grande transparence, il est nécessaire de se demander si ces solutions sont réellement suffisantes. Les mécanismes de régulation et de responsabilité qu'elle propose pourraient être confrontés à des obstacles politiques et culturels majeurs. La difficulté à instaurer une réglementation efficace dans un paysage numérique en constante évolution pose un défi de taille. De plus, la perte de confiance ne peut pas être résolue uniquement par des mesures techniques ou législatives ; elle nécessite également un changement dans la manière dont les citoyens s'engagent et interagissent en ligne.
Une autre réflexion à considérer est la nécessité d'un dialogue inclusif. Les internautes, qui subissent directement les conséquences de ces dynamiques, doivent être activement impliqués dans la recherche de solutions. Leur expérience et leurs perspectives peuvent offrir des pistes innovantes pour rétablir la confiance, que ce soit à travers des initiatives communautaires, des campagnes de sensibilisation ou des efforts éducatifs sur la vérification des faits.
L'analyse de Schaake, bien que pertinente, nécessite une approche plus holistique qui intègre la voix des citoyens et s'attaque non seulement aux symptômes de la crise de confiance, mais aussi à ses causes profondes. La voie à suivre doit être collaborative et viser à renforcer non seulement la réglementation, mais aussi la résilience démocratique des individus face à la désinformation et à la manipulation.
Source : Princeton University Press
Et vous ?
Les Américains ont-ils été lents à reconnaître la menace que représentent les entreprises technologiques pour la démocratie ?
Pourriez-vous expliquer comment le principe de précaution, déjà intégré dans la législation européenne, pourrait aider à restreindre le pouvoir des entreprises technologiques, notamment dans le domaine de l'IA ?
Voir aussi :
Les services de renseignement français confirment que le logiciel espion Pegasus a été trouvé sur les téléphones de journalistes français, appuyant ainsi les conclusions du projet Pegasus
Un membre du Parlement européen victime du logiciel espion israélien Candiru, le député européen Daniel Freund a été la cible d'une tentative d'espionnage à l'aide du cheval de Troie Candiru
Les startups technologiques vendent à l'armée et à la police des dispositifs avancés de surveillance et d'espionnage, malgré les risques d'utilisation abusive et de violation de la vie privée
Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités
Partager