IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 460
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 460
    Points : 197 891
    Points
    197 891
    Par défaut L'utilisation d'algorithmes pour prédire où les crimes pourraient se produire inquiète des activistes
    L'utilisation par la police d'algorithmes et de big data pour prédire où les crimes pourraient se produire,
    inquiète des défenseurs des droits de l'homme

    Prédire les comportements déviants est un sujet qui a déjà, par le passé, animé de nombreuses recherches. Le big data couplé à des méthodes d’intelligence artificielle permettent à présent de nourrir de nouvelles ambitions. La police prédictive en figure comme un des développements les plus attendus.

    Au Canada, le sujet est un peu controversé. En effet, la police canadienne se sert de plus en plus d'algorithmes pour prédire où les crimes pourraient se produire, qui pourraient disparaître, et pour les aider à déterminer où ils devraient patrouiller, malgré les préoccupations fondamentales en matière de droits de l'homme, selon un nouveau rapport.

    Surveiller et prédire : une analyse des droits de l'homme de l'utilisation des algorithmes prédictifs par la police au Canada est le résultat d’une enquête menée conjointement par l'International Human Rights Program (IHRP) de l’Université de Toronto et Citizen Lab. Il explique comment « les organismes chargés de l'application de la loi à travers le Canada ont commencé à utiliser, à se procurer, à développer ou à tester une variété de méthodes d'algorithmes », avec des conséquences potentiellement désastreuses pour les libertés civiles, la vie privée et d'autres droits garantis par la Déclaration universelle des droits de l'homme, préviennent les auteurs.

    En guise d'introduction, les auteurs expliquent : « Algorithmic policing (ndlr police algorithmique) est un domaine de développement technologique qui, en théorie, est conçu pour permettre aux forces de l'ordre d'automatiser la surveillance ou de tirer des inférences grâce à l'utilisation d'un traitement de masse de données dans l'espoir de prédire une activité criminelle potentielle. Ce dernier type de technologie et les méthodes de maintien de l'ordre qui en découlent sont souvent appelés "police prédictive". Les méthodes de police algorithmiques reposent souvent sur l'agrégation et l'analyse de volumes massifs de données, telles que des informations personnelles, des données de communication, des données biométriques, des données de géolocalisation, des images, du contenu sur les réseaux sociaux et des données de police (telles que des statistiques basées sur des arrestations par la police ou des casiers judiciaires. ). »

    Le rapport décrit comment la police utilise ou envisage l'utilisation d'algorithmes à plusieurs fins, y compris la police prédictive, qui s'appuie entre autres sur l'historique des données policières pour prédire où un crime se produira à l'avenir. À l'heure actuelle au Canada, la police utilise des algorithmes pour analyser les données sur les personnes afin de prédire qui pourrait disparaître et espère se servir un jour de la technologie dans d'autres domaines du système de justice pénale. Certains services de police utilisent des algorithmes pour automatiser la collecte et l'analyse de masse de données publiques, y compris les publications sur les réseaux sociaux, et pour appliquer la reconnaissance faciale aux bases de données de photos existantes à des fins d'enquête.

    Le rapport propose trois catégories à la police algorithmique :
    • Les technologies de police algorithmique centrées sur la localisation sont un sous-ensemble de ce que l’on appelle généralement les technologies de « police prédictive ». Cette catégorie de technologies de police algorithmique vise à identifier où et quand une activité criminelle potentielle pourrait se produire. Les algorithmes qui pilotent ces systèmes examinent les corrélations dans les historiques des données policières afin de tenter de faire des prédictions sur un ensemble donné de zones géographiques.
    • Les technologies de police algorithmique centrées sur la personne sont également un sous-ensemble des technologies de police prédictive. Les technologies de police algorithmique centrées sur la personne reposent sur l'analyse des données afin de tenter d'identifier les personnes qui sont plus susceptibles d'être impliquées dans une activité criminelle potentielle ou d'évaluer une personne identifiée pour son risque présumé de se livrer à une activité criminelle à l'avenir
    • Les technologies de police de surveillance algorithmique, telles que désignées dans ce rapport, n'incluent pas intrinsèquement d'élément prédictif et se distinguent donc des deux catégories ci-dessus (police algorithmique centrée sur la localisation et centrée sur la personne). Les technologies de surveillance algorithmique fournissent plutôt aux services de police des fonctions de surveillance et de contrôle sophistiquées, mais générales. Ces technologies automatisent la collecte et le traitement systématiques des données (telles que les données collectées en ligne ou les images prises à partir d'espaces extérieurs physiques). Certaines de ces technologies (telles que la technologie de reconnaissance faciale qui traite des photos à partir de bases de données de photos) peuvent traiter les données déjà stockées dans les fichiers des services de police d'une nouvelle manière.


    Nom : police.png
Affichages : 14326
Taille : 43,2 Ko

    « Ces technologies sont présentes ou envisagées partout au Canada sous la forme d'outils de police prédictive et de surveillance algorithmique », indique le rapport.

    La police de Vancouver, par exemple, utilise un outil d'apprentissage automatique appelé GeoDASH pour prédire où les effractions pourraient se produire. Le service de police de Calgary (CPS) utilise le logiciel Gotham développé par Palantir pour identifier et visualiser les liens entre les personnes qui interagissent avec la police (y compris les victimes et les témoins) en s'appuyant sur de nombreux critères. Toutefois, un projet Privacy Impact Assessment (PIA) réalisé par le CPS en 2014 et mentionné dans le rapport indiquait que Gotham pouvait « présenter de fausses associations entre des individus innocents et des organisations criminelles et des suspects » et recommandait des mesures pour atténuer le risque que cela se produise, mais toutes les recommandations n'ont pas été implémentées.

    Le service de police de Toronto n'utilise actuellement pas d'algorithmes, mais la police collabore avec une entreprise d'analyse de données depuis 2016 dans le but de « développer des modèles algorithmiques qui identifient les zones de criminalité élevée », note le rapport.

    Le laboratoire d'analyse prédictive de la police de la Saskatchewan (SPPAL), fondé en 2015, utilise les données fournies par le service de police de Saskatoon pour développer des algorithmes permettant de prédire quels jeunes pourraient disparaître dans la province. Le projet SPPAL est une extension du « modèle Hub » de la police, dans lequel les agences de services sociaux et la police partagent des informations sur des personnes considérées comme « à risque » de comportement criminel ou de victimisation. Le SPPAL espère utiliser des algorithmes pour traiter « les récidivistes et les délinquants violents, la violence domestique, la crise des opioïdes et les personnes atteintes de maladie mentale qui sont entrées en conflit avec le système de justice pénale », indique le rapport.

    « Nous avons appris que les Canadiens font maintenant face à une surveillance dans de nombreux aspects de leur vie personnelle, d'une manière que nous n'aurions jamais associée aux pratiques policières traditionnelles », a déclaré Kate Robertson, avocate de la défense pénale et l'une des auteurs du rapport. « Les individus sont désormais confrontés à la perspective que, lorsqu'ils marchent ou conduisent dans la rue, publient sur les réseaux sociaux ou discutent en ligne, la surveillance policière sous la forme d'une surveillance et d'une collecte systématiques de données peut être à l'œuvre », a ajouté Robertson.

    Les auteurs notent que les « communautés historiquement défavorisées » courent un risque particulier d'être ciblées pour des besoins de surveillance et d'analyse par la technologie en raison du biais systémique trouvé dans les historiques de données policières.

    Dans le rapport, Robertson et ses coauteurs présentent une série de recommandations politiques qui, selon eux, atténueraient certains des dangers potentiels de l'utilisation de ce type de technologie. « À l'heure actuelle, nous en savons trop peu sur les technologies déployées et sur la manière dont elles sont utilisées », a déclaré Robertson. « Il est difficile pour les mécanismes de responsabilisation de fonctionner si la technologie est utilisée en secret. »

    Source : rapport

    Et vous ?

    Que pensez-vous de la police prédictive ?
    Que pensez-vous des problèmes soulevés par les auteurs sur l'utilisation de telles méthodes ?

    Voir aussi :

    Voici pourquoi des centaines de mathématiciens boycottent la technologie de "police prédictive", certains qualifient ces algorithmes de « vernis scientifique pour le racisme »
    En 1983, Isaac Asimov, un écrivain de science-fiction, prédisait à quoi ressemblerait le monde en 2019, de la robotisation aux objets connectés, beaucoup de ses prédictions se sont révélées précises
    Des chercheurs ont développé un système qui utilise l'IA pour prédire où et quand la foudre frappera, il ferait des prédictions qui se sont avérées exactes 80 % du temps
    La France bannit les IA de prédiction des comportements des juges, les technologies de justice prédictive sont-elles une menace pour la société ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Communiqués de presse

    Femme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2018
    Messages
    2 135
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Âge : 33
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Mai 2018
    Messages : 2 135
    Points : 158 426
    Points
    158 426
    Par défaut Un tribunal allemand juge illégale l'utilisation par la police d'un logiciel de lutte contre la criminalité
    Un tribunal allemand juge illégale l'utilisation par la police d'un logiciel de lutte contre la criminalité, donnant raison aux détracteurs du logiciel fourni par Palantir Technologies, soutenu par la CIA

    L'utilisation par la police de l'analyse automatisée des données pour prévenir la criminalité dans certains États allemands est inconstitutionnelle, a déclaré jeudi une haute cour allemande, donnant raison aux détracteurs du logiciel fourni par Palantir Technologies, soutenu par la CIA.

    Les dispositions réglementant l'utilisation de cette technologie dans les Länder de Hesse et de Hambourg violent le droit à l'autodétermination informationnelle, a déclaré la Cour constitutionnelle dans un communiqué.

    La Hesse s'est vu accorder un délai de 30 septembre pour réécrire ses dispositions, tandis que la législation de Hambourg - où la technologie n'était pas encore utilisée - a été annulée.

    "Compte tenu de la formulation particulièrement large des pouvoirs, tant en ce qui concerne les données que les méthodes concernées, les motifs d'ingérence sont loin d'atteindre le seuil d'un danger identifiable requis par la Constitution", a déclaré la Cour.

    Toutefois, le président de la Cour, Stephan Harbarth, a déclaré que les États avaient la possibilité "de façonner la base juridique du traitement ultérieur des fichiers de données stockées de manière constitutionnelle".

    Le ministre de l'Intérieur de la Hesse, Peter Beuth, a déclaré que les pratiques actuelles devaient être renforcées et codifiées, mais il s'est félicité de l'arrêt qui reconnaît que "le travail de la police de demain doit traiter efficacement de grandes quantités de données".

    Il a déclaré que cette technologie avait jusqu'à présent été utilisée, entre autres, pour enquêter sur le réseau clandestin accusé d'avoir comploté pour renverser le gouvernement allemand en décembre.

    Nom : whybigdataan.jpg
Affichages : 1195
Taille : 28,0 Ko

    Le responsable de la stratégie de Palantir en Europe, Jan Hiesserich, a déclaré que l'entreprise américaine fournit simplement le logiciel de traitement des données, et non les données elles-mêmes.

    "Les données pertinentes pour une enquête dans ce contexte sont déterminées exclusivement par nos clients, conformément aux dispositions légales en vigueur", a-t-il déclaré au journal Handelsblatt.

    La Société allemande pour les droits civils (GFF), qui a porté l'affaire contre l'analyse des données de la police, a déclaré que le logiciel Palantir utilisait les données de personnes innocentes pour former des soupçons et pouvait également produire des erreurs, affectant les personnes exposées à la discrimination de la police.

    Sources : Stephan Harbarth, Président de la Cour, Peter Beuth, ministre de l'Intérieur de la Hesse

    Et vous ?

    Êtes-vous pour ou contre l'analyse automatisée des données pour prévenir la criminalité ?

    Voir aussi :

    Une alternative française à Palantir pour aider la France à prévenir d'éventuelles attaques terroristes grâce au Big Data, pourrait être implémentée en deux ans, selon le PDG de Thalès

    L'utilisation par la police d'algorithmes et de big data pour prédire où les crimes pourraient se produire inquiète des défenseurs des droits de l'homme

    Clearview AI, utilisé par la police pour trouver des criminels, est désormais entre les mains des avocats commis d'office, mais le logiciel de reconnaissance faciale fait l'objet de controverses
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Réponses: 13
    Dernier message: 03/03/2020, 20h48
  2. Réponses: 2
    Dernier message: 13/11/2019, 21h28
  3. Bin Packing Algorithme pour enumerer toutes les solutions
    Par cochemar_bin_packing dans le forum C
    Réponses: 5
    Dernier message: 22/04/2013, 03h12
  4. Bin packing : algorithme pour énumerer toutes les solutions
    Par cochemar_bin_packing dans le forum Algorithmes et structures de données
    Réponses: 11
    Dernier message: 30/04/2012, 04h38
  5. Réponses: 4
    Dernier message: 25/04/2010, 13h38

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo