Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #1
    Chroniqueur Actualités

    Tech In France publie un memorandum au sujet du Livre Blanc de la Commission européenne sur l’IA
    AI France Summit : Tech In France souligne le risque qu’une nouvelle régulation de l'IA ne bride l’innovation
    et n’entame la compétitivité des acteurs européens sur la scène mondiale

    Tech In France est régulièrement auditionnée par les pouvoirs publics et les parlementaires sur les sujets de l’innovation, de la compétitivité des entreprises et de la structuration de la filière. La ministre de l’Économie numérique Fleur Pellerin a mandaté Tech In France en janvier 2013 pour réfléchir aux possibilités de structuration d’une filière big data en France et lancé en juillet 2013 un plan Big data reprenant pour partie les conclusions de France.

    Tech In France participe aux travaux du Conseil national du numérique (CNNum), du Comité de filière numérique (CSF num) et de la Commission économie numérique du Medef. Tech In France organise en interne les échanges de bonnes pratiques dans le cadre de structures permanentes, les Commissions thématiques (Commission SaaS, Investisseurs, Green Software, Big Data, Normalisation et Standardisation, Open Data, Open Source, R&D, Finances, Internationale, Secteur public, Marketing, Propriété intellectuelle, Sociale, Cybersécurité…)


    À l'occasion de l’AI France Summit qu’il a organisé en partenariat avec le secrétariat d’État au numérique le 5 mars à Bercy, Tech In France, l'association qui réunit 400 entreprises de l'industrie du numérique, a publié un mémorandum au sujet du Livre blanc de la Commission européenne sur l’IA (« Une approche européenne axée sur l’excellence et la confiance », publié le 19 février dernier). De nombreuses entreprises membres de TECH IN France se sont exprimées publiquement en faveur du principe de l’élaboration d’une régulation de l’IA et ces dernières ont acquis, déjà, une expérience conséquente en matière de conformité (process, outils, documentation, autorégulation...), notamment dans le cadre de la mise en œuvre du règlement général sur la protection des données (RGPD). À ce titre, les entreprises seront particulièrement attentives à la cohérence (consistency) entre les textes existants et l’élaboration de toute autre forme de nouvelle réglementation, comme elles le sont dans le cadre du projet de règlement ePrivacy.

    En outre, TECH IN France a tenu à souligner que l’IA est déjà encadrée par de nombreux textes européens ou nationaux qui s’appliquent pleinement, comme l’a d’ailleurs relevé la Commission européenne, tels que le RGPD, la directive relative à la sécurité générale de produits, la directive sur l’égalité de traitement entre les personnes sans distinction de race ou d’origine ethnique, la directive sur l’égalité de traitement en matière d’emploi et de travail ou encore la directive relative aux droits des consommateurs.

    Par ailleurs TECH IN France a assuré qu'il allait veiller à ce que toute régulation qui verrait le jour ne bride pas l’innovation et ne fasse pas porter sur les entreprises soumises à ce nouveau cadre, des contraintes disproportionnées par rapport à leurs compétiteurs internationaux. De fait, TECH IN France appelle la Commission européenne à la vigilance afin de :
    • Définir plus précisément le périmètre éligible relevant de l’IA par rapport à celui de l’algorithmie en général. En effet, tout traitement de données, y compris massif, ne relève pas nécessairement du périmètre de l’IA ;
    • Relativiser l’évolutivité des algorithmes d’IA évoquée dans le livre blanc : les entreprises souhaitent ainsi relativiser la notion d’évolutivité permanente des algorithmes d’IA qui contribuerait à leur opacité, en soulignant qu’au moment de leur mise sur le marché, les technologies sont stabilisées ;
    • Se prémunir en matière de responsabilité contre la tentation d’essentialiser les algorithmes d’IA en rappelant qu’ils sont conçus par des cerveaux humains, fonctionnent avant tout comme outils d’aide à la décision destinés à des humains et peuvent, le cas échéant, venir aussi corriger des défaillances humaines ;
    • Clarifier la définition des notions dans l’approche européenne retenue, fondée sur le risque, qui doit permettre de graduer la réponse règlementaire : la définition de « haut risque » et les critères à prendre en compte demeurent à ce stade encore assez flous, ce qui peut laisser craindre que la notion de « risque » soit de fait interprétée de manière très extensive. Les entreprises s’inquiètent en particulier de la mise en place d’un prior assessment visant les algorithmes IA. En tout état de cause, une démarche de certification devrait en effet davantage viser les processus mis en œuvre, comme c’est le cas dans les industries sensibles, que les produits finis. Une nomenclature plus précise de la donnée permettra également aux entreprises d’apprécier plus finement la notion de risque et d’élaborer des stratégies de normalisation adaptées ;
    • TECH IN France est favorable d’un point de vue général à l’ouverture des données et au développement de l’interopérabilité. Toutefois, devront être élaborés des cadres de partage de données qui permettent aux entreprises qui les collectent de valoriser cette activité, sauf à dissuader la collecte de données, indispensable au machine learning et deep learning. L’ouverture des données devra reposer avant tout sur des normes communes d’interopérabilité en phase avec les réalités du marché. Elle doit aussi s’appuyer en priorité sur un engagement volontariste de la part des parties prenantes, dans le respect du patrimoine informationnel des entreprises, des citoyens, des États et de la société européenne.

    Concernant les données publiques (GtoB), leur ouverture doit être amplifiée pour favoriser le développement de champions dans des secteurs à haut potentiel, comme la legal tech, mais aussi pour générer les bénéfices attendus pour les citoyens. L’implication forte et ambitieuse des institutions publiques sera indispensable pour atteindre cet objectif.


    Enfin, TECH IN France tient à rappeler que toute régulation qui serait mise en place devra tenir compte des dynamiques industrielles et de concurrence en cours sur le marché. TECH IN France et ses membres, en tant qu’acteurs numériques pleinement engagés dans le processus de réflexion, tiennent ainsi à rappeler leur souhait de travailler de concert avec les institutions européennes à la mise en place d’une régulation équilibrée, répondant aux valeurs européennes et aux besoins de compétitivité des entreprises dans la bataille mondiale de l’IA et des données.

    Les appels à la réglementation de l'IA fusent

    Le Vatican a initié le Rome Call For an AI Ethics, appelant à la mise sur pied de normes éthiques plus strictes en matière de développement d’intelligence artificielle. IBM et Microsoft sont les premières entreprises à s’arrimer à l’initiative à côté du gouvernement italien et de l’Organisation des Nations Unies pour l’alimentation et l’agriculture. Ce document énonce 6 grands principes : transparence, inclusion, responsabilité, impartialité, fiabilité, sécurité et respect de la vie privée. Ceux-ci stipulent que la technologie (l’intelligence artificielle dans le cas d'espèce) doit être mise sur pied dans le but de protéger les personnes ; en particulier, les faibles et les défavorisés. Le Vatican veut s'assurer que les entreprises n'utilisent pas l'intelligence artificielle comme un moyen de collecter des données sans le consentement des individus, puis de les utiliser à des fins commerciales ou politiques.


    Un ensemble de points susceptibles de faire l’objet d’examen par des gouvernements a été soulevé :
    • L'application de la reconnaissance faciale par les forces de l'ordre devrait-elle faire l'objet d'une surveillance et de contrôles humains, y compris des restrictions sur l'utilisation de la technologie de reconnaissance faciale sans preuve de culpabilité ou d'innocence ?
    • De même, devrions-nous veiller à ce qu'il y ait une surveillance et une responsabilisation civiles pour l'utilisation de la reconnaissance faciale dans le cadre des pratiques gouvernementales en matière de technologie de sécurité nationale ?
    • Quels types de mesures juridiques peuvent empêcher l'utilisation de la reconnaissance faciale pour le profilage racial et d'autres violations des droits tout en permettant les utilisations bénéfiques de la technologie?
    • L'utilisation de la reconnaissance faciale par les autorités publiques ou d'autres personnes devrait-elle être soumise à des niveaux de performance minimum en matière de précision ?
    • La loi devrait-elle exiger que les détaillants affichent un avis visible de leur utilisation de la technologie de reconnaissance faciale dans les espaces publics ?
    • La loi devrait-elle exiger que les entreprises obtiennent un consentement préalable avant de recueillir des images d'individus pour la reconnaissance faciale ? Si oui, dans quelles situations et quels lieux cela devrait-il s'appliquer ? Et quelle est la manière appropriée de demander et d'obtenir un tel consentement ?
    • Devrions-nous nous assurer que les personnes ont le droit de savoir quelles photos ont été recueillies et stockées avec leurs noms et visages ?
    • Devrions-nous créer des processus qui accordent des droits légaux aux personnes qui croient avoir été mal identifiées par un système de reconnaissance faciale ?

    En 2018, le président des affaires juridiques de Microsoft a déclaré que sans la réglementation de la technologie de reconnaissance faciale, 2024 pourrait ressembler au roman « 1984 ». Durant la conférence technique Web Summit, Brad Smith a déclaré que la technologie de reconnaissance faciale pourrait totalement changer notre façon de vivre, si elle n'était pas contrôlée. « Cela signifie potentiellement que chaque fois que vous entrez dans un magasin, un détaillant sait à quel moment vous y étiez pour la dernière fois, quels produits vous avez choisis, quels produits vous avez achetés », a-t-il souligné. « Je pense que même cela est franchement dérisoire par rapport à ce que cela pourrait faire pour les relations entre les individus et l'État », avait alors rapporté Biométric Update.

    Smith est allé plus loin en s’inquiétant de l’utilisation que les gouvernements pourraient faire de la technologie au détriment des libertés humaines. « Pour la première fois, le monde est au seuil de la technologie qui donnerait à un gouvernement la possibilité de suivre n'importe qui, n'importe où et tout le monde partout. Il pourrait savoir exactement où vous allez, où vous êtes allé et où vous étiez hier. Et cela a de profondes ramifications potentielles même pour les libertés civiles fondamentales sur lesquelles reposent les sociétés démocratiques ».

    C’est pour ces raisons que Smith interpelle les acteurs de l’industrie des nouvelles technologies à réagir et à réglementer le secteur. « Avant de nous réveiller et de constater que l'année 2024 ressemble à l'ouvrage « 1984 », déterminons le genre de monde que nous voulons créer, quelles en sont les sauvegardes et quelles sont les limitations à la fois des entreprises et des gouvernements pour l’utilisation de cette technologie ».

    Source : Tech in France

    Et vous ?

    Qu'en pensez-vous ?
    Êtes-vous plutôt favorable à une/des réglementation(s) de l'IA au niveau national, européen ou mondial ?
    Estimez-vous qu'il y a déjà des réglementations de l'IA à proprement parler ou celles qui sont mises en place (RGPD et autres) couvrent déjà largement de champ pour inclure l'IA sans avoir besoin d'être spécifiques ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Membre à l'essai
    Serait-ce une énième fois où l'on fait de la merde sous couvert de retombées économiques ?