Le PDG de Google, Sundar Pichai, déclare qu’il ne fait aucun doute que l’IA doit être réglementée
au risque de laisser les forces du marché décider comment utiliser ces technologies

Qu’on le veuille ou non, l’intelligence artificielle (IA) est présente dans nos vies pour le meilleur et aussi le pire. Avec les avancées technologiques, l’on commence déjà à apprécier ses avantages dans le vécu quotidien. L’an dernier par exemple, Google a publié les résultats de ses recherches qui ont montré que son modèle d’IA capable de détecter le cancer du poumon était en mesure de détecter un cancer (en moyenne 5 %) plus souvent qu’un groupe de six experts humains et était à 11 % plus susceptible de réduire les faux positifs. Toujours dans la même année, une équipe de chercheurs de la University of California à San Francisco aux États-Unis, a mis au point un algorithme de Machine Learning qui a réussi à diagnostiquer la maladie d’Alzheimer à un stade très précoce, environ six ans avant qu’un diagnostic clinique ne soit posé. Que ce soit dans le domaine de la médecine, de l’aviation, de l’éducation, du transport, des jeux, du commerce, etc., l’intelligence artificielle peut être utilisée et peut fournir des résultats supérieurs aux performances humaines.

Toutefois, il n’y a pas que de belles histoires de vies meilleures qui s’attachent aux technologies soutenues par l’intelligence artificielle. En effet, si ces technologies peuvent être utilisées pour améliorer nos vies, elles peuvent dans de mauvaises mains être utilisées pour les détruire. Très tôt déjà en 2015, Bill Gates par exemple manifestait son inquiétude à ce sujet et déclarait que « je suis du côté de ceux qui se sentent préoccupés au sujet de l’intelligence artificielle… Dans quelques décennies, les avancées dans le domaine de l’intelligence artificielle seront telles que cela deviendra un problème ». Avant lui, ce fut Elon Musk, le PDG de Tesla et SpaceX, qui recommandait que nous soyons « super prudents avec l’intelligence artificielle ». Face à ces inquiétudes légitimes, plusieurs grands noms de l’industrie technologique, notamment Stephen Hawking, Elon Musk, Steve Wozniak pour ne citer que ceux-là ont signé une lettre ouverte afin d’attirer l’attention du monde sur le fait que la « course aux armements militaires IA est une mauvaise idée, et doit être empêchée par une interdiction des armes offensives autonomes au-delà de tout contrôle humain significatif».

Nom : IA.jpg
Affichages : 1587
Taille : 126,6 Ko

Partageant les mêmes inquiétudes au sujet des risques d’utilisation de l’IA à de mauvais escients, Sundar Pichai, le président directeur général d’Alphabet et de Google, vient de s’exprimer sur la nécessité de réglementer cette technologie. Pour lui, des entreprises comme Google « ne peuvent pas simplement construire de nouvelles technologies prometteuses et laisser les forces du marché décider comment elles seront utilisées ». « Cela est trop important pour ne pas le faire. Il nous incombe également de veiller à ce que la technologie soit exploitée pour le bien et accessible à tous », souligne-t-il dans son discours. Selon le PDG de Google, il ne fait aucun doute dans son esprit que l’intelligence artificielle doit être réglementée. « La seule question est de savoir comment l’aborder ».

Déjà en interne, Google a publié ses propres règles d’IA pour aider à guider le développement éthique et l’utilisation de cette technologie. Ainsi, selon ces règles, il existe des domaines dans lesquels l’entreprise ne concevra ni ne déploiera l’IA. Il s’agit par exemple de la surveillance de masse ou de la violation des droits de l’homme. À l’instar de son entreprise, le PDG ajoute que « toute entreprise développant de nouveaux outils d’IA devrait également adopter des principes directeurs et des processus d’examen rigoureux ». L’UE et les États-Unis commencent à élaborer des propositions réglementaires. Mais pour que le domaine de l’intelligence artificielle soit aussi réglementé que celui des armes biologiques, il est essentiel qu’au niveau international un accord soit défini sur les valeurs fondamentales, avance Pichai.

Il n’est pas nécessaire de partir de zéro, précise le PDG de Google. Pour lui, « les règles existantes telles que le règlement général européen sur la protection des données peuvent servir de base solide. De bons cadres réglementaires tiendront compte de la sécurité, de l’explicabilité, de l’équité et de la responsabilité pour garantir que nous développons les bons outils de la bonne manière. <

Bien que la proposition de Pichai soit partagée par beaucoup d’organisations et individus, certaines personnes pensent qu’elle ne servirait que les intérêts de Google en créant d’énormes barrières à l’entrée pour empêcher les nouvelles entreprises d’émerger. D’autres personnes par contre pensent que ce souhait de réglementer l’IA n’aurait d’autres objectifs que de chercher à contrer de manière proactive les réglementations potentiellement dommageables qui pourraient être émises par le Congrès américain ou l’UE. Selon vous, la position de Pichai de réglementer l’IA cacherait-elle autre chose que la simple volonté d’utiliser l’IA uniquement pour le bien de l’humanité ?

Source : Financial Times, The Independent

Et vous ?

Que pensez-vous du discours de Sundar Pichai sur la réglementation de l’IA ? Partagez-vous son avis ?

Ou pensez-vous que l’IA ne devrait pas être réglementée au même titre que les algorithmes classiques ne le sont pas ?

Voir aussi

L’intelligence artificielle devrait-elle bénéficier des mêmes protections éthiques que les animaux ? Oui, selon Aeon, qui propose la création de comités de surveillance chargés d’évaluer les risques
Les Googlers contre le conseil d’éthique de l’IA de Google, car il privilégie la proximité du pouvoir, sur le bien-être des groupes marginalisés
Les experts de l’Union européenne publient le premier draft sur les lignes directrices d’une IA éthique, la version finale est attendue en mars 2019
Quels sont les avantages et les inconvénients de l’Intelligence artificielle ? Noodle.ai, spécialiste de l’IA, donne son point de vue
Andrew NG, l’un des ténors de l’IA, considère le débat sur ses éventuelles dérives comme une perte de temps, partagez-vous son point de vue ?