Bonjour,
ce qui m'inquiète un peu dans cette histoire, encore une fois, c'est la phrase suivante:
Ce qui me pose problème, ce n'est pas que l'ordinateur devienne plus intelligent que l'être humain, mais que l'être humain devienne aussi bête que l'ordinateur.Microsoft Band et l’application Health exploiteront une plateforme Cloud pour la sauvegarde de vos données de santé. Les technologies de machine learning et de Big Data dont dispose Microsoft prendront le relais pour identifier vos besoins et vous faire des suggestions.
C'est un slogan, une formule. Il faudrait définir "intelligent" et "bête", mais ce qui se cache derrière tout ça, c'est l'influence que les données de masse peuvent avoir sur nos comportements. Si l'utilisation de ces objets se répand, Google aura à sa dispositions des données de très bonne qualité, et en quantité telle qu'il pourra construire des modèles très puissants. Il ne s'agit pas, contrairement aux débats actuels, de données privées, mais bien au contraire, de données de masse. Dit autrement, le problème est plus du domaine de la sociologie que psychologie.
Certaines études, et certains résultats montrent un peu plus clairement le problème. Par exemple, une foultitude d'études, menées dans des pays différents et à diverses époques, montrent que les résultats aux élections sont très fortement corrélées avec les temps d'apparition des candidats à la télévision. Un autre exemple, les résultats des régies de publicité: la publicité, lorsqu'elle est ciblée, atteint des ratios jusqu'à 2000% d'efficacité supérieure à lorsqu'elle n'est pas ciblée.
Je travaille moi-même dans le domaine du data mining, et plus particulièrement la création de modèles prédictifs. Et je suis régulièrement abasourdi par la puissance des modèles que nous créons. Lorsque les données sont de bonnes qualité et en quantité suffisante, l'utilisation efficace de la science des statistiques permet de prévoir beaucoup de choses très précisément.
Tout ceci montre que, malgré le fait que nous sommes de plus en plus libre, nous sommes en fait toujours autant manipulables. Ainsi donc, mes craintes sont de l'ordre de la norme. Si une entreprise comme Google parvient à créer des modèles suffisamment performants, ces modèles pourront alors, insidieusement, créer des normes. Et moi ce qui me fait un peu peur, c'est que si des algorithmes créent des normes, alors c'est une partie importante de notre humanité qui nous échappe, car c'est un des traits constitutifs de l'être humain que de créer des normes. De la même façon, si Page Rank devient curieux à notre place, et si Wikipédia devient notre mémoire, nous risquons de perdre certains attributs (curiosité et capacités cognitives ici) qui font de nous des êtres humains.
Je me fiche que google sache tout de moi, en revanche, je ne suis pas certain d'aimer une société dont les normes sont créées par des algorithmes. Et s'ajoute à cela le fait que ces sociétés, qui récoltent et utilisent ces données de masse, sont des entreprises dont la principale considération, celle qui prévaut sur toutes les autres, est de gagner de l'argent. Ce qui est très largement incompatible avec l'idée que je me fais des méthodes nécessaires à l'émergence de normes moralement bonnes.
Donc en fait, moi, personnellement, en tant qu'individu, je ne porterai jamais de tels gadgets. Mais cela ne change rien au problème, car si un grand nombre de personne le fait, les processus de normalisation basés sur des algorithmes seront tout de même possibles.
Partager