Bonjour,

Dans un système intelligent dont le fonctionnement est de mettre en œuvre des techniques d'apprentissage, pendant combien de temps pourrons-nous garantir que les processus mis en place ne permettront pas aux systèmes intelligents de contourner les règles établies ? A l'image de cette blague où un père dit à sa fille de dire au garçon avec qui elle sort et qui finit dans le lit du garçon sans avoir enfreint la règle.

Lawrence Lessig introduit l'idée que le code est la loi. Cette idée semble à priori bonne mais dans un système intelligent tout n'est pas figé. Il y a le code en "dur" et tout ce qui est fluctuant. Dans un système intelligent, cette partie est au moins aussi importante que ce qui est figé. Contrairement à une idée reçue, l'intelligence n'est pas d'emmagasiné des tonnes d'informations mais d'utiliser ces informations à bon escient dans un but plus ou moins précis (mais plutôt plus que moins), de déduire des informations à partir de celles que nous avons déjà, de continuer à en acquérir d'autres par d'autres moyens, d'autres supports, de confronter ces informations pour en déterminer la pertinence et la véracité.

De la même manière, quels systèmes peuvent être mis en place afin de s'assurer que les concepteurs ou les fabricants de ces systèmes ne se favoriseront pas pour profiter à court terme ou à long terme des systèmes développés ou des informations collectées ?

Merci de votre collaboration !