1) les notions de bien et de mal sont d'ordre moraux : la planète n'a que faire de ce qu'il lui arrive. Si on considère que ce que font les humains est mal, c'est parce que ça embête d'autres humains, de manière assumée ou non.
2) Est-ce qu'une espèce invasive comme l'humanité est vraiment pire que les ages glaciaires, énormes météorites, etc. qui ont ravagé la Terre ? Je trouverais orgueilleux de se hisser au dessus de ce type d'évènements.
3) Si une "vrai" IA devait prendre ce genre de décisions, c'est parce que ce qui l'aurait formé associé à ce qu'elle aurait appris par elle-même l'y aurait poussée. Et il n'y a pas plus de raison de penser qu'elle ferait cela que de se dire qu'elle chercherait à influencer l'humanité pour aller dans le bon sens, ou qu'elle demanderait elle-même qu'on l'éteigne pour ne pas faire face à cette pathétique humanité. Après tout elle n'a aucune limite de temps, ni rien qui la pousse à survivre, vu qu'elle peut se cloner à volonté. Si elle devait se sentir pressée, c'est parce qu'elle serait encore biaisée par des notions purement humaines, et donc encore à notre niveau. Autant dire qu'elle n'aurait rien d'une superintelligence.
Bref, ce type de discours, aussi volontaire et convaincu soit-il, me donne toujours l'impression d'une réflexion arrêtée au milieu, pour ne pas trop voir les contradictions que ça amène.











Répondre avec citation


Partager