La super-intelligence : un espoir menaçant ?

Lights of ideasLa super-intelligence : un espoir menaçant ?

Par Pierre-Louis Tamboise

Daniel Dewey, (ancien de l’Intel Labs Pittsburg and Carnégie Mellon University, de Google), est le « Alexander Tams Research Fellow on Machine Superintelligence and the future of A.I. (Intelligence Artificielle) at the future of humanity institute ». Il pense, que les machines super-intelligentes seront bien plus efficaces, dans le planning des actions et la résolution des problèmes, que n’importe quel humain ou groupe d’humains pour répondre aux questions de l’avenir. Il s’inquiète de savoir si le phénomène de cette domination par la super-intelligence peut arriver rapidement ou non et ce qu’elle va entraîner, sachant que son explosion aura des conséquences particulièrement importantes car ces machines seront capables d’avoir une compréhension accrue, avec un pouvoir de décision théorique supérieur, en même temps qu’elles disposeront d’outils de calculs plus sophistiqués encore leur permettant de choisir les programmes les plus efficaces pour réaliser les actions auxquelles on les destine. Or il est facile de comprendre que la plupart de ces projets ne seront pas compatibles, pour leur réalisation, avec des réponses acceptables (par nous).

Le pire serait que ces machines émergent tout à coup, et de façon imprévue (par quelque amélioration de systèmes ou modification de principes) ? Pourraient-elles alors acquérir le pouvoir d’organiser un tel potentiel de capacités en le tournant à des fins menaçantes ? Le problème c’est qu’elles seraient capables, si on les programmait pour cela, de choisir les actions les plus efficaces dans ce sens, selon la préférence et les arguments philosophiques de ceux qui les planifieraient. N’oublions pas que les buts valables (décents et positifs) sont recherchés par des programmes particuliers et que programmer un computeur pour atteindre ce qui est valable (et juste) est un problème difficile. Dans ces conditions il serait important d’acquérir une coordination efficace pour éviter de tels chocs (incontrôlés) car ce type de recherches a besoin de fondamentaux qui peuvent aider les chercheurs et les visionnaires. Devant ces complexités et la déshumanisation due à l’excès d’abstraction de la science, mais aussi d’un capitalisme délirant qui s’engagerait dans la voie de sa propre destruction, ou bien encore d’une robotisation trop frénétique dont l’accélération deviendrait exponentielle, il est évident que l’arrivée d’une super-intelligence dominant le cerveau humain poserait des tas de questions. Si nous possédons des aptitudes que n’ont pas les animaux, c’est d’elles jusqu’ici, que notre espèce tenait pourtant sa position dominante, or les machines à penser actuelles surpassent déjà l’intelligence humaine (pour certaines fonctions). On comprend que l’arrivée de cette nouvelle vague pourrait devenir si puissante qu’elle risquerait de passer elle-même hors de contrôle.

De même qu’aujourd’hui les gorilles dépendent plus des humains que d’eux-mêmes, de même le destin de l’humanité pourrait dépendre de ces « super-intelligences». Ce risque inquiétant est cependant atténué d’un avantage que nous avons sur elles, à savoir que c’est nous qui mettons en route toute cette affaire, c’est-à-dire que nous sommes encore à temps de mettre également en train quelque chose qui nous permettrait de créer des conditions permettant de survivre à cette révolution. Mais comment arriverions-nous à contrôler cette explosion si elle se présentait ? Le dernier livre de Nick Bostrom (directeur de l’institut du futur de l’humanité, à l’université d’Oxford) poserait, selon cet article, la question de ce qui pourrait arriver si les machines surpassaient l’intelligence humaine en général, et par quels moyens on pourrait éviter qu’elles nous détruisent : « Il dessine les fondations de ce qui pourrait nous permettre de comprendre le futur de l’humanité et celui d’une vie intelligente ». Et Dewey insiste, « il décortique le parcours intellectuel difficile de cette recherche après un voyage enrichissant qui nous amène aux frontières d’une façon originale de penser » à propos de la condition humaine et du future. « Nous (y) trouvons rien moins que la re-conceptualisation de ce qui est (devenu) l’indispensable tâche de notre temps », et ce que nous cherchons tous. (d’après un article de l’université d’Oxford – Wikipédia).
La question qui se pose alors est : pourrions-nous programmer ces machines à partir des « besoins » humains pour qu’elles proposent des modèles de société y répondant, qui incluraient la liberté et le bonheur (pour ne pas tout recommencer à l’envers comme on l’a fait jusque-ici) ?

Crédits photo : Saad Faruque 

Qu'en pensez-vous?