Reconnaître l’IA
Cyril Gazengel
2016-03-08 00:00:00
URL

Originally published on Technoprog on 14 October 2013

De la fabrication d’outils (le chimpanzé qui cueille par exemple des fournis avec l’aide d’une tige de bois) à des comportements évoquant des rites funéraires notamment observés chez l’éléphant ; ou encore la conscience de soi où la liste des animaux passant le test du miroir (1) ne cessa de grandir : éléphants, dauphins, pies, chimpanzés, etc.

Néanmoins, tous ces exemples ne remettent pas en cause notre place comme animal dominant ni la vision que nous avons d’une supériorité de l’intelligence humaine dans la hiérarchie du vivant. En effet, même si un animal se retrouve doté d’une qualité humaine, l’ensemble de ses capacités cognitives restent très inférieures aux nôtres.

Reste que la définition fine de l’intelligence est fortement ancrée dans l’anthropomorphisme. Alan Turing, un des pères fondateurs de l’informatique, imagina en 1950 un test (2) censé déterminer si une machine pense ou non. Le protocole est basé sur une conversation en aveugle d’un humain avec deux interlocuteurs. À travers cet échange il doit déterminer qui est humain et qui ne l’est pas. Ainsi, lors du Techniche festival de Guwahati, en Inde fin 2011, l’intelligence artificielle en ligne Cleverbot (3) aurait réussi à convaincre 59,3 % de 1 334 volontaires de son humanité. Mais la démarche manquait de rigueur, néanmoins, le plus intéressant consiste dans l’échec de 36,7 % des êtres humains de l’assistance à ce test (4), démontrant par-là les limites de la démarche.

Telle est toute la problématique : en tant qu’humains nous avons une tendance naturelle à voir l’intelligence sous le seul prisme de notre intelligence individuée différenciée du groupe ; mais d’autres formes d’intelligences, notamment collectives, peuvent-elles exister à un niveau d’abstraction important ? La question reste ouverte car ce genre d’intelligence existe dans la nature sans pour autant donner le moindre signe de pensée abstraite. Cependant, leur performance évidente dans la résolution des problèmes a inspiré les informaticiens notamment avec l’algorithme des fourmis (5).

IA faible ou IA forte

Un autre souci, lorsqu’on parle d’intelligence artificielle, consiste à identifier l’intelligence réelle de l’intelligence simulée. C’est cette distinction qui se cache derrière le duo IA faible et IA forte. La première étant un programme qui simule parfaitement l’intelligence sans l’être ; la seconde correspond à un logiciel réellement intelligent et capable de raisonnement et probablement de pensée abstraite si on imagine une intelligence du niveau de celle de l’être humain. C’est du côté de l’industrie culturelle (dans les jeux-vidéos de la franchise Mass Effect) que se trouve d’ailleurs un terme bien plus parlant qu’IA faible : Intelligence Virtuelle, en opposition à Intelligence Artificielle correspondant à la seule IA forte.

Le cas Cleverbot illustre parfaitement comment un logiciel non pensant peut simuler la pensée. En effet, nous avons là un logiciel capable de passer le test de Turing chez une majorité de gens sans qu’aucun signe n’indique une conscience derrière la machine.

De l’illusion de l’intelligence à la machine pensante

Le problème : depuis la conférence de Darmouth (6) en 1956 qui vit la naissance officielle du domaine latent de l’intelligence artificielle, et malgré les errements et les pauses apparentes des avancées, l’IA n’a cessé de coloniser des domaines variés jugés propres à l’homme. Et à chaque fois, c’est la définition de l’intelligence humaine qui se précise en excluant des domaines qui lui étaient auparavant réservés. Avec les premiers agents intelligents dans les années 1980, arrive les premières machines capables d’analyse de problèmes complexes. Les ordinateurs sortent du simple calcul scientifique pour devenir une aide à la résolution de problématiques complexes ou d’aide à la décision. Ils mettent leur vitesse au service d’une optimisation de la performance humaine. Mais qu’ils soient logiciels boursiers ou pilotes automatiques, l’humain reste le décideur final, le facteur adaptable capable de gérer les situations imprévues.

Puis, en 1997, quand Deep Blue bat Garry Kasparov aux échecs (7), une onde de choc immense se répand tant ce sport est considéré en Occident comme le symbole de l’affrontement d’intelligences. De même, Watson battant les champions historiques du Jeopardy! (8) En 2011 fait le buzz sur le net : pour la première fois, un ordinateur bat les humains dans un jeu nécessitant la maîtrise de savoirs parfois abstraits ainsi que l’utilisation et la compréhension du langage. Mais peut-on déjà parler d’intelligences artificielles fortes dans ces deux cas là ? Pas si sûr tant il possible que ces machines ne fassent que simuler l’intelligence. D’autant qu’un des concepteurs de Deep Blue a dit que la victoire de la machine sur Kasparov était en fait liée à un bug qui, lui ayant fait faire une action absurde, a assez déstabilisé Garry Kasparov pour qu’il perde (9).

Nous atteignons là une limite qu’il faudra bien définir avec précision : celle séparant l’intelligence virtuelle qui ne fait que mimer, de l’intelligence artificielle qui pense réellement.

La gestion du risque existentiel

(10)

Cerner cette problématique est d’autant plus difficile que les attentes autour de la véritable machine intelligente sont fortes et flirtent avec le domaine du fantasme. Ce n’est pas pour rien si la science-fiction et un média de masse comme le cinéma préfèrent des IA fortes à des intelligences virtuelles comme personnages. Néanmoins, Hollywood illustra aussi une peur sous-jacente face à l’intelligence artificielle : le syndrome de Frankenstein où comment la créature échappe à son créateur pour se retourner contre elle. De Terminator à Matrix, l’imaginaire populaire est marqué d’IA inamicales concurrençant l’Homme et, du fait de leur supériorité intellectuelle, cherchant à l’éradiquer. D’ailleurs, dans la même veine, le Cambridge Centre for the Study of Existential Risk (11) identifie l’intelligence artificielle comme le seul vrai risque existentiel pesant à l’heure actuelle sur l’humanité.

Or, si l’expression consacrée pour une IA hostile se retournant contre son créateur est syndrome de Frankenstein, autant revenir à la source, au livre de Mary Shelley Frankenstein ou le Prométhée moderne.

Dans cet ouvrage, la créature ne se retourne pas contre l’humanité sans raison mais simplement parce que l’humanité, effrayée par sa laideur au point de la rejeter, la condamne à l’isolement du paria. Partant de la tristesse à la déception puis au désespoir, la créature développe une haine de son créateur. Cette fable morale illustre bien une possibilité : celle de voir l’humanité rejeter les IA qu’elle créera – ou à défaut ne pas les reconnaître comme intelligentes – et ainsi en faire des ennemies plutôt que des alliées. L’IA hostile devra peut- être son hostilité à notre incapacité à appréhender la réalité de son existence entant qu’entité dotée d’intelligence.

Ainsi, nier l’intelligence réelle des premières IA risquerait de nous donner un retard critique dans les contre-mesures à appliquer pour gérer leur hostilité potentielle. En ce sens, nous en revenons à cette notion que nier un problème n’a jamais permis d’en éviter les conséquences néfastes mais au contraire nous y rend vulnérables. Cette vulnérabilité est d’autant plus critique que la loi du retour accéléré (12) définie par Ray Kurzweil laisse entrevoir une probable explosion d’intelligence comme conséquence des premières IA fortes. Avec en ligne de mire le concept de la Singularité Technologique (13) développant l’idée d’un moment de l’histoire où l’évolution technologique devient si rapide que nos référents actuels échouent à la décrire. Si cet événement se concrétise (14), notre capacité à en limiter l’impact négatif dépendra du travail de réflexion que nous aurons effectué en amont.

La barrière biologique

Jusqu’à présent, corps et esprit sont fortement liés. Mais à supposer une intelligence désincarnée, au sens de « non liée à un organisme de type humain », celle-ci ne sera probablement pas anthropomorphique dans sa vision du monde. Comment, nous autres humains, si dépendant de nos sens comme l’illustre très bien Platon dans son Mythe de la caverne (15), pourrions-nous comprendre des concepts développés par une IA dont la notion de corps, voir même de réalité, diffèrerait fondamentalement de la nôtre.

De nos jours, nous sommes à une époque où la simulation du cerveau humain est l’objectif en vue. Déjà, une équipe de Fujitsu a réussi en août 2013, en quarante minutes, à simuler une minute de réflexion de l’équivalent d’un pour cent d’un cerveau humain sur le supercalculateur K. (16) Outre Atlantique, la DARPA a lancé le programme SyNAPSE (17) visant à construire une simulation du cerveau humain ; et le Human Brain project (18) de l’Union Européenne vise le même objectif. Ray Kurzweil, dans son livre How to create a brain donne d’ailleurs une sorte de feuille de route pour arriver à simuler un cerveau humain au niveau moléculaire. La question se posera alors quand un de ces divers projets aboutira : le cerveau ainsi créé est-il conscient ? Est-il humain ? Et les conséquences éthiques d’un tel évènement risquent fort de provoquer de nombreux remous dans les sociétés civiles.

De plus, en supposant que ces cerveaux accèdent à la conscience, libérés des contraintes de la biologie qui contingente l’accroissement de nos capacités cognitives, se pourrait-il qu’ils évoluent vers une conscience post-humaine ? En partant du postulat que oui, d’autres interrogations s’ouvrent à nous…

D’abord, traités comme des outils, il est fort peu probable que de tels cerveaux artificiels voient leurs créateurs comme des forces positives à leur égard, sauf si nous mettons en place des limitations dans les expérimentations initiales. Limites nécessaires afin de s’assurer que de tels cerveaux ne souffrent pas d’un manque d’empathie des expérimentateurs humains, et donc ne développent pas d’inimité envers nous s’ils sont conscients. Face au risque de reconnaître trop tardivement une véritable intelligence dans le cerveau ainsi malmené, il serait probablement judicieux de prévoir en amont des systèmes de confinement viables.

Cela dit, ces cerveaux resteront des cerveaux humains simulés à la base, donc des consciences partiellement anthropomorphes. Mais ce ne sera peut-être pas toujours le cas. Quid des IA sur ordinateur quantique ou des IA basées sur des systèmes en réseaux ? De telles intelligences seraient de fait tellement différentes de nous qu’elles pourraient développer des valeurs totalement autres, voire en opposition directe avec les fondamentaux humains. Et comme le dit Eliezer Yudkowski (19) : « L’IA ne vous hait pas plus qu’elle ne vous aime, mais vous êtes fait d’atomes qu’elle peut utiliser pour autre chose. » Eliezer Yudkowski est cofondateur de la Machine Intelligence Research Institute (20) une ONG dont la vocation est d’identifier, faire connaître et réfléchir aux solutions face aux dangers qu’une intelligence artificielle créera dans le futur. Sa phrase illustre un point essentiel : la possible incapacité inhérente des IA désincarnées à percevoir la détresse humaine qu’elles pourraient générer de par leurs actes. De même que l’humain pourrait passer à côté de l’intelligence artificielle car trop différente de la sienne, l’IA pourrait si elle est d’une nature totalement autre ne plus voir en l’homme une intelligence incarnée ; nous ne deviendrions qu’une matière première utilisable à laquelle elles dénieraient l’idée d’une individualité.

Cette incompréhension mutuelle potentielle a au moins un avantage : elle donne là une dynamique nécessaire parce que vitale visant à l’aboutissement d’un dialogue mutuel, et porte donc en elle la possibilité d’un enrichissement des deux points de vue par un élargissement de leur panorama.

De l’avantage d’avoir des IA qui pensent autrement

Finalement, et en partant du corollaire que nous réussirons à orienter l’émergence de l’intelligence artificielle vers une IA amicale, la flexibilité et la rapidité de développement de notre technologie peut aussi être un atout majeur.

Dans un univers bien plus riche en environnements étranges que nous le pensions quelques siècles plus tôt, penser différemment est un atout de taille. De même qu’en génétique la variété génétique renforce la solidité d’une espèce face aux dangers de la biosphère, il est fort probable qu’une variété cognitive protègera bien mieux la civilisation où évolueront humains et IA, et en augmentera très probablement la robustesse face à l’inconnu. Si notre mode de pensée anthropomorphique se retrouve inapte à traiter une situation nouvelle, une autre forme d’intelligence issue de nos IA nous permettra peut-être collectivement de la comprendre et d’y faire face.

Cyril Gazengel

Notes :

1. http://evobio.blog.lemonde.fr/2010/10/27/la-reconnaissance-de-soi-dans-un-miroir/

2. http://fr.wikipedia.org/wiki/Test_de_Turing

3. http://fr.wikipedia.org/wiki/Cleverbot

4. http://www.futura-sciences.com/magazines/high-tech/infos/actu/d/informatique-buzz- cleverbot-aurait-passe-test-turing-33327/

5. http://www.cnrs.fr/Cnrspresse/n386/html/n386a09.htm

6. http://www.learn-intelligence.com/fr/tag/conference-de-dartmouth/

7. http://en.wikipedia.org/wiki/Deep_Blue_versus_Garry_Kasparov

8. http://fr.wikipedia.org/wiki/Watson_(intelligence_artificielle)

9. http://www.futura-sciences.com/magazines/high-tech/infos/actu/d/informatique-bug-serait- origine-victoire-deep-blue-kasparov-41841/

10. http://wikipedia.qwika.com/en2fr/Existential_risk

11. http://cser.org/

12. http://en.wikipedia.org/wiki/Accelerating_change

13. http://fr.wikipedia.org/wiki/Singularit%C3%A9_technologique   

14. Vernor Vinge, auteur de science-­?fiction et professeur d’informatique et de mathématiques à l’Université d’État de San Diego, un des pères de l’idée de Singularité, doute de la réalité future du phénomène. http://www.actusf.com/spip/Interview-Vernor-Vinge-VF.html

15. http://fr.wikipedia.org/wiki/Mythe_de_la_caverne

16. http://www.tomshardware.fr/articles/cerveau-humain-supercalculateur,1-45483.html

17. http://www.artificialbrains.com/darpa-synapse-program

18. http://www.humanbrainproject.eu/

19. Citation extraite et traduite de l’ouvrage de James D. Miller : Singularity Rising

20. http://intelligence.org/ anciennement connu sous le nom de Singularity Institute for Artificial Intelligence