Institute for Ethics and Emerging Technologies


The IEET is a 501(c)3 non-profit, tax-exempt organization registered in the State of Connecticut in the United States. Please give as you are able, and help support our work for a brighter future.


Search the IEET
Subscribe and Contribute to:


Technoprogressive? BioConservative? Huh?
Quick overview of biopolitical points of view




whats new at ieet

Bio-Cryptoeconomy: Nanorobotic DACs for Cell Repair and Enhancement

Augmented Reality: Pokémon GO Is Only the Beginning

No Mans Sky: A Deist Simulated Universe

Interview with Gerd Leonhard and his New Book TECHNOLOGY vs. HUMANITY

Physics vs. Human Perception: Which Represents Reality?

This Is Where Europe’s Upcoming Rover Mission Will Explore Mars


ieet books

Philosophical Ethics: Theory and Practice
Author
John G Messerly


comments

almostvoid on 'Augmented Reality: Pokémon GO Is Only the Beginning' (Aug 24, 2016)

almostvoid on 'No Mans Sky: A Deist Simulated Universe' (Aug 24, 2016)

instamatic on 'Is Dropping Out of College Throwing Your Life Away?' (Aug 23, 2016)

Rick Searle on 'Our emerging culture of shame' (Aug 22, 2016)

Alexey Turchin on 'Why Running Simulations May Mean the End is Near' (Aug 22, 2016)

RJP8915 on 'How VR Gaming will Wake Us Up to our Fake Worlds' (Aug 22, 2016)

almostvoid on 'IEET Affiliate Scholar Phil Torres Publishes New Paper in JET' (Aug 22, 2016)







Subscribe to IEET News Lists

Daily News Feed

Longevity Dividend List

Catastrophic Risks List

Biopolitics of Popular Culture List

Technoprogressive List

Trans-Spirit List



JET

Enframing the Flesh: Heidegger, Transhumanism, and the Body as “Standing Reserve”

Moral Enhancement and Political Realism

Intelligent Technologies and Lost Life

Hottest Articles of the Last Month


Op-ed: Climate Change Is the Most Urgent Existential Risk
Aug 7, 2016
(4956) Hits
(4) Comments

Consciousness, Reality, and the Simulation Hypothesis
Aug 4, 2016
(4390) Hits
(15) Comments

Shedding Light on Peter Thiel’s Dark Enlightenment
Aug 15, 2016
(4093) Hits
(2) Comments

Cognitive Buildings!
Aug 1, 2016
(3371) Hits
(1) Comments



IEET > Francaise > Rights > Personhood > Life > Access > Enablement > Neuroscience > Health > Vision > Futurism > Technoprogressivism > Advisory Board > Didier Coeurnelle

Print Email permalink (0) Comments (1045) Hits •  subscribe Share on facebook Stumble This submit to reddit submit to digg


Longévité, IA, risques existentiels : dangers et opportunités (partie B)


Didier Coeurnelle
By Didier Coeurnelle
Technoprog

Posted: Feb 26, 2016

Partie B : Que faire ? > Lien vers la partie A de l’article

4. Faire avancer la recherche en matière de longévité sera plus facile avec l’aide de l’intelligence artificielle

De nombreuses approches sont possibles lorsqu’il s’agit d’augmenter notre espérance de vie maximale. La recherche se focalise en général sur les domaines suivants :

​​Article Previously published on Technoprog on Jan 26 2016

  • Les médicaments
  • La chirurgie
  • Les cellules souches
  • Les thérapies géniques
  • La médecine régénérative
  • Les nanotechnologies

Les investissements prospectifs les plus importants en termes de temps, d’efforts et d’argent sont pour le moment centrés sur les approches menant à des produits (tels médicaments) et sur la compréhension et l’utilisation des informations génétiques. Cependant, même avec les médicaments les plus performants que la science actuelle a à fournir, une personne de l’âge de Jeanne Calment ne gagnerait probablement pas plus de quelques années de vie supplémentaires. Et les thérapies géniques font tout juste leurs débuts.

Sans l’appui que pourrait apporter l’intelligence artificielle, il est vraisemblable qu’il nous faille attendre encore plusieurs décennies avant qu’une percée technologique cruciale ne voie le jour. Ceci est tout particulièrement vrai en Europe et aux États-Unis, où la législation en matière d’expérimentation sur l’homme et sur l’animal rend bien plus difficile le fait de tester rapidement si de nouvelles thérapies fonctionnent aussi lorsque l’on sort de la théorie. Il s’agit de réaliser autant de travail de recherche que possible via l’utilisation de modèles informatiques fiables ou par des expériences in vitro.

5. L’intelligence artificielle a sa part de risques

Les spécialistes définissent en général le terme “intelligence artificielle (IA)” selon sa portée, en deux domaines qui ne sont pas nécessairement exclusifs : “l’intelligence artificielle faible” et “l’intelligence artificielle forte” ou encore “intelligence artificielle générale” (IAG). La première catégorie contient tout ce que l’on peut considérer comme des outils spécialisés, tel le logiciel pour faire fonctionner un véhicule sans chauffeur, un traducteur automatique ou un logiciel de reconnaissance d’images. La deuxième catégorie reprend tout système dont les facultés sont généralistes et au moins similaires à celles de l’homme dans leur diversité. Une intelligence artificielle généralisée pourrait dépasser les limites que même le génie humain ne peut atteindre, dans un domaine précis, ou même dans tous les domaines à la fois.

Le meilleur outil connu d’intelligence artificielle disponible à l’heure actuelle est un système informatique mis au point par IBM “WATSON”. Ce système ne peut être qualifié d’intelligence artificielle générale, même si ses capacités sont impressionnantes. Ce système est particulièrement doué pour ce qui est de répondre à des questions, d’abord de culture générale, mais aussi dans la recherche médicale.

Pour l’instant, le système médical est en phase “d’apprentissage”, assimilant des masses énormes d’informations concernant de nombreux patients séjournant en institution médicale. Cependant, ce projet semble plus se focaliser sur l’utilisation optimale de thérapies déjà existantes que sur le développement de nouvelles voies de recherche. En d’autres termes, il semble surtout promettre une amélioration de notre espérance de vie moyenne, mais pas maximale.

Mais d’autres pistes peuvent être développées (et le sont déjà partiellement) :

  • l’analyse systématique notamment sur des modèles informatiques simulant des fonctions organiques, des substances chimiques ou biologiques susceptibles d’avoir un impact important sur la longévité;
  • la recherche systématique des mutations génétiques d’espèces animales ou d’êtres humains permettant une vie (beaucoup) plus longue ainsi que l’accélération et l’automatisation des procédures de thérapies géniques;
  • le développement de thérapies dans les domaines des affections neuro-dégénératives, facilité par le développement de modèles informatiques des circuits neuronaux atteints;
  • pour le plus long terme, la réalisation de nanomédicaments et nanorobots.

Au cours de ces dernières années, et tout particulièrement en 2015, un nombre croissant de personnes ont fait publiquement part de leur préoccupation face aux conséquences dangereuses possibles du développement de l’Intelligence Artificielle. Bill Gates, Stephen Hawking et Elon Musk sont parmi ceux qui s’inquiètent des développements actuels qui, dans la pire des hypothèses, pourrait mettre fin à l’existence même de l’humanité (d’où l’utilisation du terme “risques existentiels”). Leurs opinions ont été renforcées par la lecture de l’ouvrage “Superintelligence: Paths, Dangers, Strategies” (Superintelligence : Voies de réalisation, Dangers, Stratégies) du philosophe Nick Bostrom. Ce dernier n’est pas seulement un expert de la question de l’intelligence artificielle, c’est aussi un des transhumanistes les plus connus du Royaume-Uni, qui a défendu la recherche radicale pour la longévité.

Il ne nous est pas possible de donner une vue complète de tous les risques associés à l’intelligence artificielle. Voici cependant quelques possibilités :

  • Utilisation de l’intelligence par des personnes ou groupements mal intentionnés. Le thème de la découverte majeure aux mains de personnes dangereuses est souvent abordé dans les récits de fiction (le savant fou, le dictateur qui préfère risquer de détruire le monde plutôt que de se rendre…). Ce n’est malheureusement pas à écarter des risques réellement envisageables.
  • Déclenchement d’une guerre par erreur : un système de contrôle complètement automatique, s’il avait existé dès les années 60, aurait presque certainement déclenché une guerre nucléaire totale.
  • Risques liés aux armes autonomes. Un danger pour ces armes est qu’il est possible de les pirater pour les retourner contre leurs propriétaires originaux. La parade habituelle est de rendre l’accès aux contrôles de ces armes aussi difficile que possible. Une telle arme pourrait devenir impossible à arrêter, même pour ses propriétaires originaux.
  • Conséquences inattendues des spécifications de base données par le programmeur humain : un exemple classique est celui de l’usine automatique qui a été programmée avec pour but de maximiser sa production. Une fois que l’usine a assez de moyens pour se fournir en matériaux à l’extérieur, tout peut devenir un “matériel” s’il est utilisable. Cela comprend tout ce qui est construit par l’homme. Cela pourrait même comprendre l’homme, qui est après tout composé de nombreux types d’atomes et de molécules organiques utilisables comme matériaux.
  • Conséquences dues aux buts et objectifs secondaires dérivés par l’IAG elle-même : par exemple, un but suffisamment mal spécifié par le programmateur, tel que “faire en sorte que l’humanité devienne plus heureuse” peut mener à des solutions inventives de la part de l’IAG. Plonger tout le monde dans un coma, ou au moins toute personne n’étant pas assez heureuse et étant donc susceptible de faire baisser le bonheur mondial moyen. L’idée ici est que même une fin qui semble à la base positive peut mener en cours de route à des moyens qui ne le sont pas.
  • Enfin, de manière proche de ce qui est souvent imaginé en science-fiction dystopique, l’intelligence artificielle pourrait estimer qu’il faut éliminer l’espèce humaine pour aboutir aux objectifs qu’elle se serait fixée. Par exemple, l’IA pourrait arriver à la conclusion, non prévue par ces créateurs, que l’espèce humaine est dangereuse ou néfaste pour le développement de l’intelligence dans l’univers.

Pour beaucoup de personnes, et ce y compris de nombreux transhumanistes, de telles possibilités ne semblent pouvoir être que de la science-fiction. Et pourtant, faut-il rappeler à quel point pour quelqu’un qui vivait il y a à peine vingt ans, le fait qu’un moteur de recherche comme Google ait souvent une très bonne idée de ce que vous allez taper comme mots de recherche dés les quelques premières lettres serait apparu comme de la véritable intelligence? Autrement dit, la science-fiction d’aujourd’hui peut être le futur assez proche.

6. Avoir pour but l’extension de la vie humaine rendrait l’intelligence artificielle moins dangereuse

Nous ne savons pas encore vraiment ce qu’est l’intelligence ou la conscience de soi. Toutefois le fait que nous ne comprenions pas quelque chose ne nous empêche pas de pouvoir le dupliquer ou même le créer de novo. La recherche scientifique est un processus qui se fait par essais et erreurs. Nous pourrons peut-être concevoir une intelligence artificielle sans comprendre entièrement ce que nous avons fait.

De nombreux transhumanistes, et plus généralement de nombreux spécialistes informatiques, sont convaincus que la probabilité est très élevée que nous développions une intelligence artificielle générale dans les cinquante prochaines années. La majorité d’entre eux sont d’avis que les risques liés à cet évènement sont élevés ou très élevés.

De nombreuses propositions existent pour modérer ces risques. En pratique ces idées peuvent être résumées en une seule phrase : Nous devons prendre le maximum de précautions de manière à nous assurer que toutes les conséquences des actions ou manques d’actions d’une intelligence artificielle ne puissent être nocives pour l’être humain en particulier et l’humanité en général. Ce qui signifie entre autres que nous devrions avoir pour objectif de :

  • créer des règles qui rendent impossibles les décisions néfastes
  • créer des règles pour rendre impossibles les actions intermédiaires néfastes, par exemple les mesures violentes que pourrait prendre l’IA pour subsister en vue de sa finalité
  • empêcher l’IA de faire quoi que ce soit qui n’ait pas été approuvé par un gardien humain
  • empêcher l’IA d’avoir la possibilité d’agir physiquement sur le monde externe (l’emprisonner en isolation dans une “cellule”)

Il serait trop long de développer ici ces aspects. Par ailleurs, comme nous l’avons déjà mentionné plus haut, nous sommes en train de discuter d’une intelligence artificielle dont les facultés dépassent de loin celles de l’être humain. Notre capacité à l’empêcher de faire ce qu’elle voudrait pourrait être aussi peu développée que celle qu’aurait une fourmilière à nous résister. De même, nous pourrions être tout aussi incapables de comprendre les raisons pour lesquelles une telle intelligence artificielle aurait pris ses décisions que les fourmis de ladite fourmilière seraient incapables de comprendre la volonté d’humains de vouloir aplanir un terrain vague pour y construire une route (avec la destruction de la fourmilière comme conséquence secondaire et peu importante).

Cependant, nous partageons un ancêtre commun avec lesdites fourmis. Nous obéissons à des règles communes, telles que “se reproduire”, “se nourrir”, “respirer”, “défendre nos proches”… Il y a de bonnes raisons de penser que si l’on crée une IA avec de bonnes bases, les risques seront moindres.

Ces risques seraient donc diminués si l’IA avait pour but de faire tout ce qu’elle peut pour que tout être humain de chair et de sang vive une vie aussi longue et en bonne santé que possible.

Pour utiliser une métaphore, certes imparfaite, nous sommes pour l’instant sur une luge au sommet d’une très haute montagne aux pentes abruptes. Une fois que nous nous serons élancés vers le bas, il ne nous sera plus possible de nous arrêter et peut-être même pas de diriger notre descente. Notre seule mesure de contrôle se trouve dans notre décision initiale de diriger la luge dans une direction plutôt qu’une autre.

Ceci est la raison pour laquelle je pense que la première des “trois lois de la robotique” telles que décrites par le physicien et auteur Isaac Asimov en 1942 :

“Un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger.”

se verrait améliorée en la modifiant comme suit :

“Une intelligence artificielle ne peut porter atteinte à un être humain et doit faire tout ce qu’elle peut pour améliorer la santé et la longévité de tous les êtres humains”

Focaliser autant que possible l’intelligence artificielle sur cette question aurait deux conséquences positives :

En cas de succès, les vies plus longues qui en découleraient seraient un facteur de bonheur individuel et d’évolution sociétale pacifique.

Que nous parvenions ou pas à résoudre la question du vieillissement, faire en sorte que l’IA ait pour but prioritaire le bien-être et la survie des femmes et des hommes ne peut que diminuer les risques que l’IA ne nous détruise ou nous lèse.

— Didier Coeurnelle

 


Didier Coeurnelle, born in 1962, is an active member of the European Life Extension Community. He is a funding member and co-chair of Heales, Healthy Life Extension Society, and a member of the board of the Association Française Transhumaniste (AFT) Technoprog. He is also a lifelong member of the Immortality Institute and a donor to the SENS Foundation. As a member of Heales, Didier publishes the newsletter La mort de la mort (in French) and De dood van de dood (in Dutch). As a member of the AFT, he took part in the first two conferences of the AFT in the University La Sorbonne. Didier is also politically active in the Green movement and is a jurist, working in a Belgian Federal Public Service and specialized in Social Security. Watch Didier Coeurnelle Interview. Visit his Facebook page.
Print Email permalink (0) Comments (1046) Hits •  subscribe Share on facebook Stumble This submit to reddit submit to digg


COMMENTS


YOUR COMMENT (IEET's comment policy)

Login or Register to post a comment.

Next entry: Introducing the Subfield of Agential Riskology

Previous entry: Happiness By Design

HOME | ABOUT | FELLOWS | STAFF | EVENTS | SUPPORT  | CONTACT US
SECURING THE FUTURE | LONGER HEALTHIER LIFE | RIGHTS OF THE PERSON | ENVISIONING THE FUTURE
CYBORG BUDDHA PROJECT | AFRICAN FUTURES PROJECT | JOURNAL OF EVOLUTION AND TECHNOLOGY

RSSIEET Blog | email list | newsletter |
The IEET is a 501(c)3 non-profit, tax-exempt organization registered in the State of Connecticut in the United States.

East Coast Contact: Executive Director, Dr. James J. Hughes,
56 Daleville School Rd., Willington CT 06279 USA 
Email: director @ ieet.org     phone: 860-428-1837

West Coast Contact: Managing Director, Hank Pellissier
425 Moraga Avenue, Piedmont, CA 94611
Email: hank @ ieet.org