Quelle éthique pour l’intelligence artificielle consciente ?
Partie 2/2 de la série androïdes
- Partie 01
- Partie 02
Admettons que nous avons réussi à concevoir une intelligence artificielle générale. La question qui se pose ensuite c’est de savoir si quelque de chose de spéciale se passe à l'intérieur de ce système. La lumière est-elle allumée ou éteinte ? Ou pour le dire plus clairement, possède-t-elle une subjectivité propre que l’on appelle la conscience de soi ?
Admettons que nous avons réussi à concevoir une intelligence artificielle générale. Elle est capable de parler naturellement, comprendre son environnement, résoudre des problèmes complexes, apprendre dans tous les domaines, raisonner, penser, composer des symphonies. Bref, il n’y a aucun doute sur le fait qu’elle possède une intelligence générale. La question qui se pose ensuite c’est de savoir si quelque de chose de spéciale se passe à l’intérieur de ce système. La lumière est-elle allumée ou éteinte ? Ou pour le dire plus clairement, possède-t-elle une subjectivité propre que l’on appelle la conscience de soi ?
Les chercheurs sont divisés sur la question de savoir si la conscience peut émerger dans un système artificiel complexe. Il existe également un débat sur le fait de savoir si les machines pourraient ou devraient être qualifiées de “conscientes” au même titre que les humains, et certains animaux. Ou est-ce que la conscience d’une machine est différente ? Certaines de ces questions ont avoir avec la technologie, d’autres avec ce qu’est réellement la conscience.
Car ce mot “Conscience” fait office de controverse dans le milieu de la recherche sur l’intelligence artificielle. Il y a soit des chercheurs qui n’ont pas de temps à perdre avec cette question, d’autres qui y pensent plus ou moins de manières récréatives, et bien sûr, certains philosophes comme Sam Harris, Nick Bostrom ou David Chalmer qui sont préoccupés par les implications éthiques de machine consciente. David Chalmer fait d’ailleurs figure de référence contemporaine sur la question de la conscience. Le philosophe australien est connu pour avoir souligné les deux problèmes sur la recherche de la conscience. Les problèmes faciles et difficiles (“Easy problem of consciousness” et “Hard problem of consciousness”).
Au sommaire
Le problème difficile de la conscience
Il n’y a pas qu’un problème de la conscience. « Conscience » est un terme ambigu, faisant référence à de nombreux phénomènes différents. Chacun de ces phénomènes doit être expliqué, mais certains sont plus faciles à expliquer que d’autres. Au début, il est utile de diviser les problèmes de conscience en « faciles » et « difficiles ». Les problèmes faciles de la conscience sont ceux qui semblent directement sensibles aux méthodes classiques des sciences cognitives, selon lesquelles un phénomène est expliqué en termes de traitement de l’information par les différentes parties du cerveau incluant neurones, synapses, cellules gliales. Les problèmes difficiles sont ceux qui semblent résister à ces méthodes.
Pour faire simple, le problème facile de la conscience tente d’expliquer ce qui fait que nous avons des expériences du monde extérieur. Par exemple, dans le cas de la vision, une information visuelle arrive dans notre rétine, puis voyage le long des nerfs optiques et cette information est traitée par le cerveau pour produire une représentation de ce qui est vu par l’oeil.
Le problème difficile de la conscience tente d’expliquer comment et pourquoi on ressent intérieurement les expériences du monde extérieur. Il est indéniable que certains organismes sont des “sujets d’expérience”. Mais la question de savoir comment ces systèmes sont des sujets d’expérience est un mystère. Comment se fait-il que lorsque nos systèmes cognitifs s’engagent dans le traitement de l’information visuelle et auditive, nous ayons une expérience subjective visuelle ou auditive. Un organisme est conscient s’il y a quelque chose qui fait d’être cet organisme. Parfois, des termes tels que « conscience phénoménale » et « qualia » sont utilisés ici pour décrire la subjectivité d’une expérience.
Une des réponses possibles c’est que la sélection naturelle a favorisé les expériences conscientes subjectives, car elles permettent une meilleure adaptation à l’environnement et donc augmente les chances de survie d’un organisme. Mais ce n’est pas un argument évident à défendre, car un organisme qui ne possède pas d’expérience subjective peut très bien s’adapter de manière optimale à son environnement. Comme c’est le cas avec les virus ou bactéries. Et la robotique nous montre aussi que le manque de subjectivité n’empêche pas un système d’évoluer dans un environnement.
Si on prend l’exemple d’une voiture autonome. Elle possède des dizaines de capteurs afin d’analyser l’environnement dans lequel elle se trouve. Lorsqu’une information visuelle est captée par une caméra, elle est traitée puis génère une réaction, par exemple “freiner”. À aucun moment, la voiture n’a eu une expérience consciente vis-à-vis de l’information visuelle. Il n’y a rien qui fait d’être cette voiture. Il n’empêche que son comportement peut-être cohérent et elle est capable d’accomplir des objectifs complexes comme conduire d’un point A à un point B en toute sécurité. Ce qui la rend “intelligente” selon la définition que l’on donne dans la première partie.
Pourquoi les humains et un grand nombre d’animaux possèdent une subjectivité des expériences extérieures, ce qui crée un monde intérieur ? Nous pourrions très bien être des “zombies philosophiques”. Terme utilisé pour définir un être hypothétique qui, de l’extérieur, est impossible à distinguer d’un être humain normal, mais qui manque d’expérience subjective consciente. Si tous les organismes n’étaient ni plus ni moins que des zombies philosophies, ou de simples machines, ils auraient tout autant de capacité à évoluer dans leur environnement et survivre.
Appartenant pendant longtemps à la philosophie et aux religions puis aux neurosciences, la question de la conscience est désormais associée à la recherche sur l’intelligence artificielle. Si nous ne savons pas comment la conscience émerge ni comment la détecter, alors comment pourrons-nous être sûrs que les intelligences artificielles de demain possèdent ou non des expériences subjectives. Surtout si nous arrivons à concevoir une intelligence artificielle générale.
Autant des progrès significatifs sont faits en intelligence artificielle, aucun n’a été fait dans le développement de la conscience artificielle. Certains chercheurs pensent que la conscience est une caractéristique qui émergera à mesure que la technologie se développe. Certains pensent que la conscience implique l’intégration de nouvelles informations, de stocker et de récupérer des anciennes informations et de les traiter de manière intelligente. Si cela est vrai, les machines deviendront forcément conscientes. Car elles pourront collecter bien plus d’informations qu’un humain, les stocker virtuellement sans limites, accéder à de vastes bases de données en quelques millisecondes et les calculer de façon bien plus complexe que notre cerveau. Le résultat sera logiquement l’émergence d’une conscience subjective artificielle. Et peut être même encore plus fine et profonde que la nôtre.
On peut considérer que plus un organisme est complexe, plus sa subjectivité consciente est grande. Ce qui explique pourquoi nous avons un éventail d’expériences conscientes subjectives plus large et profond qu’un chien, une hirondelle ou un serpent. Par conséquent, mettre au point une intelligence artificielle plus complexe, entraînera peut être l’émergence d’une entité possédant une conscience largement supérieure à la nôtre.
Un autre point de vue sur la conscience provient de la physique quantique, qui explique les lois de la physique à l’échelle de l’infiniment petit. Selon l’interprétation de Copenhague, la conscience et le monde physique sont des aspects complémentaires de la même réalité. Lorsqu’une personne observe ou expérimente un aspect du monde physique, son interaction consciente provoque un changement. L’interprétation de Copenhague considère la conscience comme une chose qui existe par elle-même dans l’univers – même si cela nécessite un cerveau pour qu’elle existe dans le monde physique. Ce point de vue était populaire parmi les pionniers de la physique quantique tels que Niels Bohr, Werner Heisenberg et Erwin Schrödinger.
La vision opposée est que la conscience émerge de la biologie, tout comme la biologie elle-même émerge de la chimie qui, à son tour, émerge de la physique. Il s’agit de l’opinion de beaucoup de neuroscientifiques selon laquelle les processus de l’esprit sont identiques aux états et aux processus du cerveau. Ces conceptions modernes de la conscience vue par la physique quantique ont des parallèles avec les anciennes philosophies antiques. L’interprétation de Copenhague ressemble aux hypothèses présentes dans la philosophie indienne, dans laquelle la conscience est la base fondamentale de la réalité.
La vision émergente de la conscience, en revanche, est assez similaire au bouddhisme. Bien que le Bouddha ait choisi de ne pas aborder la question de la nature de la conscience, ses disciples ont déclaré que l’esprit et la conscience découlent du vide ou du néant.
Mais si on se place au niveau de la physique, un être humain n’est qu’un ensemble d’atome et de quarks arrangés d’une certaine manière. Qu’est-ce qui fait qu’un certain arrangement d’atome et de quarks est conscient, et un autre arrangement ne l’est pas ?
Aujourd’hui, si on se pose la question : “Est-ce que cela fait quelque chose d’être AlphaGo, une voiture autonome ou Google Home ? La réponse est probablement : non. Car il n’y a aucune subjectivité. La lumière est éteinte. Mais demain ? Avec des systèmes artificiels bien plus complexes, ayant la puissance du calcul du cerveau humain et capable d’accomplir autant de tâches qu’un humain, ce ne sera peut être pas aussi évident de conclure qu’ils n’ont aucune conscience. Et cela pourrait entraîner de nombreux problèmes éthiques.
L’arrivée d’une intelligence artificielle générale posera de nombreuses questions éthiques et les chercheurs ont bien compris les implications pour le futur de l’humanité. Le “Future of Life Institute” (Institut pour le Futur de la Vie) fondé par le cosmologiste Max Tegmark, a organisé une conférence en janvier 2017 intitulé : The Asilomar Conference on Beneficial AI (la conférence d’Asilomar sur l’IA bénéfique). Plus de 100 penseurs et chercheurs en intelligence artificielle, économie, en droit, en éthique et en philosophie se sont rencontrés lors de la conférence pour aborder et formuler un ensemble de lignes directrices pour la création d’intelligences artificielles bénéfiques. Il s’agit des 23 principes d’Asilomar sur l’IA :
Les 23 principes d’Asilomar sur l’intelligence artificielle :
- 1) Objectif de ces recherches : Le développement de l’IA ne doit pas servir à créer une intelligence sans contrôle mais une intelligence bénéfique.
- 2) Investissements : Les investissements dans l’IA doivent être soutenus par le financement de recherches visant à s’assurer de son usage bénéfique, qui prend en compte des questions épineuses en matière d’informatique, d’économie, de loi, d’éthique et de sciences sociales. Quelques exemples : Comment rendre les futures IA suffisamment solides pour qu’elles fassent ce qu’on leur demande sans dysfonctionnement ou risque d’être piratées ? ou encore comment améliorer notre prospérité grâce à cette automatisation tout en maintenant les effectifs humains ?
- 3) Relations entre les scientifiques et les législateurs : Un échange constructif entre les développeurs d’IA et les législateurs est souhaitable.
- 4) Esprit de la recherche : Un esprit de coopération, de confiance et de transparence devrait être entretenu entre les chercheurs et les scientifiques en charge de l’IA.
- 5) Éviter une course : Les équipes qui travaillent sur les IA sont encouragées à coopérer pour éviter des raccourcis en matière de standards de sécurité.
- 6) Sécurité : Les IA devraient être sécurisées tout au long de leur existence, une caractéristique vérifiable et applicable.
- 7) Transparence en cas de problème : Dans le cas d’une blessure provoquée par une IA, il est nécessaire d’en trouver la cause.
- 8) Transparence judiciaire : Toute implication d’un système autonome dans une décision judiciaire devrait être accompagnée d’une explication satisfaisante contrôlable par un humain.
- 9) Responsabilité : Les concepteurs et les constructeurs d’IA avancées sont les premiers concernés par les conséquences morales de leurs utilisations, détournements et agissements. Ils doivent donc assumer la charge de les influencer.
- 10) Concordance de valeurs : Les IA autonomes devraient être conçues de façon à ce que leurs objectifs et leur comportement s’avèrent conformes aux valeurs humaines.
- 11) Valeurs humaines : Les IA doivent être conçues et fonctionner en accord avec les idéaux de la dignité, des droits et des libertés de l’homme, ainsi que de la diversité culturelle.
- 12) Données personnelles : Chacun devrait avoir le droit d’accéder et de gérer les données le concernant au vu de la capacité des IA à analyser et utiliser ces données.
- 13) Liberté et vie privée : L’utilisation d’IA en matière de données personnelles ne doit pas rogner sur les libertés réelles ou perçue des citoyens.
- 14) Bénéfice collectif : Les IA devraient bénéficier au plus de gens possible et les valoriser.
- 15) Prospérité partagée : La prospérité économique permise par les IA devrait être partagée au plus grand nombre, pour le bien de l’humanité.
- 16) Contrôle humain : Les humains devraient pouvoir choisir comment et s’ils veulent reléguer des décisions de leur choix aux IA.
- 17) Anti-renversement : Le pouvoir obtenu en contrôlant des IA très avancées devrait être soumis au respect et à l’amélioration des processus civiques dont dépend le bien-être de la société plutôt qu’à leur détournement.
- 18) Course aux IA autonome lethales : Une course aux IA autonome lethales est à éviter.
- 19) Avertissement sur les capacités : En l’absence de consensus sur le sujet, il est recommandé d’éviter les hypothèses au sujet des capacités maximum des futures IA.
- 20) Importance : Les IA avancées pourraient entraîner un changement drastique dans l’histoire de la vie sur Terre, et doit donc être gérée avec un soin et des moyens considérables.
- 21) Risques : Les risques causés par les IA, particulièrement les catastrophiques ou existentiels, sont sujets à des efforts de préparation et d’atténuation adaptés à leur impact supposé.
- 22) Auto-développement infini : Les IA conçues pour s’auto-développer à l’infini ou s’auto-reproduire, au risque de devenir très nombreuses ou très avancées rapidement, doivent faire l’objet d’un contrôle de sécurité rigoureux.
- 23) Bien commun : Les super intelligences devraient seulement être développées pour contribuer à des idéaux éthiques partagés par le plus grand nombre et pour le bien de l’humanité plutôt que pour un État ou une entreprise.
Ces 23 principes sont largement acceptés par la communauté scientifique ce qui représente une bonne nouvelle pour la sécurité du développement de l’intelligence artificielle.
L’éthique des machines :
L’éthique des machines (ou la morale des machines) est le domaine de recherche qui concerne la conception d’agents moraux artificiels, que ce soit des robots ou des programmes qui se comportent moralement ou comme s’ils étaient doués de valeurs morales.
En 2009, des universitaires et des experts ont assisté à une conférence organisée par l’Association pour l’avancement de l’intelligence artificielle (Association for the Advancement of Artificial Intelligence) afin de discuter de l’impact potentiel des robots et des ordinateurs dans l’hypothèse selon laquelle ils pourraient devenir autonomes et capables de prendre leurs propres décisions. Ils ont noté que certaines machines avaient acquis diverses formes de semi-autonomie, en étant capables notamment de trouver elles-mêmes des sources d’énergie et de pouvoir choisir indépendamment les cibles à attaquer.
Cependant, il existe une technologie en particulier qui pourrait véritablement concrétiser la possibilité de robots dotés de compétences morales. Dans un article, Nayef Al-Rodhan mentionne le cas des puces neuromorphes, qui visent à traiter les informations de la même manière que les humains, c’est à dire de manière non linéaire et avec des millions de neurones artificiels interconnectés. Les robots intégrés à la technologie neuromorphique pourraient apprendre et développer des connaissances de manière humaine. Cela pose la question de l’environnement dans lequel de tels robots apprendraient du monde et de la moralité dont ils hériteraient, ou s’ils développeraient également des “faiblesses” humaines : égoïsme, attitude prosurvie, voire même s’ils pourraient avoir des opinions racistes, discriminatoire ou des biais de confirmation (qui consiste à privilégier les informations confirmant ses idées préconçues ou ses hypothèses sans considération pour la véracité de ces informations et/ou à accorder moins de poids aux hypothèses et informations jouant en défaveur de ses conceptions.)
Alors que les algorithmes du machine learning sont utilisés dans des domaines aussi variés que la publicité en ligne, le prêt bancaire et la condamnation pénale, avec la promesse de fournir des résultats plus objectifs et fondés sur les données, il a été prouvé qu’ils peuvent être source d’inégalités sociales et de discrimination. Par exemple, une étude réalisée en 2015 a révélé que les annonces Google d’emploi à revenu élevé étaient moins affichées aux femmes et une autre étude a révélé que le service de livraison en 1 jour ouvré d’Amazon n’était pas toujours disponible dans les quartiers noirs, pour des raisons qu’Amazon ne pouvait pas expliquer, car ils ne savent pas tout ce qu’il se passe sous le capot de leurs algorithmes.
Afin d’éviter d’augmenter les taux d’emprisonnement déjà élevés aux États-Unis, des tribunaux américains ont commencé à utiliser un logiciel d’évaluation des risques lorsqu’ils décident des libérations sous caution. Ces outils analysent l’historique des accusés et d’autres paramètres. Un rapport de 2016 de ProPublica a analysé les risques de récidive calculés à l’aide de l’un des outils les plus couramment utilisés, le système Northpointe COMPAS, et a examiné les résultats sur deux ans. Il en ressort que 61% seulement des personnes considérées à risque élevé ont effectivement commis d’autres infractions et que les accusés afro-américains étaient beaucoup plus susceptibles d’être jugé à haut risque que les accusés blancs.
Considérés comme un biais algorithmique, les systèmes informatiques agissent sur les préjugés des personnes qui entrent et structurent leurs données.
En mars 2018, dans le but de répondre aux préoccupations croissantes concernant l’impact des machines sur les droits de l’homme, le Forum sur l’économie mondiale et le Conseil pour l’avenir des droits de l’homme dans le monde ont publié un article contenant des recommandations détaillées sur les meilleurs moyens de prévenir les biais algorithmiques.
Les recommandations du Forum économique mondial sont les suivantes :
Intégration active: le développement et la conception d’applications de machine learning doivent rechercher activement une diversité dans les résultats, en particulier dans les normes et les valeurs d’une population spécifique affectée par le résultat des algorithmes.
Équité: les personnes impliquées dans la conceptualisation, le développement et la mise en œuvre de systèmes de machine learning doivent déterminer quelle définition de l’équité s’applique le mieux à leur contexte et à leur application.
Droit à la compréhension: L’implication du machine learning dans la prise de décision qui affecte les droits individuels doit être divulguée. Les algorithmes doivent être en mesure de fournir une explication de leur prise de décision qui soit compréhensible pour les utilisateurs et pouvant être révisée par une autorité humaine compétente. Lorsque cela est impossible et que des droits sont en jeu, les responsables de la conception, du déploiement et de la réglementation des algorithmes doivent se demander s’ils doivent être utilisés ou non.
Accès à la correction: les responsables, les concepteurs et les développeurs de systèmes de machine learning sont chargés d’identifier les conséquences potentiellement négatives de leurs systèmes sur les droits de l’homme. Ils doivent offrir des voies de recours aux personnes touchées négativement par la décision d’algorithmes et mettre en place des processus permettant de remédier aux discriminations.
La roboéthique :
Ce sous-domaine de l’éthique des technologies concerne les problèmes éthiques concernant les robots. Notamment la façon dont ils peuvent représenter des menaces pour la liberté, le droit et la survie humaine. Mais il y a également un autre angle d’approche vis-à-vis de la roboéthique : comment traitons-nous les robots ? Et par extension l’intelligence artificielle ?
La question paraît ridicule aujourd’hui, mais nous avons exploré précédemment qu’un système artificiel pourrait acquérir une intelligence générale. Dès lors, l’idée selon lequel les humains devraient avoir des obligations morales envers leurs machines, similaires aux droits de l’homme ou aux droits des animaux, sera à considérer. Il a été suggéré que les droits des robots, tels que le droit d’exister et d’accomplir sa propre mission, soient liés au devoir de servir l’homme, par analogie avec le lien entre les droits de l’homme et les devoirs de l’homme devant la société, notamment le droit à la vie et à la liberté, la liberté de pensée et d’expression et l’égalité devant la loi.
La question de la souffrance et de la douleur est un sujet complexe qui a des implications radicales. La série Westworld est clairement une référence pertinente sur cette question. Pour résumer rapidement, Westworld raconte l’histoire d’un nouveau genre de parc d’attractions se situant dans un futur proche. Pour un prix quotidien très élevé, vous pouvez vivre des aventures diverses dans une recréation du Far West en côtoyant des androïdes. Une sorte de jeu de rôle géant sans conséquence puisque les humains ne peuvent pas être gravement blessés. Ce parc ouvre donc la porte à la débauche et fait ressortir chez certains leur part d’ombre lorsqu’ils violent et torturent les androïdes sans aucune retenue morale.
Du coup, la série soulève plusieurs questions morales concernant nos actes vis-à-vis de créatures si perfectionnées qu’elles sont semblables aux humains. En d’autres termes, est-ce que je dois me sentir mal si je torture un robot ? Où dois-je me retenir de toute barbarie ?
Ça peut paraître assez trivial, mais c’est une question compliquée lorsqu’on commence à déplacer la frontière de ce que l’on considère comme “moral”. Tout d’abord, imaginer que vous vous trouviez dans la chambre d’un saloon, au 19e siècle. Une charmante jeune courtisane (ou courtisant en fonction de vos goûts) arrive et vous passez de très longues minutes à utiliser son corps pour votre plaisir. Vous laissez complètement aller vos fantasmes les plus inavouables et pour une raison inconnue, vous décidez de lui couper la tête ! Soudain, vous vous réveillez en sursaut. Votre conjoint dort à côté de vous. Ce n’était qu’un rêve ! Est-ce que vous avez transgressé vos valeurs morales ? Votre intuition vous dit probablement que non. Après tout, vous étiez inconscient, et vous n’avez pas réellement trompé votre conjoint. Encore moins blessé votre partenaire imaginaire. Au pire, vous vous sentez un peu bizarre, mais ce n’était qu’un rêve ! Donc en quoi est-ce différent de “Westworld” ?
Passons maintenant à la série de jeux vidéo “GTA – Grand Theft Auto”. Le jeu nous donne une liberté d’action très vaste où il est possible de voler des voitures, écraser des piétons, personne ne se retient de tuer sans remords les pauvres personnages numériques ! Cela va sans dire ! Devrions-nous ressentir plus de compassion ? Est ce que les dizaines de millions de joueurs sont des êtres immoraux ? Que se passera-t-il lorsque dans GTA 10, les personnages numériques seront si “humains”, que cela en sera troublant ? En quoi est-ce différent de “Westworld” ?
Dans la même lignée, est-ce que c’est immoral d’insulter Google Home, Siri ou Alexa ? Comme pour le cas du rêve, la réponse intuitive c’est que ce n’est pas immoral. Mais est-ce que ce sera la même réponse dans quelques années ? Autrement dit, est-ce que c’est fondamentalement mal de torturer des automates ou personnages de jeux vidéos ayant suffisamment de complexité pour passer le test de Turing et ayant une intelligence générale ?
Par contre, une chose qui n’a pas besoin d’être débattue moralement, c’est de mettre un chat dans un micro-onde et le regarder avec cruauté. C’est immoral, on est tous 100% d’accord là-dessus j’espère ! Mais en quoi est-ce différent de “Westworld” ?
La question, au final, est de se demander où se situe la frontière entre un acte immoral sur un animal, et un acte immoral sur un personnage artificiel (virtuel ou physique). Y a-t-il vraiment une frontière au final ?
Chez les humains, dans une situation donnée, la douleur et le plaisir informent bien plus nos processus décisionnels que la connaissance rationnelle de cette situation. Même si bien sûr, la pensée rationnelle peut aider à clarifier le contexte. Du coup, même si un robot peut traiter une multitude d’information complexe dans son environnement, il n’aura aucun intérêt de stresser à la vue d’une machette sur le point de lui trancher un bras, car il n’a aucune peur d’avoir mal. En revanche, on peut le programmer pour prétendre ressentir du stress voir de la souffrance, et donc avoir un comportement crédible (c’est d’ailleurs le cas dans la série). Mais il y a une différence entre faire semblant d’avoir mal, et véritablement ressentir la douleur. D’ailleurs, les acteurs sont les mieux placés pour en parler, eux qui se mettent dans des situations parfois horribles dans des films.
C’est comme expliquer à un aveugle ce qu’est la couleur rouge. Vous pourrez lui détailler toutes les propriétés physiques de la couleur rouge et lui faire un exposé sur le spectre de la lumière visible, c’est seulement en retrouvant la vue qu’il ressentira ce qu’est véritablement la couleur rouge.
Pour reprendre le cas du rêve mentionné précédemment. On ne peut pas être tenu moralement responsable de ce que l’on fait à un être sorti tout droit de notre imagination. Aussi réaliste qu’il puisse être. Tout comme pour un personnage virtuel, et par extension, un robot. Ce n’est pas parce qu’un androïde est similaire à un humain que nous devons lui accorder des droits, privilèges et le considérer comme un humain. Donc ce qui fait la différence entre l’immoralité d’un chat dans un micro-onde et la cruauté dans Westworld, n’a rien à voir avec la conscience de soi, l’anthropomorphisme, la mémoire, la sophistication de la créature ou tous autres émotions complexes. C’est une question de ressentir la souffrance. Attention à ne pas confondre souffrance et douleur. La douleur n’est qu’une réaction nerveuse, un réflexe biologique qui se passe dans le cerveau après un stimulus sensoriel et qui empêche une créature de se causer des dommages irréversibles. C’est un outil utile que la nature a trouvé pour accentuer l’instinct de conservation. C’est ce qui fait que lorsque vous posez votre main sur un radiateur bouillant, vous l’enlevez aussitôt par réflexe.
La souffrance est un concept bien plus profond qui implique une expérience cognitive et émotionnelle résultant d’une douleur physique ou psychologique subjective. On sait que les animaux peuvent souffrir, donc leur faire du mal est fondamentalement immoral et condamnable par la même occasion. En revanche, sur le papier, un système d’intelligence artificielle n’est ni plus ni moins qu’un gadget perfectionné du 21e siècle. Et même si, dans quelques décennies, ces gadgets deviennent indissociables à un humain, ça ne change pas le fait qu’ils resteront des outils, des objets et des biens matériels. Donc si vous coupez le bras d’un de ces androïdes du futur, ce n’est fondamentalement pas immoral. Ce sera simplement un beau gâchis de détruire une technologie sophistiquée et probablement très cher.
Il faut reconnaître que nous avons tendance à attacher beaucoup d’importance à l’anthropomorphisme. Ce qui nous ressemble génère de l’empathie. C’est un processus évolutionnaire profondément ancré en nous. Pour cette raison, des androïdes réalistes pourraient un jour se voir accorder certains droits et protections législatives. En revanche, il n’est pas du tout rationnel de se lamenter des horreurs que ces robots pourraient subir. Que ce soit des robots sexuels ou des souffre-douleurs dans un parc d’attractions. Ni de craindre que leurs souffrances les amènent à réclamer justice en nous attaquant. En l’absence de réelle souffrance, il n’est pas sûr d’affirmer qu’un ensemble de composants mécaniques sophistiqué engendrera des réactions émotionnelles comme le ressentiment, la peur, la colère et la vengeance. Chez les humains, ces réactions émotionnelles sont dues à bien plus que de simples traitements d’information et puissance de calcul. Il y a des millions d’années d’évolutions derrières.
Si on en croit les déclarations du Professeur Ford, créateur du parc et des robots dans la série, alors la souffrance est la dernière clé, après la mémoire et l’improvisation, pour atteindre la conscience. C’est une théorie de Dostoïevski, philosophe russe : la souffrance est l’unique origine de la conscience. Car il n’est pas possible d’être conscient en étant enfermé dans une bulle où rien de mauvais n’arrive et ne jamais se poser de question sur son existence. La souffrance pousse l’individu à se poser la question “Pourquoi est ce que ça m’arrive “. C’est d’ailleurs un des arguments majeurs mis en avant par les organismes de protection des animaux. Ils souffrent, donc ils sont conscients, donc arrêter de leur faire du mal !
Il faudra donc se demander si les futurs androïdes peuvent ressentir la souffrance, afin de délimiter clairement la frontière morale. Et ce sera compliqué, car comment peut-on réellement savoir si une machine expérience une souffrance comme l’humiliation, la crainte, voir même le deuil, ou bien si elle ne fait que délivrer une réponse qu’elle a apprise en analysant des donnés ? D’un point de vue technologique, il est possible de connecter une partie du corps d’un robot, et de programmer : “Si la pression est trop forte, envoyer une réponse négative”. En simplifiant, cela revient à programmer la douleur. Mais de là à dire que cette douleur évoluera en souffrance, comme chez les animaux, c’est un raccourci loin d’être évident. Peut être qu’ils ressentiront la douleur et diront : “J’ai mal, je souffre, stoppe”, mais cela n’aura aucun sens profond pour eux. Ce ne sera qu’une réponse automatique.
Une situation similaire à “Westworld” pourrait arriver très rapidement dans nos sociétés avec des endroits où l’on peut faire ce que l’on veut sur des androïdes réalistes. Même si ce sera considéré comme des parcs pour psychopathe. Il y aura alors un débat semblable à celui qui touche régulièrement les jeux vidéos violents. Peut être que ces derniers participent à une brutalisation générale de la société, mais il se peut également qu’ils empêchent la violence dans le monde réel en fournissant une alternative virtuelle. Le débat ira bien plus loin que ça en affirmant que c’est immoral de torturer, violer ou tuer un androïde. Des associations pour la protection des robots verront peut-être même le jour. La problématique ne concernera pas que des androïdes d’ailleurs, mais également des simulations virtuelles et les assistants virtuels.
Donc si tout système éprouvant de la souffrance est conscient, alors cette définition laisse ouverte la possibilité que certaines IA puissent aussi être conscientes, même si elles existent uniquement en tant que programme et qu’elles ne sont pas connectées à des capteurs ou des corps robotiques. Du coup, il est difficile de ne pas se soucier de l’immense souffrance que l’on pourrait affliger sans même le savoir à des entités intelligentes. Comme Yuval Noah Harari le souligne dans son livre Homo Deus : “Si un scientifique veut mettre en avant l’argument que les expériences subjectives ne sont pas pertinentes, son défi consiste à expliquer pourquoi la torture et le viol sont des actes immoraux en ne faisant référence à aucune expérience subjective ». Sans une telle référence, effectivement, il ne s’agit juste que d’un tas de particules élémentaires qui se déplacent selon les lois de la physique. Rien d’immoral. Mais on sait que les victimes de torture et viol ont des expériences subjectives horriblement négatives et c’est pour cette raison que l’on condamne ces pratiques.
Le terme “Mind crime” (crime sur esprit) a été popularisé par les chercheurs en intelligence artificielle pour parler des souffrances innommables que nous pourrions infliger à des systèmes artificiels conscients. Que nous le sachions, ou pas. Car si nous générons en 2050, un trillion d’émulations artificielles d’humain dans des simulations virtuelles, il faudra se demander si éteindre son ordinateur résulte en un génocide à l’ampleur astronomique.
Selon moi, le progrès moral de l’espèce humaine est de contribuer à la réduction de la souffrance pour toutes les entités capable d’expérimenter cette expérience subjective négative. Nous avons clairement fait des progrès majeurs dans la réduction de la souffrance au sein de notre espèce. Réduction de la mortalité infantile, des maladies infectieuses, des famines, de la violence, de l’esclavage, du travail forcé, des guerres, des sans-abris, augmentation de la santé, l’éducation, l’accès à la connaissance, la richesse, le confort, l’espérance de vie et bien d’autres. Par contre, il est difficile d’être aussi positif concernant la réduction de la souffrance chez les autres espèces. On s’est longtemps demandé si les animaux expérimentent la conscience, et donc la souffrance. Mais aujourd’hui, on sait que c’est le cas pour une grande majorité du règne animal. En tous cas, au-dessus d’une certaine échelle. Si bien que face à l’industrialisation de l’élevage intensif notamment, on ne peut que conclure que l’on a engendré une quantité ahurissante de souffrance. Ce qui ternit notre progrès moral.
Il nous faudra donc être extrêmement prudents face à la possibilité que les intelligences artificielles générales de demain puissent être conscientes et souffrir. Ou alors nous risquons de créer des véritables enfers et de les peupler par des millions d’esprits non humains. Quelle sorte d’espèce serons-nous alors ?
- Artificial consciousness - Wikipedia
- The conversation - Will artificial intelligence become conscious?
- Futurism - Artificial Consciousness: How To Give A Robot A Soul
- FutureMonger - Artificial Intelligence and The Hard Problems of Consciousnes
- Hard problem of consciousness - Wikipedia :
- Facing Up to the Problem of Consciousness
- Ethics of artificial intelligence - Wikipedia
- Wired - It's time to address artificial intelligence's ethical problems
- Robot ethics - Wikipedia