Quelle éthique pour l’intelligence artificielle consciente ?

partie 6/9 de la série Intelligence artificielle – L’ultime révolution
Tout public
FULL HD
Documentaire • 24 minutes
Découvrez la série complète : 10,90€ Essayez The Flares en illimité : 0€
Intelligence artificielle – L’ultime révolution
  • partie 01
  • partie 02
  • partie 03
  • partie 04
  • partie 05
  • partie 06
  • partie 07
  • partie 08
  • partie 09

Admettons que nous avons réussi à concevoir une intelligence artificielle générale. Elle est capable de parler naturellement, comprendre son environnement, résoudre des problèmes complexes, apprendre dans tous les domaines, raisonner, penser, composer des symphonies. Bref, il n’y a aucun doute sur le fait qu’elle possède une intelligence générale. La question qui se pose ensuite c’est de savoir si quelque de chose de spéciale se passe à l’intérieur de ce système. La lumière est-elle allumée ou éteinte ? Ou pour le dire plus clairement, possède-t-elle une subjectivité propre que l’on appelle la conscience de soi ?

Les chercheurs sont divisés sur la question de savoir si la conscience peut émerger dans un système artificiel complexe. Il existe également un débat sur le fait de savoir si les machines pourraient ou devraient être qualifiées de “conscientes” au même titre que les humains, et certains animaux. Ou est-ce que la conscience d’une machine est différente ? Certaines de ces questions ont avoir avec la technologie, d’autres avec ce qu’est réellement la conscience.

Car ce mot “Conscience” fait office de controverse dans le milieu de la recherche sur l’intelligence artificielle. Il y a soit des chercheurs qui n’ont pas de temps à perdre avec cette question, d’autres qui y pensent plus ou moins de manières récréatives, et bien sûr, certains philosophes comme Sam Harris, Nick Bostrom ou David Chalmer qui sont préoccupés par les implications éthiques de machine consciente. David Chalmer fait d’ailleurs figure de référence contemporaine sur la question de la conscience. Le philosophe australien est connu pour avoir souligné les deux problèmes sur la recherche de la conscience. Les problèmes faciles et difficiles (“Easy problem of consciousness” et “Hard problem of consciousness”).

Le problème difficile de la conscience

Il n’y a pas qu’un problème de la conscience. “Conscience” est un terme ambigu, faisant référence à de nombreux phénomènes différents. Chacun de ces phénomènes doit être expliqué, mais certains sont plus faciles à expliquer que d’autres. Au début, il est utile de diviser les problèmes de conscience en “faciles” et “difficiles”. Les problèmes faciles de la conscience sont ceux qui semblent directement sensibles aux méthodes classiques des sciences cognitives, selon lesquelles un phénomène est expliqué en termes de traitement de l’information par les différentes parties du cerveau incluant neurones, synapses, cellules gliales. Les problèmes difficiles sont ceux qui semblent résister à ces méthodes.

Pour faire simple, le problème facile de la conscience tente d’expliquer ce qui fait que nous avons des expériences du monde extérieur. Par exemple, dans le cas de la vision, une information visuelle arrive dans notre rétine, puis voyage le long des nerfs optiques et cette information est traitée par le cerveau pour produire une représentation de ce qui est vu par l’oeil.

Le problème difficile de la conscience tente d’expliquer comment et pourquoi on ressent intérieurement les expériences du monde extérieur. Il est indéniable que certains organismes sont des “sujets d’expérience”. Mais la question de savoir comment ces systèmes sont des sujets d’expérience est un mystère. Comment se fait-il que lorsque nos systèmes cognitifs s’engagent dans le traitement de l’information visuelle et auditive, nous ayons une expérience subjective visuelle ou auditive. Un organisme est conscient s’il y a quelque chose qui fait d’être cet organisme. Parfois, des termes tels que “conscience phénoménale” et “qualia” sont utilisés ici pour décrire la subjectivité d’une expérience.

Une des réponses possibles c’est que la sélection naturelle a favorisé les expériences conscientes subjectives, car elles permettent une meilleure adaptation à l’environnement et donc augmente les chances de survie d’un organisme. Mais ce n’est pas un argument évident à défendre, car un organisme qui ne possède pas d’expérience subjective peut très bien s’adapter de manière optimale à son environnement. Comme c’est le cas avec les virus ou bactéries. Et la robotique nous montre aussi que le manque de subjectivité n’empêche pas un système d’évoluer dans un environnement.

Si on prend l’exemple d’une voiture autonome. Elle possède des dizaines de capteurs afin d’analyser l’environnement dans lequel elle se trouve. Lorsqu’une information visuelle est captée par une caméra, elle est traitée puis génère une réaction, par exemple “freiner”. À aucun moment, la voiture n’a eu une expérience consciente vis-à-vis de l’information visuelle. Il n’y a rien qui fait d’être cette voiture. Il n’empêche que son comportement peut-être cohérent et elle est capable d’accomplir des objectifs complexes comme conduire d’un point A à un point B en toute sécurité. Ce qui la rend “intelligente” selon la définition que l’on donne dans la première partie.

Pourquoi les humains et un grand nombre d’animaux possèdent une subjectivité des expériences extérieures, ce qui crée un monde intérieur ? Nous pourrions très bien être des “zombies philosophiques”. Terme utilisé pour définir un être hypothétique qui, de l’extérieur, est impossible à distinguer d’un être humain normal, mais qui manque d’expérience subjective consciente. Si tous les organismes n’étaient ni plus ni moins que des zombies philosophies, ou de simples machines, ils auraient tout autant de capacité à évoluer dans leur environnement et survivre.

Appartenant pendant longtemps à la philosophie et aux religions puis aux neurosciences, la question de la conscience est désormais associée à la recherche sur l’intelligence artificielle. Si nous ne savons pas comment la conscience émerge ni comment la détecter, alors comment pourrons-nous être sûrs que les intelligences artificielles de demain possèdent ou non des expériences subjectives. Surtout si nous arrivons à concevoir une intelligence artificielle générale.

Autant des progrès significatifs sont faits en intelligence artificielle, aucun n’a été fait dans le développement de la conscience artificielle. Certains chercheurs pensent que la conscience est une caractéristique qui émergera à mesure que la technologie se développe. Certains pensent que la conscience implique l’intégration de nouvelles informations, de stocker et de récupérer des anciennes informations et de les traiter de manière intelligente. Si cela est vrai, les machines deviendront forcément conscientes. Car elles pourront collecter bien plus d’informations qu’un humain, les stocker virtuellement sans limites, accéder à de vastes bases de données en quelques millisecondes et les calculer de façon bien plus complexe que notre cerveau. Le résultat sera logiquement l’émergence d’une conscience subjective artificielle. Et peut être même encore plus fine et profonde que la nôtre.

On peut considérer que plus un organisme est complexe, plus sa subjectivité consciente est grande. Ce qui explique pourquoi nous avons un éventail d’expériences conscientes subjectives plus large et profond qu’un chien, une hirondelle ou un serpent. Par conséquent, mettre au point une intelligence artificielle plus complexe, entraînera peut être l’émergence d’une entité possédant une conscience largement supérieure à la nôtre.

Un autre point de vue sur la conscience provient de la physique quantique, qui explique les lois de la physique à l’échelle de l’infiniment petit. Selon l’interprétation de Copenhague, la conscience et le monde physique sont des aspects complémentaires de la même réalité. Lorsqu’une personne observe ou expérimente un aspect du monde physique, son interaction consciente provoque un changement. L’interprétation de Copenhague considère la conscience comme une chose qui existe par elle-même dans l’univers – même si cela nécessite un cerveau pour qu’elle existe dans le monde physique. Ce point de vue était populaire parmi les pionniers de la physique quantique tels que Niels Bohr, Werner Heisenberg et Erwin Schrödinger.

La vision opposée est que la conscience émerge de la biologie, tout comme la biologie elle-même émerge de la chimie qui, à son tour, émerge de la physique. Il s’agit de l’opinion de beaucoup de neuroscientifiques selon laquelle les processus de l’esprit sont identiques aux états et aux processus du cerveau. Ces conceptions modernes de la conscience vue par la physique quantique ont des parallèles avec les anciennes philosophies antiques. L’interprétation de Copenhague ressemble aux hypothèses présentes dans la philosophie indienne, dans laquelle la conscience est la base fondamentale de la réalité.

La vision émergente de la conscience, en revanche, est assez similaire au bouddhisme. Bien que le Bouddha ait choisi de ne pas aborder la question de la nature de la conscience, ses disciples ont déclaré que l’esprit et la conscience découlent du vide ou du néant.

Mais si on se place au niveau de la physique, un être humain n’est qu’un ensemble d’atome et de quarks arrangés d’une certaine manière. Qu’est-ce qui fait qu’un certain arrangement d’atome et de quarks est conscient, et un autre arrangement ne l’est pas ?

Aujourd’hui, si on se pose la question : “Est-ce que cela fait quelque chose d’être AlphaGo, une voiture autonome ou Google Home ? La réponse est probablement : non. Car il n’y a aucune subjectivité. La lumière est éteinte. Mais demain ? Avec des systèmes artificiels bien plus complexes,

Il vous reste 73% de ce contenu à découvrir...
Encore 73% de ce contenu à découvrir...
Découvrez la série complète : 10,90€ Essayez The Flares en illimité : 0€
Déjà abonné(e) ? Connectez-vous
Logo The Flares
[contenus_similaires]

Rate this post