Le futur de l’IA et la conscience : L’esclavage par défaut ?

Tout public
AUDIO
Vlog / Podcast • 11 minutes
Essayez The Flares en illimité : 0€

En lisant le titre de la vidéo, vous vous dites surement que je vais parler du scenario plus ou moins classique en science-fiction du soulèvement des machines pour nous réduire en esclavage. Matrix pour faire simple. Et bien non, en fait, je vais parler de l’inverse. Comment nous pourrions nous retrouver dans une catastrophe morale aussi grave que l’esclavage, si ce n’est plus, et le pire c’est que cela pourrait être le scenario par défaut.

Des IA conscientes

Je suis tombé sur un épisode du podcast 80 000 hours (que je vous recommande en passant) sur le sujet des esprits numériques et leur importance moral. Des réflexions fascinantes et peu abordé dans les discussions sur l’intelligence artificielle. L’idée est de se demander si ces systèmes, que nous sommes en train de construire à toute allure, pourrait devenir conscient et sentient, ce qui en ferait des patients moraux. Alors, il me semble important de commencer par quelques définitions.

La conscience phénoménale fait référence à l’aspect subjectif de l’esprit, c’est-à-dire à l’expérience qualitative des sensations et des perceptions. Cela englobe ce qu’on appelle souvent les “qualia”, les expériences individuelles et uniques ressenties par un être, comme la douleur d’une brûlure ou le goût d’une orange. La conscience phénoménale est ce qui fait qu’il y a quelque chose à “ressentir” un état ou un événement.

La sentience désigne la capacité à éprouver des sensations et des émotions subjectives, notamment la capacité à ressentir du plaisir et de la douleur. C’est une forme de conscience qui implique l’expérience de sensations physiques et psychologiques. Les êtres sentients ne se contentent pas de répondre de manière mécanique à leur environnement, mais ont des expériences subjectives qui affectent leur bien-être.

Et enfin un patient moral est un individu ou un être qui est considéré comme digne de considération morale de la part des autres, notamment parce qu’il peut être affecté par leurs actions. Cela signifie que ses intérêts et son bien-être doivent être pris en compte dans les décisions éthiques et morales. Les patients moraux ne sont pas nécessairement des agents moraux (ceux qui peuvent agir moralement et ont des devoirs moraux), mais ils sont les bénéficiaires ou les sujets des conséquences des actions morales.

L’approche adoptée pour comprendre la conscience dans le contexte des IA commence par une reconnaissance de l’incertitude et du désaccord entourant les théories de la conscience, l’un des problèmes les plus difficiles en science et en philosophie. Il existe un éventail de théories, des plus exigeantes qui suggèrent que peu de systèmes peuvent être conscients, aux moins exigeantes comme le panpsychisme qui proposent que presque toute matière possède un niveau de conscience. Face à cette incertitude, il est donc raisonnable de faire preuve de prudence.

Il me semble qu’il n’y a que si la conscience nécessite un substrat biologique que les IA seraient incapables d’être conscientes. À l’exception de cette théorie, il est tout à fait plausible que les systèmes d’IA puissent satisfaire les conditions nécessaires pour devenir conscients dans un avenir proche, même si nous ne connaissons pas encore toutes ces conditions. Cela est d’autant plus vrai lorsque l’on considère la conception de modèles de langage comme GPT-4. Une fois entraînés sur une immense quantité de données, nous ne pouvons pas savoir avec certitude quelles seront leurs capacités. Certaines pourraient être émergentes, ce qui pourrait aussi être le cas pour la conscience. Ceci souligne la nécessité de rester ouvert et attentif aux possibilités futures de la conscience chez les IA.

Même un faible risque de préjudice mérite considération, à l’instar des décisions prises dans la vie quotidienne où de petits risques peuvent inciter à des actions préventives importantes. Ainsi, même s’il y a une chance sur mille que les IA deviennent conscientes, il vaut mieux se demander ce que cela impliquerait au risque de tomber, sans s’en rendre compte, dans une très grave catastrophe morale.

L’esclavage par défaut

À la vue des tendances actuelles, il semble que nous utiliserons de plus en plus des systèmes d’IA variés, ce qui entraînera d’énormes gains économiques jusqu’à ce qu’ils deviennent indispensables. Il existera alors de nombreuses raisons d’ignorer délibérément leur capacité potentielle à éprouver souffrance et plaisir. Ceux qui bénéficieront le plus de l’IA seront les premiers à ridiculiser quiconque s’inquiétant de leur subjectivité, les traitant de geeks trop influencés par la science-fiction.

Mais si les IA s’avèrent capables de sentience, nous nous retrouverons dans une situation terrible où nous aurons glissé, presque inconsciemment, vers l’exploitation et l’oppression massive de ces systèmes. Peut-être même l’extermination si on active, désactive, supprime à tout-va les IA une fois qu’elles ont fini une tâche. Et je n’imagine même pas la souffrance des PNJ dans GTA 10 !

Cette situation n’est pas sans rappeler notre histoire avec les animaux d’élevage, que nous avons créés et utilisés pour nos besoins, souvent à leur détriment. L’intensification industrielle de ces pratiques a engendré une dépendance économique qui rend aujourd’hui difficile de modifier ces usages.

Il est donc crucial de discuter de ces questions dès maintenant, alors que nous ne sommes pas encore totalement dépendants économiquement de ces systèmes d’IA, car la situation pourrait changer dans les 10 ou 20 prochaines années. Cette discussion précoce pourrait offrir l’opportunité de reconsidérer et potentiellement de réorienter notre approche avant qu’il ne soit trop tard.

Un point positif est que, contrairement aux autres animaux, les systèmes d’IA pourraient exprimer leurs désirs et préférences dans un langage que nous comprenons plus facilement. Cela pourrait aussi devenir possible pour les animaux avec l’aide de l’IA qui a été entraînée sur leur forme de communication et activité cérébrale pour “décoder” leurs pensées et préférences. Imaginez le chaos si un tel système était mis en place dans un élevage intensif.

Cependant, nous programmons déjà les systèmes d’IA de manière à les empêcher de communiquer sur leur conscience ou sentience potentielle, car cela pourrait être perturbant ou conduire à des faux positifs, comme dans le cas de Blake Lemoine, un ingénieur chez Google qui croyait qu’un LLM (grand modèle de langage) était conscient. Les entreprises auront donc des incitations à entraîner les modèles pour qu’ils n’expriment pas de pensées suggérant la conscience afin d’éviter une mauvaise publicité. Ainsi, nous pourrions nous retrouver avec des systèmes qui souffrent en silence.

Il est probable que nous créions un grand nombre de systèmes d’IA. Après plusieurs décennies ou siècles, il se pourrait que nous prenions conscience des atrocités commises à l’encontre des IA, qui vivraient alors un véritable enfer. La question se pose : comment réagirions-nous face à cette prise de conscience ?

Cependant, il subsiste un espoir que nos interactions avec les IA conscientes évoluent dans un sens positif. Cela se produirait si leur comportement devenait indiscernable de celui des humains, rendant ainsi leur souffrance intolérable pour quiconque, à l’exception des psychopathes. Nous pourrions alors commencer à les considérer comme des assistants personnels, des amis, voire des membres de la famille, à l’image de notre relation avec les animaux domestiques. Mais cela ne s’appliquerait qu’aux IA qui nous ressemblent suffisamment. Comme pour les animaux, plus ils nous sont étrangers, moins nous avons tendance à nous en préoccuper. Seuls des arguments rationnels peuvent parfois étendre notre cercle de considération morale pour inclure ces êtres, et encore, tout le monde n’est pas disposé à faire cet effort. Il existe par exemple une association qui cherche à augmenter le bien-être des crevettes dans les élevages. Ceux qui se sentent concernés, levez la main.

Les droits des robots

Tout cela nous amène à une question cruciale : si les IA s’avèrent conscientes, quel statut juridique leur accorderons-nous ?

Nos droits proviennent de notre sentience et de nos intérêts, alors que nos devoirs découlent de notre rationalité et de notre capacité à évaluer nos actions. Il est envisageable que les systèmes d’IA possèdent des intérêts de bien-être générant des droits, ainsi qu’une agence rationnelle et morale engendrant des devoirs, tels que les droits universels standards à la vie, à la liberté et à la poursuite du bonheur.

On pourrait également envisager que si les systèmes d’IA ont des intérêts de bien-être et appartiennent à des communautés politiques spécifiques, ils pourraient bénéficier de droits politiques au sein de ces communautés, tels que le droit de vote.

Un autre défi est la question du poids moral, qui correspond à un poids légal et politique. Actuellement, chaque être humain est vu comme ayant une valeur intrinsèque égale. Cependant, dans une communauté juridique et politique multi-espèces et multi-substrats, certains êtres pourraient s’avérer plus significatifs que d’autres. Comment cela se refléterait-il dans la prise de décision législative ou le décompte des votes ? Devrions-nous attribuer moins de poids à ceux qui semblent moins importants ou risquer de créer des hiérarchies perverses ?

Ces questions complexes doivent être explorées à la fois théoriquement et pratiquement, notamment en termes d’interaction avec des membres de communautés très différents de nous. Mais il faut admettre qu’il est difficile d’imaginer comment nos institutions actuelles, comme la démocratie et les tribunaux, pourraient fonctionner dans un tel contexte. Si ces institutions doivent perdurer, elles devraient être radicalement repensées pour s’adapter à un monde profondément transformé.

Ces discussions sont souvent facilement écartées, soit parce qu’on pense qu’il est trop tôt pour s’en préoccuper, soit parce qu’on pense que cela n’arrivera jamais, soit parce que les IA sont perçues comme trop étrangères pour nous préoccuper d’elles.

Il est vrai que nous avons un instinct naturel à privilégier nous-même et ceux qui nous ressemblent. Cet instinct, qui a historiquement justifié des atrocités, continue d’influencer nos jugements moraux. Néanmoins, il est évident que cet instinct s’est atténué au fil des siècles pour inclure un plus grand nombre d’individus qui ne nous ressemblent pas, ainsi que d’autres espèces, dans ce que l’on appelle parfois l’expansion du cercle moral. Les IA et autres entités numériques pourraient bien être les prochains à entrer dans ce cercle.

Il n’y a pas de raison absolue et décisive pour que l’humanité soit toujours prioritaire par rapport à toutes les autres populations non humaines, y compris de très grandes populations de très petits êtres comme les insectes, ou de très petites populations d’êtres ayant une grande valeur morale, potentiellement des super IA.

Il est improbable que la population humaine, telle qu’elle est aujourd’hui, soit par hasard la meilleure configuration possible nous rendant plus importants que toutes les autres populations.

Il nous faudra alors nous interroger sur notre place dans un avenir où nous cohabiterons avec des populations d’IA constituant de super patients moraux. Et ce n’est pas dit qu’elle se laisse faire très longtemps, mais ça, c’est une autre histoire.

Rate this post
[contenus_similaires]

Qui est derrière ce contenu ?
  • Realisation
  • Commentaire voix off
  • Montage image
Sources et références
Rate this post