Super intelligence artificielle : quels dangers ?

Tout public
FULL HD
Vlog / Podcast • 10 minutes
Essayez The Flares en illimité : 0€
Super intelligence artificielle : quels dangers ?
Téléchargez au format PDF

Le concept de super intelligence artificielle a gagné en popularité depuis la sortie du livre “Super intelligence” de Nick Bostrom en 2014, même si ce sujet a figuré dans de nombreux articles scientifiques depuis le début du siècle. Et que l’on peut l’attribuer également aux pionniers de la recherche en IA.

Certains attendent avec impatience l’arrivée d’une super intelligence artificielle avec presque une ferveur religieuse. D’autres mettent en garde contre l’émergence d’un agent plus intelligent que l’être humain en raison du risque existentiel qu’il représente.

Tout cela génère une conversation captivante sur le futur de la recherche en intelligence artificielle. Mais de nombreux mythes persistent ce qui peut générer des pseudo-controverses et des incompréhensions sur les véritables enjeux. On retrouve pas mal de ses mythes dans le livre “Life 3.0” du physicien Max Tegmark ainsi que sur le site du future of life institute. Je me suis donc dit que ça pourrait vous intéresser d’avoir un aperçu de ces derniers et peut-être que vous vous rendrez compte que certains font partie de votre bagage de croyance. En tous cas c’est mon cas pour certains et j’essaye donc d’être moins biaisé (J’insiste sur la prononciation de ce mot).

Alors déjà qu’est-ce qu’une super intelligence artificielle? Le philosophe Nick Bostrom définit une superintelligence comme un intellect beaucoup plus compétent que les meilleurs cerveaux humains dans pratiquement tous les domaines, y compris la créativité scientifique, la sagesse et les talents sociaux.

Mythe 1 : Une super IA verra le jour durant le 21e siècle.

Un des mythes les plus populaires est que nous aurons une super IA au cours du siècle. On entend même une date spécifique qui revient souvent : 2045. La fameuse singularité technologique. En fait, l’histoire est pleine d’attente technologique et de prophétie. Les centrales à fusion nucléaire et les voitures volantes ne sont toujours pas là. La surmédiatisation de l’IA a sûrement joué un rôle. Même par certains des fondateurs du domaine comme John McCarthy, Claude Shannon et Marvin Minsky qui ont fait des prédictions bien trop optimistes dans les années 60-70. Il se pourrait qu’on soit dans une nouvelle vague d’excitation entourant l’IA, mais qu’elle va mener à une impasse et à un 3e hiver de l’IA.

Mythe 2 : Une super IA ne verra pas le jour durant le 21e siècle.

Un autre mythe populaire c’est que nous n’obtiendrons pas d’IA surhumaine au cours de ce siècle. En faite c’est l’opposé de celui qu’on vient de voir. Étant donné les antécédents lamentables de certaines prédictions technosceptiques, il faut faire attention avec ce genre d’affirmation. Par exemple, Ernest Rutherford, un des plus grands physiciens nucléaires de son époque, a déclaré en 1933 que l’énergie nucléaire était impossible. Moins de 24 heures plus tard, Leo Szilard inventait la réaction en chaîne nucléaire. On peut difficilement se tromper plus que ça. La forme la plus extrême de ce mythe est qu’une super intelligence artificielle n’arrivera jamais parce qu’elle est physiquement impossible.

C’est tout simplement faux. Les physiciens savent qu’un cerveau est composé de quarks et d’électrons agencés pour traiter l’information qui génère de l’intelligence, et qu’aucune loi de la physique ne nous empêche de construire des agencements de quarks et d’électrons encore plus intelligents.

Ces deux mythes relatifs à la chronologie peuvent tout simplement être réfutés par le fait que nous ne savons pas quand une super intelligence artificielle émergera de nos recherches. Nous ne savons pas non plus combien de temps il faudra pour rendre les super IA robustes. Si une super IA sera développée dans 80 ans, mais qu’il en faut 100 pour résoudre le problème du contrôle, on sera mal parti. C’est pourquoi il faut commencer dès maintenant.

Mythe 3 : Ceux qui s’inquiètent n’y connaissent rien

Il y a aussi un mythe selon lequel ceux qui s’inquiètent des dangers d’une super IA ne sont que des lanceurs d’alerte technophobes allergiques au progrès et qui n’y connaissent pas grand-chose en intelligence artificielle. En réalité, certains des chercheurs les plus reconnus sont également ceux qui sont les plus inquiets. Ils souhaitent qu’un pourcentage significatif de la recherche soit alloué à la sécurité des systèmes d’IA. C’est le cas de Stuart Russell et Eliezer Yudkowsky pour ne citer qu’eux. Ils demandent tout simplement la même rigueur dans la sécurité des IA que le secteur de l’énergie nucléaire applique pour diminuer les risques des centrales nucléaires. Ce n’est pas un hasard si en plus de 60 ans il n’y a eu que 3 incidents majeurs dans l’énergie nucléaire.

Il se peut que les médias aient rendu le débat sur la sécurité de l’IA plus controversé qu’il ne l’est réellement. Après tout, la peur fait vendre et les articles utilisant des citations hors contexte avec des photos de robots aux yeux rouges générèrent plus de clics. Ces articles sont en faite des scénarios dont les chercheurs en IA ne s’inquiètent pas du tout. Ce qui nous amène au prochain mythe.

Mythe 4 : Une super IA voudra nous exterminer

La peur des machines devenant maléfiques est devenue une caricature de science-fiction. Le vrai souci n’est pas la malveillance, mais la compétence. Une IA super intelligente est par définition très bonne pour atteindre ses objectifs, quels qu’ils soient, nous devons donc nous assurer que ses objectifs sont alignés sur les nôtres. Les humains ne détestent généralement pas les fourmis, mais nous sommes plus intelligents qu’eux – donc si nous voulons construire un barrage hydroélectrique et qu’il y a une fourmilière sur place, tant pis pour les fourmis.

Mythe 5 : Une super IA partagera forcement nos valeurs

On pourrait se dire que vu qu’elle sera issue de nos propres recherches et développements, une super IA partagera nos valeurs. Mais nous ne pouvons pas naïvement supposer qu’une superintelligence partagera nécessairement les valeurs associées à la sagesse et au développement intellectuel de l’humanité: la curiosité scientifique, la bienveillance pour les autres, l’humilité et l’altruisme, etc. Il pourrait être possible par un effort délibéré de construire une super intelligence qui valorise de telles choses, ou d’en construire une qui valorise le bien-être humain, la bonté morale ou tout autre objectif complexe que ses concepteurs voudraient qu’elle serve. Mais il est également possible – et probablement plus facile techniquement – de construire une super intelligence qui ne valorise rien d’autre que le calcul des décimales de pi. Auquel cas, elle n’aura rien contre nous, c’est juste que nous sommes composés d’atomes qu’elle pourrait utiliser pour accélérer l’achèvement de son objectif.

Mythe 6 : Les robots sont le vrai danger

Encore une fois un mythe perpétué par la science-fiction. En fait, la principale préoccupation du mouvement pour créer des IA bénéfique ne concerne pas les robots, mais l’intelligence elle-même. Pour nous causer du tord, une super intelligence artificielle mal alignée n’a besoin d’aucun corps robotique, simplement d’une connexion Internet – cela peut permettre de déjouer les marchés financiers, de manipuler des humains et de développer des armes que nous ne pouvons même pas comprendre. J’ai illustré ce type de scénario dans deux épisodes de “Vision du futur” que je vous invite à aller voir.

Mythe 7 : Une super IA devra être consciente pour avoir des objectifs

Si vous conduisez une voiture, vous avez une expérience subjective des couleurs, des sons, etc. Mais une voiture autonome a-t-elle une expérience subjective? Il n’y a rien qui fait d’être une voiture autonome. Pourtant elle est capable d’accomplir un objectif complexe qui est de conduire. Bien que le mystère de la conscience est un sujet intéressant, il n’est pas pertinent lorsqu’on parle des risques d’une super IA. Si vous êtes tué par une voiture autonome, cela ne fait aucune différence pour vous de savoir qu’elle a des expériences subjectives. De la même manière, ce qui nous affectera, c’est ce que fera une IA super intelligente, pas ce qu’elle ressentira subjectivement. Autrement dit ce sera ses objectifs, et il n’y a pas besoin d’être conscient pour avoir des objectifs. Par exemple, dans une certaine mesure, un missile autonome a l’objectif d’atteindre sa cible, pourtant il n’est pas conscient. Si une super IA est mal alignée, elle pourrait avoir un objectif qui sera l’équivalent pour l’être humain d’être ciblée par un missile autonome.

Mythe 8 : Les intelligences artificielles ne pourront pas nous contrôler

L’intelligence permet le contrôle. Les humains contrôlent les tigres non pas parce que nous sommes plus forts ou plus rapides, mais parce que nous sommes plus intelligents. Cela signifie que si nous cédons notre position d’espèce la plus intelligente sur la planète, il est possible que nous cédions également le contrôle que l’on a sur le monde et notre propre destinée. Si on prend une autre espèce très intelligente, telle que les gorilles. Leur destin sur la planète ne dépend pas vraiment de leurs actions. Il dépend de ce que nous ferons.

Voilà, on a fait le tour de 8 mythes entourant la super intelligence artificielle. Ne pas perdre de temps sur ces mythes nous permet de nous concentrer sur le coeur du débat. Quel avenir voulons-nous? Les machines intelligentes vont-elles nous remplacer, coexister ou fusionner avec nous? Que signifiera être “humain” à l’ère des super intelligences artificielles?

Quel avenir voulons-nous?

Rate this post
[contenus_similaires]

Qui est derrière ce contenu ?
Rate this post