Superintelligence artificielle : pourrons-nous la contrôler ?

Tout public
FULL HD
Vlog / Podcast • 8 minutes
Essayez The Flares en illimité : 0€
Superintelligence artificielle : pourrons-nous la contrôler ?
Téléchargez au format PDF

Avoir peur d’une intelligence artificielle est devenu presque un cliché. Eh oui, nombreuses sont les œuvres de Science Fiction qui ont traité la question. Bien souvent sous la forme d’un soulèvement des machines et d’une guerre apocalyptique. Ces scénarios hollywoodiens ont tendance à banaliser ce qui est en train de voir le jour : La naissance d’une intelligence qui nous dépasse. Mais le philosophe et neuro-scientifique, Sam Harris, pense que nous devrions réellement avoir peur de ce problème, et pas juste de façon théorique ou pour se divertir devant un film. Lors d’une conférence, il a exposé ces inquiétudes.

1- Sentir le danger de façon appropriée :
Selon lui, l’humanité d’aujourd’hui souffre d’une faiblesse à sentir le danger. Particulièrement le danger que représente une super intelligence artificielle. On a tendance à trouver tout ce qui entoure la robotique, les ordinateurs, les machines, les IA, etc. plutôt cool. Et c’est bien là une partie du problème ! Si je vous dis que l’humanité va souffrir d’une famine globale (à cause du changement climatique ou d’une catastrophe quelconque) et que vos enfants ou petits-enfants seront dans cet état :

famine-IA-theflares

Vous n’allez pas me dire “ah ouais cool”. Non ! La famine n’est pas marrante du tout ! Par contre, si vous voyez ça :

terminator-super-IA-the-flares

C’est une autre histoire n’est-ce pas ?

Il semble que nous n’arrivons pas à ressentir une réponse émotionnelle appropriée au développement de l’IA et ses dangers qui l’accompagnent. C’est inquiétant.

La peur des machines intelligentes est souvent caricaturée en une armée de robot machiavélique cherchant à nous tuer tous (ou à nous brancher à la Matrice). Mais ce n’est pas le scénario le plus probable en faite ! Nos machines ne deviendront pas spontanément diaboliques. L’inquiétude c’est que nous allons créer des machines qui seront tellement plus compétentes et intelligentes que la moindre divergence entre nos objectifs et les leurs, pourrait causer notre perte.

Regardez comment on traite les fourmis. On ne les déteste pas, on ne souhaite pas les manger ou prendre leur énergie. On ne part pas en chasse le dimanche après midi juste pour en tuer quelques-unes. Aucun gouvernement ne leur a déclaré la guerre. En faite, parfois on fait même attention à ne pas les tuer en évitant de leur marcher dessus. Par contre, si leur présence entre en conflit avec un de nos objectifs, par exemple, construire une maison sur un réseau de fourmilière, alors là, on les extermine sans hésiter. Et bien souvent, sans même en avoir conscience. Tu poses juste ta dalle de béton sans regarder ce qui se trouve sur le sol et paf, un génocide ! Donc l’inquiétude ici, c’est que nous allons peut être créer des machines qui nous traiteront, consciemment ou non, avec le même égard !

2- Allons-nous continuer à améliorer l’intelligence de nos machines ? :
L’intelligence est d’une grande valeur. À vrai dire, c’est probablement notre bien le plus précieux en tant qu’espèce. Il y a d’énorme problème qui nous attendent et certains qui doivent être résolus dès à présent. Nous voulons un remède contre le cancer ou Alzheimer. Nous voulons améliorer nos systèmes économiques. Nous devons réduire notre impact sur l’environnement. L’intelligence de nos machines est clairement un moyen d’y parvenir. L’intelligence de l’Homme nous a permis de développer des outils qui nous ont conduits là ou nous sommes aujourd’hui. On ne peut pas nier que ces technologies ont eu un bénéfice. On ne vit plus dans des cavernes autour d’un feu en attendant de mourir de vieillesse à 17 ans. Nous n’avons clairement aucune raison de ne pas continuer à développer des IA. Qu’est-ce qui pourrait nous en empêcher ?

Imaginons que l’humanité se tient devant deux portes. Derrière la porte numéro 1, nous arrêtons de progresser dans le domaine de l’intelligence artificielle. Nos ordinateurs, logiciels et algorithmes cessent de s’améliorer. À cause d’une guerre nucléaire, d’une pandémie mondiale ou encore d’un impact d’astéroïde. Du coup, on se rend compte que pour que l’humanité arrête de progresser dans ce domaine, il faudrait un cataclysme qui détruise la civilisation telle qu’on la connait. Donc en gros, si on ne disparaît pas, alors nous allons continuer le développement d’une super IA.

Ce qui nous amène à la porte numéro 2. Nous continuons d’améliorer l’intelligence de nos machines, années après année jusqu’à ce que nous arrivions au point où elles seront plus intelligentes que nous le sommes. Et passé ce point, elles pourront s’améliorer elles-mêmes. Si nous créons une super intelligence. Cette dernière créera une Ulta intelligence. Nous risquons ce que le mathématicien I.J Good appelait “Une explosion d’intelligence”, qui signifie que nous perdons le contrôle sur toutes les améliorations. En d’autres termes, une super intelligence pourrait être la dernière invention humaine. Ensuite, elle prendra le relais et à un rythme bien plus rapide.

3- Nous ne sommes pas au sommet de la courbe d’intelligence :
C’est un point crucial, et c’est ce qui rend notre situation inquiétante et notre intuition à propos de ce risque, si peu fiable. Si on prend l’une des personnes les plus intelligentes ayant foulé la planète, disons, Albert Einstein. On le place sur une échelle d’intelligence à disons 100. Juste derrière, à 80, on trouve vous et moi. Puis à 25 on a le cheval. (Même si certains humains sont probablement en dessous du cheval, mais bon…). Est-ce que vous pensez réellement que l’échelle s’arrête à 100 ? Qu’il n’y aura jamais personne plus intelligente qu’Einstein ? Qu’un humain ? Je pense que c’est très très loin de la vérité ! Si nous créons une super intelligence artificielle, elle va étendre cette échelle à une mesure que l’on ne peut même pas imaginer.

4- Une croissance bien plus rapide :
Admettons que nous donnons naissance à une machine qui a exactement le même niveau d’intelligence que le groupe de scientifique qui l’a crée. Les circuits électroniques fonctionnent environ 1 million de fois plus rapidement que les systèmes biochimiques. Donc cette machine devrait penser 1 million de fois plus rapidement que les cerveaux qui l’on crée. En la laissant tourner une semaine, elle va accomplir l’équivalent de 20 000 ans de performances intellectuelles humaines. Semaine, après semaine, après semaine… je vous laisse imaginer où elle sera après 1 an ! Vous n’y arrivez pas ! C’est normal !!! Comment pouvons nous comprendre, encore moins contrôler, un esprit capable d’autant de progrès et rapidité ?

5- Un problème de société :
Imaginons le scénario idéal. Une super intelligence artificielle débarque et il n’y a aucun problème de sécurité et de contrôle. La conception parfaite dès le premier coup ! Yuppie ! Du coup cette machine sera le travailleur parfait et fera tout ce qu’on lui demande. Elle pourra construire d’autres machines “ouvrières” qui seront bien plus performantes que nous dans toutes les tâches physiques. La fin des corvées pour toute l’humanité ! Mais aussi la fin des travaux intellectuels, car elle sera bien évidemment plus efficace que nous dans ce domaine-là également. Comment notre système économique et politique va pouvoir gérer un bouleversement aussi profond ? Ne risquons-nous pas de faire face à une inégalité des richesses et de taux de chômage jamais vu dans notre histoire ? Et je doute que l’abondance de ressource générée par cette super intelligence soit distribuée équitablement. Quelques trillionnaires en profiteront pendant que le reste sera condamné à la famine.

6- Une nouvelle course à l’armement :
Que feraient la Chine et la Russie s’ils apprenaient qu’une société en Silicon Valley est sur le point d’aboutir à la création d’une super IA. Cette intelligence sera clairement un avantage militaire sans précédent. Aussi bien terrestre que cybernétique. Être en avance de 6 mois dans cette course à la super IA, c’est être 500 000 ans en avance technologiquement et changer la face du monde du côté du vainqueur ! Donc même la moindre rumeur pourrait déclencher une nouvelle guerre froide, voire pire !

7- Le chemin le plus rapide :
Créer une super intelligence artificielle est plus simple que créer une super intelligence artificielle dans un environnement contrôlé. Et étant donné que les gouvernements et sociétés travaillant sur cette technologie se sentent probablement en compétition avec d’autres. Car celui qui gagne cette course domine le monde. Alors le chemin le plus rapide sera surement le plus tentant. Pas le plus sûr. On pourrait même voir le scénario où un geek surdoué dans son garage travaillant depuis des mois sur un prototype d’intelligence artificielle le libère sur la toile, sans aucun contrôle. Que se passera-t-il alors ?

Pour conclure, encore une inquiétude. Peut-être la pire ! C’est la façon dont beaucoup de chercheurs dans le domaine de l’intelligence artificielle tentent de nous rassurer. L’argument numéro 1 c’est que ce ne sera pas pour tout de suite. On a bien 50 à 100 années devant nous ! Un chercheur à même dit : “S’inquiéter au sujet de la sécurité des IA, c’est comme s’inquiéter de la surpopulation sur Mars”. Le truc c’est que nous ne savons pas combien de temps il nous faudra pour créer les conditions de sécurité suffisante permettant la mise en place d’une IA sans danger. Et 50 ans, ce n’est pas énorme au final. Ça ne nous laisse pas autant de marge que ça pour préparer ce qui sera sans doute la plus grande découverte de l’Humanité. Encore une fois, il semble que nous échouons à adopter la bonne réponse émotionnelle.

Mais bon, on verra bien dans 50 ans …

Rate this post
[contenus_similaires]

Rate this post