Quels sont les dangers de l’intelligence artificielle ?

partie 8/9 de la série Intelligence artificielle – L’ultime révolution
Tout public
FULL HD
Documentaire • 23 minutes
Découvrez la série complète : 10,90€ Essayez The Flares en illimité : 0€
Intelligence artificielle – L’ultime révolution
  • partie 01
  • partie 02
  • partie 03
  • partie 04
  • partie 05
  • partie 06
  • partie 07
  • partie 08
  • partie 09

L’intelligence artificielle représente un risque existentiel par le simple fait qu’une entité plus intelligente que nous aura notre destin entre ses mains. Autrement dit, concevoir quelque chose qui est plus intelligent que notre espèce est peut-être une erreur darwinienne fondamentale.

Un risque existentiel

Un risque existentiel est un risque susceptible d’éliminer l’humanité tout entière ou de tuer une grande partie de la population mondiale, ne laissant pas aux survivants les moyens suffisants pour rétablir la civilisation au niveau de vie actuelle. Et il faut se rendre à l’évidence que l’humanité n’est pas très douée pour penser aux risques existentiels. Nous avons évolué pour prêter attention à ce qui se passe dans notre petite sphère personnelle, à l’interaction que l’on a avec notre “tribu” sur le court terme, c’est-à-dire les différentes communautés dans lesquelles on passe notre temps. La famille, les amis, les collègues, son groupe religieux, etc. Tout ce qui se trouve sur le long terme, comme une catastrophe globale, passe un peu au second plan.

Jusqu’à récemment, la plupart des risques existentiels (et la version moins extrême, connue sous le nom de risques catastrophiques globaux) étaient naturels, tels que les supervolcans et les impacts d’astéroïdes qui ont conduit à des extinctions massives il y a des millions d’années. Les avancées technologiques du siècle dernier, bien que responsables de grands progrès et de grandes réalisations, nous ont également ouvert à de nouveaux risques existentiels.

La guerre nucléaire était le premier risque existentiel d’origine humaine, car une guerre mondiale pourrait tuer un pourcentage important de la population. Après davantage de recherches sur les menaces nucléaires, les scientifiques ont compris que l’hiver nucléaire qui en résultait pourrait être encore plus meurtrier que la guerre elle-même et potentiellement tuer la plupart des habitants de la planète ainsi que d’autres formes de vie.

La biotechnologie et la génétique suscitent souvent autant de crainte que d’excitation, car de nombreuses personnes s’inquiètent des effets potentiellement négatifs du clonage, de la modification des gènes, et de toute une série d’autres progrès liés à la génétique. Si la biotechnologie offre une opportunité incroyable de sauver et d’améliorer des vies, elle augmente également les risques existentiels associés aux pandémies artificielles et à la perte de diversité génétique.

Le changement climatique est une préoccupation croissante que les citoyens et les gouvernements du monde entier tentent de résoudre. À mesure que la température moyenne mondiale augmente, les sécheresses, les inondations ou encore les tempêtes extrêmes pourraient devenir la norme. Les pénuries de nourriture, d’eau et de ressources qui en résultent pourraient être à l’origine d’instabilités économiques et de guerres. Bien que les changements climatiques eux-mêmes ne constituent probablement pas un risque existentiel, les dégâts qu’ils provoquent pourraient augmenter les risques de guerre nucléaire, de pandémie ou d’autres catastrophes.

Il y a également la menace d’une rencontre avec une civilisation extra-terrestre qui peut entrer dans la catégorie des risques existentiels, car évidemment, c’est un scénario qui pourrait mal tourner pour nous (et on a suffisamment vu ça à Hollywood).

Le philosophe Nick Bostrom utilise une métaphore intéressante pour illustrer les risques existentiels issus de nos technologies. Imaginez une urne qui contient plusieurs billes associées à une technologie inventée par l’humanité. On a la bille de la machine à vapeur, la bille de la bombe nucléaire, la bille de l’électricité, la bille du moteur à combustion, etc. Les billes possèdent également un code couleur. Blanc pour une technologie inoffensive pour l’humanité, rouge pour une technologie dangereuse, et noir pour une technologie causant l’extinction. La distribution des couleurs n’est pas égale, car il y a plus de billes blanches, un peu moins de rouge et un tout petit nombre de noirs. Autrement dit, il y a bien moins de technologie pouvant causer l’extinction de l’humanité que de technologie qui est inoffensive. À chaque fois que l’on invente une de ces technologies, on l’enlève de l’urne. C’est un peu comme un tirage au sort. Pour le moment, nous avons tiré beaucoup de billes blanches, et quelques billes rouges (arme nucléaire par exemple). Le fait que vous lisez ces lignes indique que nous n’avons pas tiré de bille noire. Mais plus on tire des billes, plus on peut se dire qu’on augmente la probabilité de tomber sur une bille noire … et une super IA est clairement une bille noire. Ou en tous cas, elle a une face noire et une face blanche.

Il n’y a aucune corrélation entre un haut niveau d’intelligence et la gentillesse ou la bienveillance. C’est d’ailleurs vrai chez les humains où certaines personnes peuvent être vraiment intelligentes, mais également se comporter comme des salopards avec les autres. Et inversement. Cela ne veut pas non plus dire qu’une intelligence élevée s’accompagne de méchanceté ou de désintérêt pour les autres. On ne peut donc pas se reposer sur l’idée que cette super intelligence artificielle sera forcement “gentille” avec nous. Certains humains ont un fort désir de pouvoir, d’autres ont un fort désir d’aider les autres. Le premier est un attribut probable de tout système suffisamment intelligent, le second ne peut pas être supposé. Presque n’importe quelle super IA,

Il vous reste 78% de ce contenu à découvrir...
Encore 78% de ce contenu à découvrir...
Découvrez la série complète : 10,90€ Essayez The Flares en illimité : 0€
Déjà abonné(e) ? Connectez-vous
Logo The Flares
[contenus_similaires]

Rate this post