L’intelligence artificielle sera-t-elle la singularité technologique ?

partie 7/9 de la série Intelligence artificielle – L’ultime révolution
Tout public
FULL HD
Documentaire • 34 minutes
Découvrez la série complète : 10,90€ Essayez The Flares en illimité : 0€
En tant que Partenaire Amazon, The Flares réalise un bénéfice sur les achats remplissant les conditions requises.
Plus d'informations sur les liens affiliés...
Intelligence artificielle – L’ultime révolution
  • partie 01
  • partie 02
  • partie 03
  • partie 04
  • partie 05
  • partie 06
  • partie 07
  • partie 08
  • partie 09

Lorsque nous aurons réussi à concevoir une intelligence artificielle qui possède des facultés d’apprentissage similaire à celle d’un humain (Meta apprentissage). C’est à dire capable d’apprendre sans une quantité astronomique de données, mais également d’appliquer cette technique d’apprentissage à plusieurs domaines sans repasser par la case départ, nous aurons alors passé d’IA limitée, à IA générale.

Si on prend l’exemple d’Alpha Zero de Google, et qu’on lui donne la puissance de calcul du cerveau humain et du meta apprentissage comparable aux humains. Que se passe-t-il ?

Il est déjà le meilleur joueur de Go au monde, ainsi qu’aux échecs. Maintenant, admettons qu’on lui demande d’apprendre à jouer au jeu vidéo StarCraft. Résultat : il devient le meilleur du monde en quelques heures. Ensuite, on lui demande d’apprendre à conduire une voiture, à cuisiner, à écrire des livres, à faire des mathématiques, à entretenir une conversation, à composer des symphonies. Bref plus ou moins tout ce qu’un humain peut faire de manière générale. Il va donc devenir aussi performant qu’un humain.

En faite, non … il sera bien plus performant qu’un humain. Pourquoi ?

L’ère des machines intelligentes

Si l’on compare les trois grandes révolutions que l’on a vues dans la premiere partie (Révolution cognitive, révolution agricole et révolution scientifique), la révolution de l’intelligence artificielle est bien plus significative que la révolution agricole et la révolution scientifique. Elle se rapproche plus de la révolution cognitive par l’ampleur du changement qu’elle permet. Mais on pourrait même supposer que cette quatrième révolution, que nous vivons actuellement, aura encore plus d’ampleur pour homo sapiens.

Effectivement, la transition vers l’ère des machines intelligentes pourrait être bien plus fondamentale que le passage de notre ancêtre commun vers les premiers membres du genre Homo il y a plus de 2,5 millions d’années.

Car pour arriver aux premiers humains, il a fallu faire croître la taille du cerveau de nos ancêtres commun par un facteur d’environ trois. Et quelques modifications dans la structure neurologique permettant un peu plus de capacité cognitive. Donc pour le dire autrement, ce qui différencie fondamentalement Homo Sapiens des gorilles, orangs-outans et chimpanzés, c’est une boite crânienne un peu plus grande et quelques connexions synaptiques en plus, notamment dans le néocortex. C’est cette petite différence qui donne la possibilité à une espèce de marcher sur la Lune, comprendre les lois de la physique, modifier génétiquement d’autres organismes et composer des symphonies, tandis que l’autre utilise un bâton pour cueillir des bananes. Et si cette différence est si petite, c’est au final, car il n’y avait pas vraiment d’autres possibilités. Une différence plus grande, par exemple si la sélection naturelle “avait voulu” tester un cerveau cinq fois plus grand au lieu de trois fois, les femelles n’auraient tout simplement pas pu mettre au monde leurs progénitures sans que cela se termine en bain de sang (c’est déjà assez difficile comme ça !). Donc pas la meilleure solution pour faire perdurer une espèce. Notre boîte crânienne à la taille maximale la plus proche des limites biologiques. Ce qui fait que notre cerveau ne peut pas devenir plus gros par la simple voie de la sélection naturelle.

Par contre, si on regarde la différence entre un cerveau humain, et ce que le cerveau d’une intelligence artificielle pourrait devenir, on fait face à un gouffre monumental qui ne possède pas les mêmes limites biologiques. Une intelligence artificielle n’a pas à rester confinée dans une boîte crânienne, elle peut être aussi large qu’une planète. Donc ça fait déjà une grande différence dans la puissance de l’intelligence produite.

Mais ce n’est pas tout. Car il existe également d’autres limites biologiques dans le cerveau. La vitesse de communication entre deux neurones n’excède pas 120m/s et l’activité d’un neurone est d’environ 100/200 Hz, c’est à dire jusqu’à 200 fois par seconde. Aujourd’hui, nos transistors opèrent déjà à 3 GHz (trois milliards de fois par seconde) et la vitesse de communication d’un signal informatique est limité par la vitesse de la lumière, 299 792 458 m/s.

En termes de mémoire, la biologie est également limitée tandis qu’un ordinateur possède une mémoire de travail beaucoup plus grande (RAM) et une mémoire à long terme (stockage sur disque dur) qui offre à la fois une capacité et une précision bien supérieures à la nôtre. Une intelligence artificielle générale n’oubliera jamais rien dans les millions de téraoctets qu’elle aura emmagasinés. Les transistors informatiques sont également plus précis que les neurones biologiques et sont moins susceptibles de se détériorer (et peuvent être réparés ou remplacés). Les cerveaux humains se fatiguent aussi facilement, alors que les ordinateurs peuvent fonctionner sans interruption, à des performances optimales, 24 heures sur 24, 7 jours sur 7 avec comme seul besoin, de l’électricité.

Mais on pourrait se dire que la force de l’humanité c’est notre intelligence collective. À partir du développement du langage et de la formation de communauté, en passant par l’invention de l’écriture et de l’imprimerie, et qui s’intensifie désormais grâce à des outils comme Internet. L’intelligence collective de l’humanité est l’une des principales raisons pour lesquelles nous avons pu aller aussi loin comparer aux autres espèces sur la planète. Donc nous aurons quand même cet avantage face à une intelligence artificielle générale.

Mais c’est oublié que les ordinateurs sont déjà bien meilleurs que nous à collaborer en réseau. Ils peuvent s’échanger des informations à la vitesse de la lumière. Une intelligence artificielle générale pourrait créer une multitude de copies d’elle même et les envoyer aux quatre coins du net formant un réseau mondial d’IA de sorte que tout ce que les versions apprendront sera instantanément téléchargé à toutes les autres. Bien plus efficace que l’intelligence collective humaine. Le réseau d’IA pourrait également avoir un seul objectif en tant qu’unité, car il n’y aurait pas nécessairement d’opinions, de motivations et d’intérêts personnels dissidents, contrairement à ce que l’on observe au sein de la population humaine.

Le potentiel d’une intelligence produite sur un substrat informatique dépasse donc largement celui d’une intelligence produite sur un substrat biologique. À tous les niveaux !

C’est pour ces raisons qu’une intelligence artificielle générale, comme Alpha Zero pour reprendre notre exemple plus haut, sera une forme d’intelligence dépassant celle d’un être humain. Une première dans l’histoire de notre espèce. Une intelligence artificielle de niveau humain ne signifie pas qu’elle possède la même intelligence qu’un humain, mais le simple fait de posséder une capacité d’apprentissage générale la rend directement super humaine, en raison de ces avantages par rapport à une intelligence biologique.

Explosion d’intelligence

Cela pose plusieurs questions concernant notre relation avec une telle intelligence. Comment l’humanité va-t-elle cohabiter avec une entité plus intelligente ? Comment va-t-on la contrôler ? Sera-t-elle accessible par l’ensemble de l‘humanité ou que par une élite, un gouvernement ? Nous nous pencherons sur ces questions dans les chapitres suivants.

Mais l’élément à ne pas oublier, c’est que cette intelligence capable d’apprendre comme un humain sera aussi capable d’apprendre la programmation informatique. Autrement dit à se modifier elle même. Tout comme elle est devenue meilleure à toutes les tâches qu’elle a apprises, elle deviendra aussi la meilleure programmeuse du monde. Elle pourra se mettre à jour, augmenter ses performances, trouver de nouvelle façon d’accélérer sa vitesse et puissance de calcul. Cette machine super intelligente conçoit alors une machine encore plus performante ou réécrit son propre logiciel pour devenir encore plus intelligente. Cette machine (encore plus performante) continue ensuite à concevoir une machine encore plus performante, et ainsi de suite jusqu’à atteindre les limites permises par les lois de la physique. On entre alors dans une boucle d’auto amélioration récursive qui engendre une explosion d’intelligence. Terme inventé par le mathématicien Irvin J. Good (1916 – 2009) en 1965. Un autre terme utilisé pour décrire ce même phénomène c’est la singularité technologique.

Le mot singularité est issu de la physique et désigne un point de l’espace où la gravité tend vers l’infini comme dans le centre des trous noirs et lors des conditions initiales de l’univers. Cette singularité est une zone où nos équations qui décrivent les lois de la physique cessent de fonctionner, ce qui signifie que nous n’avons aucune idée de ce qui se trouve au-delà de cette singularité. C’est dans ce sens que le mot singularité est utilisé pour définir le moment où une intelligence artificielle devient super intelligente. Passer ce point, il est extrêmement compliqué de faire des prédictions crédibles car le rythme des innovations sera si grand que tous les aspects de la civilisation pourraient changer.

L’idée cruciale ici c’est que si vous pouvez améliorer un tout petit peu l’intelligence, le processus s’accélère. C’est un point de bascule. C’est comme essayer d’équilibrer un stylo à une extrémité. Dès qu’il s’incline un peu, il tombe rapidement.

L’idée qu’une machine puisse devenir des millions de fois plus intelligentes que l’humanité tout entière est pour le moins déconcertante. Quand est ce que cela va arriver ? La question divise la communauté de chercheur. 2045 est souvent la date associé à la singularité et popularisé par Ray Kurzweil dans son livre “La singularité est proche”. D’autres chercheurs pensent que cela n’arrivera pas avant la fin du siècle. Certains vont encore plus loin en prétendant que “s’inquiéter d’une super intelligence, c’est comme s’inquiéter de la surpopulation sur Mars.” (Andrew Ng).

À partir du moment où les chercheurs mettent au point une intelligence artificielle générale, il ne s’agit pas de savoir si elle deviendra super intelligente, mais plutôt en combien de temps ? Il y a souvent deux scénarios qui sont mis sur la table lorsqu’il s’agit de connaître la rapidité de l’explosion d’intelligence.

Décollage lent :

Un décollage lent est un passage d’IA générale à super IA qui se produit sur une longue échelle temporelle, des décennies voir même des siècles. Cela peut être dû au fait que l’algorithme d’apprentissage demande trop de puissance de calcul matériel ou que l’intelligence artificielle repose sur l’expérience du monde réel, et donc à besoin de “vivre” en temps réel l’expérience de la réalité. Ces scénarios offrent aux instances politiques l’opportunité de répondre de manière adaptée à l’arrivée d’une intelligence dépassant des millions de fois celle des humains. De nouveaux comités d’experts peuvent être formés et différentes approches peuvent être testées afin de se préparer. Les nations craignant une course à l’armement au sujet d’une super intelligence artificielle auraient le temps d’essayer de négocier des traités, voire même de se mettre à jour technologiquement afin d’entretenir un rapport de force.

Décollage rapide :

Un décollage rapide est un passage d’IA générale à super IA se produisant sur un intervalle temporel très rapide, tel que des minutes, des heures ou des jours. De tels scénarios offrent peu d’occasions aux humains de s’adapter. À peine se réjouit-on de l’achèvement de la première intelligence artificielle générale, qu’elle dépasse complètement sa programmation et devient super intelligente. Le destin de l’humanité dépend donc dans ce cas, essentiellement sur les préparations précédemment mises en place. Et c’est également un scénario qui pourrait garantir une suprématie mondiale pour la nation qui a développé cette IA, car elle pourrait ordonner cette dernière à empêcher toute compétition de voir le jour.

Comme l’a dit Vernor Vinge en répondant à la question :

“Les ordinateurs seront-ils un jour aussi intelligents que les humains ?” –

Il vous reste 69% de ce contenu à découvrir...
Encore 69% de ce contenu à découvrir...
Découvrez la série complète : 10,90€ Essayez The Flares en illimité : 0€
Déjà abonné(e) ? Connectez-vous
Logo The Flares
[contenus_similaires]

Rate this post