Qu’est-ce que l’intelligence artificielle générale ?
Partie 1/1 de la série algorithmique
- Partie 01
Si une intelligence artificielle est capable de développer un système d’apprentissage qui lui permet d’apprendre par elle même des dizaines et des dizaines de choses, elle sera considérée comme ayant une intelligence générale. Par opposition à l’intelligence artificielle limitée que l’on peut voir aujourd’hui autour de nous. Elle aura la capacité d’appliquer sa technique d’apprentissage à un nombre virtuellement illimité de domaines, et pourra atteindre le niveau d’intelligence d’un humain. Cette capacité d’apprendre à apprendre est appelée meta-apprentissage. Voyons les pistes pour arriver un jour à la mise au point d’une intelligence artificielle générale.
Il existe dans la nature différents types d’organisme qui semble être très doué à des tâches spécifiques. En d’autres termes, ils ont une intelligence spécialisée. Les abeilles semblent compétentes à faire des ruches. Les castors semblent compétents pour faire des barrages. Mais si un castor observe des abeilles fabriquer une ruche, il ne va pas essayer de faire pareil. Il semble donc qu’il y a un manque de transfert de compétence. Par opposition, nous, humains, pouvons observer les castors en train de construire un barrage, et répliquer à notre façon cette compétence. Nous pouvons observer comment les abeilles construisent leurs ruches et faire de même. Nous avons une intelligence générale. Et en regardant l’ampleur de notre savoir-faire, il semblerait que nous ayons l’intelligence générale la plus vaste du règne animal. C’est ce type d’intelligence que certains chercheurs tentent de construire dans leur atelier.
Au sommaire
Le meta-apprentissage
Pour faire simple, si une intelligence artificielle est capable de développer un système d’apprentissage qui lui permet d’apprendre par elle même des dizaines et des dizaines de choses, elle sera considérée comme ayant une intelligence générale. Par opposition à l’intelligence artificielle limitée que l’on peut voir aujourd’hui autour de nous. Elle aura la capacité d’appliquer sa technique d’apprentissage à un nombre virtuellement illimité de domaines, et pourra atteindre le niveau d’intelligence d’un humain. Cette capacité d’apprendre à apprendre est appelée meta-apprentissage.
C’est intéressant de noter que ce qui est souvent intuitivement considéré comme le plus difficile pour nous humain se révèle être super simple pour une intelligence artificielle. Multiplier des nombres de dix chiffres en une fraction de seconde c’est réservé aux autistes spéciaux, mais c’est hyper facile pour un ordinateur. Faire la différence entre un chien et un chat c’est un jeu d’enfant pour 99,9% des êtres humains, mais pour une intelligence artificielle c’est d’une complexité insurmontable. Faire de l’IA capable de battre n’importe quel humain aux échecs ? C’est fait. Faites-en une capable de lire un paragraphe d’un livre d’un enfant de six ans et ne pas simplement reconnaître les mots, mais en comprendre la signification ? Google dépense actuellement des milliards de dollars pour essayer de le faire. Les tâches difficiles pour nous comme le calcul, l’analyse du marché économique et la traduction linguistique en 150 langues sont extrêmement faciles à comprendre pour un ordinateur, tandis que les choses simples comme la vision, la compréhension du langage naturel et la perception sont incroyablement difficiles. Ou, comme le dit l’informaticien Donald Knuth :
“Jusqu’à présent, l’intelligence artificielle arrive à faire quasiment tout ce qui requiert de la penser, mais échoue à faire ce que les humains et animaux font “sans penser””.
Ces choses qui nous semblent si faciles sont en réalité incroyablement compliquées. Elles semblent faciles parce que ces compétences ont été optimisées par des centaines de millions d’années d’évolution à travers la sélection naturelle. Lorsque vous tendez la main vers un objet, les muscles, les tendons et les os de votre épaule, de votre coude et de votre poignet effectuent instantanément une longue série d’opérations physiques, en conjonction avec vos yeux, pour vous permettre de bouger votre main sur trois dimensions. Cela semble sans effort pour vous parce que le logiciel dans votre cerveau a eu des millions d’années d’entraînement à travers des milliers de générations. Par contre, multiplier des grands nombres et jouer aux échecs sont des activités relativement récentes pour le cerveau humain, il n’a pas eu des millions d’années pour se perfectionner donc il est inefficace.
C’est pour cette raison que l’apprentissage est un élément clé dans la création d’une intelligence artificielle. Si on pouvait mettre une IA dans une boite avec tout un tas de données sur le monde plus une dose de machine learning, pendant cent millions d’années, elle ressortirait surement avec un niveau d’intelligence dépassant de loin celui d’un humain. Mais ce serait quand un peu long et la plupart des chercheurs travaillant sur le développement d’une IA générale espèrent le faire bien plus rapidement.
Donc l’élément clé pour la création d’une intelligence artificielle générale c’est l’apprentissage. Comme on l’a vu dans la partie précédente, le machine learning et le deep learning sont des techniques efficaces pour faire apprendre à des algorithmes certaines fonctionnalités. Mais des tonnes de données sont nécessaires pour nourrir ses algorithmes, ce qui est très différent de la façon dont un être humain est capable d’apprendre. Pour nous, un ou deux exemples et nous sommes capables de tirer des conclusions rapidement. Par exemple, pour reconnaître de la neige sur une photo. Pour un enfant de 10 ans vivant sur une île tropicale qui n’a jamais vu de la neige, il lui suffira de voir une ou deux photos et il aura appris. Une IA doit analyser des milliers de photos pour obtenir un résultat proche des 100% lorsqu’on lui demande de reconnaître un paysage enneigé. Une intelligence artificielle générale devrait donc être capable d’apprendre une tâche avec très peu d’exemples à disposition. Et c’est quelque chose qui semble être très compliqué aujourd’hui.
Un autre problème concernant l’apprentissage c’est bien entendu la généralisation des connaissances qu’un système artificiel est capable d’apprendre. D’où le terme “intelligence artificielle générale” et également le transfert d’apprentissage. C’est-à-dire que lorsqu’un enfant commence à devenir bon au jeu vidéo “Mario”, s’il commence à jouer à Sonic, il aura déjà des acquis techniques qui seront applicables sur tous les jeux de plateforme similaire. Si l’on prend une intelligence artificielle qui a impressionné par ces capacités, disons Alpha Zero de Google deepmind. Il sera capable de battre n’importe quel humain au jeu de Go jusqu’à la fin des temps, mais il ne sait pas commander une pizza en ligne, ou conduire une voiture. Même s’il a néanmoins démontré des capacités de transfert d’apprentissage en maîtrisant rapidement les échecs en plus du jeu de Go, mais ces capacités restent limitées.
Depuis le lancement de la recherche sur l’intelligence artificielle en 1956, la recherche dans la création d’IA générale s’est ralentie au fil du temps. Une des explications est que les ordinateurs ne disposent pas de suffisamment de mémoire ou de puissance de traitement pour simuler la complexité du cerveau humain, et donc développer une intelligence comparable.
D’autres raisons possibles ont été avancées pour justifier les difficultés rencontrées comme la nécessité de bien comprendre le cerveau humain par le biais de la psychologie et de la neurophysiologie qui ont empêché de nombreux chercheurs d’imiter la structure du cerveau humain dans un cadre artificiel. Il y a également le débat sur l’idée de créer des machines avec des émotions. Il n’y a pas d’émotions dans les modèles actuels et certains chercheurs affirment que la programmation d’émotions dans des machines leur permettrait d’avoir leur propre esprit. L’émotion résume les expériences des humains, car elle leur permet de se souvenir de leurs expériences. Le chercheur David Gelernter a écrit qu’aucun ordinateur ne sera créatif s’il ne peut simuler toutes les nuances de l’émotion humaine.
Mais l’une des difficultés qui occupent grandement les chercheurs c’est la question du “bon sens”. C’est-à-dire comment s’assurer qu’une intelligence artificielle puisse comprendre le monde et faire preuve de bon sens dans sa résolution des problèmes qu’elle rencontre ? Pour les humains, le bon sens est un ensemble de faits que tout le monde connaît et prend pour acquis lorsque l’on exécute une tâche. Par exemple, “un enfant restera plus jeune que ses parents jusqu’à la fin de sa vie”, “est-ce possible de faire une salade avec du polyester ?”, “Il est impossible que mon grand-père n’ait jamais eu d’enfant” etc.
Ce sont des questions absurdes, que n’importe quel humain de plus de 2 ans est capable de savoir. Mais une intelligence artificielle n’en a aucune idée et si elle n’apprend pas chaque réponse, elle ne pourra pas les déduire d’elle même. Par exemple, si je demande à une intelligence artificielle : “Est-ce que Monsieur Martin est plus grand que son bébé ?”, l’IA va chercher à résoudre cette question en trouvant les données sur la taille des deux êtres humains. Elle me répondra : “Monsieur Martin fait 1m80, son bébé fait 70 cm donc la réponse à votre question est que Monsieur Martin est plus grand”. Mais ce n’est pas la meilleure façon de répondre à cette question puisque n’importe qui sait qu’un adulte sera forcément plus grand que son bébé. Pas besoin de comparer leur taille pour savoir qui est plus grand.
Alors on pourrait se dire que la solution est simple. Il suffit d’apprendre à l’IA que les adultes sont plus grands que leur bébé, dans tous les cas. Mais ce n’est qu’un seul fait de bon sens parmi des milliards d’autres. Enseigner tout le bon sens des humains à une IA est une tâche incommensurable. Et même si on y parvient, comment être sûr que l’on n’a rien oublié ? Sachant qu’un oubli pourrait avoir des conséquences désagréables pour ne pas dire tragique.
Imaginons un robot ménager dans votre maison ayant une intelligence artificielle très avancée, proche d’une IA générale. Vous lui demandez de préparer le dîner, mais le robot ne trouve aucun aliment dans le frigo. Soudain, votre chat passe sous ses yeux. 10 minutes plus tard, le robot vous sert un ragoût de chat. Ce n’est pas vraiment ce que vous attendiez, mais vu que le robot n’a pas le bon sens de savoir qu’on ne mange pas nos animaux de compagnie, il a fait ce qu’il pensait être la bonne action par rapport à votre requête.
Autre exemple avec une super intelligence capable de résoudre tous nos problèmes. Si on lui demande d’arrêter la faim dans le monde, elle pourrait très bien arriver à la conclusion que d’éliminer tous les êtres vivants sur la planète est le meilleur moyen d’empêcher un organisme de ressentir la sensation de faim. Car si plus d’organismes, plus de faim. Logique. Et si on lui dit que ce n’est pas ce qu’on lui demande, elle nous répondra que c’est exactement ce qu’on lui a demandé. Dans ce cas, il aurait fallu préciser “Élimine la faim dans le monde sans tuer tous les êtres vivants”. Pour nous humain, c’est du bon sens. Évidemment que lorsque l’on souhaite éliminer la faim dans le monde, on souhaite également préserver la vie sur Terre. Mais pour une IA, aussi intelligente soit-elle, le bon sens n’existe pas.
Il nous faut donc trouver un moyen de concevoir une intelligence artificielle capable de déduire et de raisonner afin de tirer du bon sens les situations qu’elle rencontre. Et c’est un sujet de recherche de plus en plus répandu. Peu de temps avant son décès, le cofondateur de Microsoft Paul Allen, a injecté 125 millions de dollars dans son laboratoire de recherche dans le but premier de percer le mystère du bon sens chez une machine.
En résumé, il n’y a absolument aucune garantie que nous parvenions à concevoir une intelligence artificielle ayant les compétences générales de l’intelligence humaine. Mais il n’y a pas non plus d’argument prouvant que cela est impossible. Nous ne savons pas à quelle distance nous sommes de la ligne d’arrivée. L’architecture matérielle, les algorithmes et les techniques d’apprentissages ont permis des progrès fulgurants dans le domaine et il semblerait que chaque année, nous faisons plus de progrès que l’année précédente. Ce qui indique une croissance exponentielle. En d’autres termes, nous ne pouvons pas rejeter la possibilité que l’intelligence artificielle atteigne éventuellement le niveau humain et au-delà. Voyons donc les implications que cela pourrait entraîner.
Même si la tâche est extrêmement difficile et que certains chercheurs doutent de la faisabilité de créer une intelligence artificielle générale, d’autres travaillent ardemment sur des pistes qui semble prometteuses. La recherche est extrêmement diversifiée et fait souvent figure de pionnière. Le chercheur Ben Goertzel pense que la durée approximative nécessaire pour créer une IA forte varie de 10 ans à plus d’un siècle, mais le consensus qui s’est dégagé au sein de la communauté de chercheurs semble être que la prédiction mise en avant par Ray Kurzweil dans son livre écrit en 2005 “La singularité est proche” est plausible. C’est-à-dire entre 2015 et 2045. Même si beaucoup de chercheurs en intelligence artificielle doutent que les progrès soient aussi rapides. Les organisations qui poursuivent explicitement la création d’une IA forte incluent le laboratoire suisse IDSIA, Nnaisense, Vicarious, la OpenCog Foundation, SingularityNet, Adaptive AI, LIDA, Numenta et le Redwood Neuroscience Institute associate. De plus, des organisations telles que le Machine Intelligence Research Institute et OpenAI ont été créées pour influencer le développement de l’IA générale. Enfin, des projets tels que the Human Brain project ont pour objectif de construire une simulation fonctionnelle du cerveau humain.
Donc voici les pistes pour arriver un jour à la mise au point d’une intelligence artificielle générale.
Une puissance de calcul similaire à celle du cerveau
Si l’on souhaite créer une intelligence artificielle générale, on peut d’abord opter pour une approche de comparaison. C’est-à-dire se tourner sur les exemples, dans la nature, qui ont produits des intelligences générales. On constate en faisant cela que le point commun de toutes les intelligences générales de la planète, les humaines bien sûr, mais aussi les autres primates, mammifères, etc., c’est qu’ils possèdent un cerveau. Cela peut paraître trivial, mais c’est une première étape nécessaire afin de construire un système artificiel capable de générer une intelligence générale.
Le cerveau est à ce jour, l’objet que nous connaissons le plus complexe dans l’univers. Mais les progrès en neuroscience grâce notamment à des outils de neuro-imagerie plus performante, nous ont permis de comprendre de nombreuses fonctionnalités du cerveau. Ceci étant dit, nous n’avons pas percé tous les mystères entourant cet organe si particulier.
La première chose que l’on peut se demander c’est qu’elle est la puissance de calcul du cerveau humain ? Afin de le comparer avec celle de nos machines. Il se trouve que notre cerveau possède un grand nombre de synapses. Chacun des 1011 (cent milliards) neurones possède en moyenne 10 000 connexions synaptiques avec d’autres neurones. Ce qui signifie 100 à 500 trillions de synapses et les signaux sont transmis le long de ces synapses à une fréquence moyenne d’environ 100 Hz. Une façon d’exprimer la puissance de calcul du cerveau est de mesurer le nombre total de calculs par seconde (cps) que le cerveau peut générer. Plusieurs chercheurs se sont penchés sur cette tâche et sont parvenus à un nombre entre 1016 et 1017 cps.
Une autre façon de calculer la capacité totale consiste à regarder une partie du cortex qui remplit une fonction que nous savons simuler sur des ordinateurs. Hans Moravec a effectué ce calcul à l’aide de données sur la rétine humaine en 1997. Il a obtenu la valeur 1014 cps pour le cerveau humain dans son ensemble. À titre de comparaison, si un « calcul » était équivalent à une « opération à virgule flottante » – une mesure utilisée pour évaluer les superordinateurs actuels – 1016 cps équivalents à 10 petaFLOPS.
Est-ce que nous sommes loin d’avoir des ordinateurs capables de produire 1016 cps ? Non, car aussi surprenant que cela puisse paraître, nous avons déjà des superordinateurs plus puissants. Avec une performance maximale de 200 pétaflops, soit 200 000 milliards de calculs par seconde, Summit d’IBM et le superordinateur le plus puissant du monde. Il utilise 4 608 serveurs de calcul contenant deux processeurs IBM Power9 à 22 cœurs et six unités graphiques Nvidia Tesla V100. Summit consomme 13 mégawatts, tandis que le cerveau n’a besoin que de 20 watts d’énergie pour fonctionner.
Mais si nous avons déjà un super ordinateur qui a une puissance de calcul 20 fois supérieure à celle du cerveau humain, pourquoi n’avons-nous toujours pas d’intelligence artificielle générale ?
Alors il faut déjà prendre en compte que Summit a coûté 200 millions de dollars à construire, ce qui limite forcément son usage. Historiquement, les superordinateurs ont été utilisés pour des simulations météorologique, atmosphérique, moléculaires, astrophysiques ou encore pour gérer efficacement les réserves nucléaires. Ils ne sont pas accessibles à tous les chercheurs travaillant dans l’intelligence artificielle bien qu’il existe des projets visant à simuler la complexité du cerveau humain.
Ce qui signifie que tant que l’accès à la puissance du calcul du cerveau coûtera plusieurs centaines de millions, les progrès pour créer une IA générale seront extrêmement limités. Ray Kurzweil suggère que nous devons plutôt regarder combien de cps nous pouvons acheter pour 1 000 $. Lorsque ce nombre atteindra le niveau de calcul du cerveau humain, 1016, cela signifiera qu’une IA générale pourrait entrer en scène rapidement. En 2019, il est possible d’obtenir en moyenne 10 trillions de cps (1013) pour un ordinateur possédant un microprocesseur Intel i7 par exemple. Ce qui correspond à la puissance de calcul du cerveau d’une souris. Ray Kurzweil prédit depuis longtemps que nous arriverons à 1016 pour 1 000$ en 2025, ce qui semble cohérent avec la croissance exponentielle de la puissance informatique suivant la loi de Moore.
Enfin il ne faut pas croire qu’il suffit d’allumer un superordinateur de 200 pétaflops et le laisser tourner pendant 2 semaines pour voir émerger une intelligence artificielle générale. La puissance de calcul est une étape importante, mais la façon dont un ordinateur fonctionne détermine ce qu’il produit. En d’autres termes, nous avons déjà construit une machine ayant la puissance de calcul du cerveau, mais nous n’avons pas émulé comment il fonctionne.
Simuler le cerveau humain
Une approche populaire discutée pour créer une intelligence artificielle générale est l’émulation du cerveau humain. L’idée est de concevoir un modèle cérébral en cartographiant en détail un cerveau biologique et en copiant sa structure dans un système informatique. En théorie, l’ordinateur devrait exécuter ensuite une simulation si fidèle à l’original qu’il se comportera essentiellement de la même manière que le cerveau d’origine, ce qui produira une intelligence générale comparable à un humain. L’émulation du cerveau entier est un sujet d’étude à l’origine issu des neurosciences pour obtenir des simulations du cerveau à des fins de recherche médicale. Les technologies de neuro-imagerie susceptibles de fournir une compréhension détaillée nécessaire du cerveau s’améliorent rapidement. Ray Kurzweil prédit qu’un modèle du cerveau de qualité suffisante sera disponible dans un délai similaire à la puissance de calcul requise de 1016 cps vu précédemment. Donc 2025.
Certains projets de recherche étudient la simulation du cerveau à l’aide de modèles neuronaux sophistiqués, mis en œuvre sur des architectures informatiques classiques. En 2005, le projet “The artificial intelligence system” par Intelligence Realm a mis en œuvre des simulations d’un “cerveau” (avec 1011 neurones) en temps non réel. Il a fallu 50 jours à un groupe de 27 processeurs pour simuler une seconde d’un modèle similaire au cerveau humain. Pas très efficace, c’est le moins que l’on puisse dire, mais quand même un pas dans la bonne direction.
L’objectif du projet Blue Brain, de l’École Polytechnique Fédérale de Lausanne est de construire des reconstructions et des simulations numériques biologiquement détaillées du cerveau d’un rat, et par la suite du cerveau humain. La recherche consiste à étudier des tranches de tissu cérébral vivant à l’aide de microscopes. Des données sont collectées sur les nombreux types de neurones qui sont utilisés pour construire des modèles biologiquement réalistes de réseaux de neurones. Les objectifs du projet sont d’acquérir une compréhension complète du cerveau et de permettre un meilleur développement sur les traitements des maladies du cerveau.
Les chercheurs ont déjà démontré que cette approche peut fonctionner en imitant le cerveau d’un ver de 1mm. Le projet OpenWorm a cartographié les connexions entre les 302 neurones du ver C.elegans et les a simulées dans un logiciel. Le but ultime du projet est de simuler complètement ce ver en tant qu’organisme virtuel. Récemment, la simulation du cerveau du ver a été intégrée dans un simple robot. La simulation n’est pas exacte, mais le comportement du robot est déjà impressionnant étant donné qu’aucune instruction n’a été programmée dans ce robot. Tout ce qu’il a, c’est un réseau de connexions imitant celles du cerveau d’un ver. Alors certes, 302 neurones c’est encore très loin des 100 milliards que contient notre cerveau, mais en prenant en compte une croissance exponentielle, selon les dires de Ray Kurzweil, nous pourrions avoir simulé le cerveau humain aux alentours de 2030.
Une critique fondamentale de la simulation du cerveau concerne le problème du manque d’incarnation. Car la relation au corps est considérée comme un aspect essentiel de l’intelligence humaine. De nombreux chercheurs pensent que cette incarnation est nécessaire pour fonder une véritable intelligence générale. Si cette position est correcte, tout modèle cérébral pleinement fonctionnel devra être incarné dans un corps robotique par exemple. Ben Goertzel propose d’incarner la simulation du cerveau dans un corps virtuel, mais il n’est pas évident que cela soit suffisamment réaliste. Il est d’ailleurs à l’origine de la construction de Sophia, l’un des humanoïdes les plus réalistes aujourd’hui. Si l’on reprend l’expérience du projet OpenWorm, on peut imaginer qu’à l’horizon 2030-2040, une simulation d’un cerveau humain soit incorporée dans un robot humanoïde extrêmement réaliste, ce qui pourrait donner naissance à une sorte d’être hybride humain/machine. Une nouvelle forme de vie et d’intelligence générale.
Simuler la sélection naturelle
Si la simulation du cerveau humain est trop compliquée, peut être que l’on peut se pencher sur la reproduction des conditions qui ont menés à l’émergence d’une intelligence générale comme la nôtre. C’est à dire en reproduisant les processus darwiniens à l’oeuvre dans la sélection naturelle et l’évolution des organismes. Reproduction, sélection, mutation, survie.
Ce champ d’études s’appelle l’informatique évolutive. La manière classique de programmer consiste à écrire du code informatique précis en ayant un objectif spécifique. L’informatique évolutive utilise une approche différente. Cela commence par des centaines de milliers de morceaux de code assemblés au hasard. Chacun de ces codes est testé pour voir s’il atteint l’objectif requis. Et bien sûr, la plupart du code est inutile, car il est généré aléatoirement. Mais certains morceaux de code sont un peu meilleurs que d’autres. Ces morceaux sont ensuite reproduits dans une nouvelle génération de code, qui inclut davantage de copies.
Cependant, la génération suivante ne peut pas être une copie identique de la première. Les nouveaux codes doivent changer soit à travers une mutation ou bien ils peuvent être issus de deux codes qui sont coupés en deux et les moitiés échangées – comme une recombinaison sexuelle de l’ADN. On a donc des codes “parents” et des codes “enfants”. Chaque nouvelle génération est ensuite testée pour vérifier son fonctionnement. Les meilleurs morceaux de code sont reproduits dans une autre génération, et ainsi de suite. De cette façon, le code évolue. Au fil du temps, les choses s’améliorent et après plusieurs générations, si les conditions sont favorables, le code peut devenir meilleures que celui de n’importe qu’elle programmeur humain.
En 2018, Dennis Wilson et ses collègues de l’Université de Toulouse ont montré comment l’informatique évolutive peut égaler les performances des machines utilisant le deep learning dans les jeux d’arcade tels que Pong, Breakout et Space Invaders. Ces travaux suggèrent que les algorithmes évolutionnaires devraient être utilisés aussi largement que ceux basés sur le machine learning et le deep learning.
C’est une approche flexible pouvant être appliquée à un large éventail de problèmes d’apprentissage et d’optimisation. Cependant, les informaticiens essayant de comprendre et d’utiliser ces approches sont maintenant aux prises avec des problèmes très similaires à ceux rencontrés par les biologistes pour comprendre le fonctionnement de systèmes complexes à différentes échelles. Il faut espérer que les connaissances et l’expérience des deux communautés de recherche pourront être combinées de manière fructueuse pouvant amener à l’émergence d’une IA générale.
L’évolution biologique a mis des milliards d’années pour produire les premières formes d’intelligence générale et j’imagine que les chercheurs aimeraient obtenir des résultats plus rapidement. Mais nous avons beaucoup d’avantages sur l’évolution. Déjà, les processus évolutionnaires peuvent être exécutés sur des échelles de temps extrêmement plus rapide que celle de l’évolution biologique. Donc nous pouvons voir plus rapidement ce qui fonctionne ou non. Ensuite, l’évolution n’a aucun plan prédéfini, aucun objectif, pas même l’intelligence. Or, nous pourrions spécifiquement orienter ce processus évolutif informatique vers un objectif de générer de l’intelligence. Et enfin, pour privilégier l’intelligence, l’évolution doit innover de différentes manières pour faciliter son émergence, comme par exemple réorganiser la façon dont les cellules produisent de l’énergie. Mais en utilisant directement l’électricité comme source d’énergie aux systèmes évolutifs, cela facilite la progression vers l’objectif visé.
Au final, est-ce que reproduire le cerveau humain est la meilleure façon d’obtenir une intelligence générale de niveau humaine ? Peut être pas. Lorsqu’on regarde l’histoire de l’aviation par exemple, le meilleur moyen de concevoir un engin capable de voler n’a pas été de simuler la façon dont les oiseaux vols en créant des oiseaux mécaniques. Ceux qui ont emprunté cette voie ont connu des échecs cuisants. La solution fut de comprendre les fondamentaux de l’aérodynamisme.
Il en va peut-être de même avec la création d’une intelligence artificielle générale. Tout comme il y a plusieurs façons de “voler”, il y a surement plusieurs façons d’avoir une intelligence générale. Nous allons peut-être nous retrouver avec des systèmes disposant d’une intelligence similaire à la nôtre, mais fonctionnant sur des principes qui ne sont pas comparables à ceux des neurones et synapses de notre cerveau.
Comment mesurer l’achèvement d’une intelligence artificielle générale ?
Admettons qu’une équipe de chercheur prétend avoir mis au point une intelligence artificielle générale. La suite logique c’est de tester leur affirmation avec des outils d’analyse scientifique. Mais c’est plus facile à dire qu’à faire.
Le concept “d’intelligence générale” fait référence à la capacité d’être efficace dans une multitude de domaines. Ou, comme le dit Ben Goertzel :
« la capacité d’atteindre des objectifs complexes dans des environnements complexes en utilisant des ressources informatiques limitées. »
Une autre idée souvent associée à l’intelligence générale est la capacité de transférer l’apprentissage d’un domaine à un autre.
Pour illustrer cette idée, considérons quelque chose qui ne compterait pas comme une intelligence générale. Aujourd’hui, les ordinateurs démontrent des performances surhumaines pour certaines tâches, des performances équivalentes aux humains pour d’autres et des performances sous-humaines pour d’autres tâches. Si une équipe de chercheurs était en mesure de combiner dans un seul système, un grand nombre des algorithmes les plus performants appartenant à la catégorie des IA limitées, ils disposeraient d’une “IA fourre-tout” qui sera terriblement mauvaise dans la plupart des tâches, médiocre dans d’autres, et surhumaine dans une poignée de domaine.
C’est au final, un peu la même chose avec les humains. Nous sommes terriblement mauvais ou médiocres dans la plupart des tâches, et biens meilleurs que la moyenne pour quelques tâches seulement. Car on les a étudiés ou pratiqués beaucoup plus. Une autre similitude est que l’IA fourre-tout montrerait probablement des corrélations mesurables entre de nombreuses capacités cognitives similaires, tout comme les humains où l’on retrouve ce concept avec les tests de QI. Si nous donnions à l’IA fourre-tout beaucoup plus de puissance de calcul, celui-ci pourrait l’utiliser pour améliorer ses performances dans de nombreux domaines similaires.
Par contre, cette IA n’aurait pas (encore) d’intelligence générale, car elle n’aurait pas nécessairement la capacité de résoudre des problèmes arbitraires dans des environnements aléatoires, et ne serait pas nécessairement capable de transférer l’apprentissage d’un domaine à un autre.
Bien que la tâche de mesurer si un système artificiel possède une intelligence générale est compliquée, plusieurs personnes ont proposé des tests.
Le test de Turing :
Le test de Turing a été proposé par Alan Turing (1912 – 1954) en 1950, mais a reçu de nombreuses interprétations au fil des décennies.
Une interprétation spécifique est fournie par les conditions pour gagner le prix Loebner. Depuis 1990, Hugh Loebner a offert 100 000 dollars au premier programme qui réussit ce test lors d’un concours annuel. Des prix plus modestes sont décernés chaque année aux IA le plus performantes, mais aucun programme n’a encore remporté le prix de 100 000 $.
Les conditions exactes pour gagner ce grand prix ne seront pas définies tant que le programme ne remportera pas le prix “argent” de 25 000 dollars, ce qui n’a pas encore été fait. Cependant, nous savons que les conditions vont probablement ressembler à ceci : un programme gagnera 100 000 $ s’il peut tromper la moitié des juges en leur faisant croire que c’est un humain en interagissant avec eux dans une conversation sans thème précis pendant 30 minutes et en interprétant des données audiovisuelles.
Le test du café :
Ben Goertzel suggère un test probablement plus difficile qu’il appelle le “test au café”. Cela paraît simple sur le papier : Entrez dans une maison Américaine moyenne et trouvez comment faire du café, notamment en identifiant la machine à café, en déterminant le fonctionnement des boutons, en trouvant le café dans le placard, etc.
Selon lui, si un robot pouvait le faire sans avoir été programmé, nous devrions peut-être considérer qu’il possède une intelligence générale.
Le test du robot étudiant :
Ben Goertzel, toujours lui, propose une autre mesure encore plus complexe, le “test du robot étudiant”. Lorsqu’un robot pourra s’inscrire dans une université humaine et suivre des cours de la même manière que les humains et obtenir son diplôme, alors on pourra conclure avec une grande probabilité que ce robot possède une intelligence artificielle générale. Ce qui implique que la durée du test sera de plusieurs mois.
Un ou plusieurs de ces tests peuvent sembler convaincants, mais un regard sur l’histoire permet de nous apprendre une certaine humilité. Il y a des décennies, plusieurs scientifiques de premier plan en intelligence artificielle semblaient penser que la performance aux échecs pouvait représenter un exploit digne d’une IA générale.
En 1976, le mathématicien I.J. Good (1916 – 2009) a affirmé qu’un programme battant un champion humain aux échecs était un bon indicateur d’une IA générale. Mais les machines ont dépassé les meilleurs joueurs d’échecs humains en 1997, ce qui n’a pas été synonyme d’intelligence générale, mais simplement de force brute informatique et des algorithmes très bien codés. La victoire de DeepMind au jeu de Go est bien plus impressionnante que les échecs, mais cela n’est toujours pas une preuve d’une intelligence générale.
Le succès surprenant des voitures autonomes peut offrir une autre leçon d’humilité. Un scientifique dans les années 1960 aurait peut-être pensé qu’une voiture autonome aussi performante que celle que l’on possède en 2019 serait un signe d’une IA générale. Après tout, une voiture autonome doit agir avec une grande autonomie, à grande vitesse, dans un environnement extrêmement complexe, dynamique et incertain dans le monde réel. Au lieu de cela, Google a construit sa voiture sans conducteur avec une série de technique qu’il n’était probablement pas imaginable dans les années 1960 – par exemple, en cartographiant avec une grande précision presque toutes les routes, autoroutes et parkings de la planète avant de construire sa voiture sans conducteur. Et le résultat n’est pas une intelligence générale.
Les opinions varient sur la question de savoir si l’intelligence générale artificielle est à prévoir sur le court ou long terme. Herbert A. Simon (1916 – 2001), pionnier de l’intelligence artificielle, écrivait en 1965 : « Les machines seront capables, dans vingt ans, de faire tout le travail qu’un homme peut faire ». Cependant, cette prédiction ne s’est pas réalisée. Paul Allen (1953 – 2018), cofondateur de Microsoft, estimait qu’une telle intelligence était improbable au 21e siècle, car elle exige des percées fondamentalement imprévisibles et une compréhension scientifique approfondie de la cognition. Le chercheur Alan Winfield a déclaré que le fossé entre l’informatique moderne et l’intelligence artificielle de niveau humain était aussi large que celui existant entre le vol spatial actuel et un vol spatial plus rapide que la vitesse de la lumière. Selon quatre sondages menés en 2012 et 2013, la moyenne parmi les experts sur le moment où l’IA générale arriverait était entre 2040 et 2050. Mais avec des extrêmes allant de 2020 à 2100. Ce sondage n’a pas un poids très élevé dans la mesure où historiquement, les experts d’un domaine ont souvent manqué de flair lorsqu’il s’agit de prédire le développement futur d’une technologie.
Dans le prochain episode, nous verrons les implications ethiques qu’une IA general pourrait soulever et nous parleront d’un sujet plein de controverse : La conscience.
- Futurism - New Artificial Intelligence Does Something Extraordinary — It Remembers
- waitbutwhy - The AI Revolution: The Road to Superintelligence
- Artificial general intelligence - Wikipedia
- Enterra solutions - Artificial Intelligence and Common Sense
- Machine intelligence research institute - What is AGI?
- Supercomputer - Wikipedia
- Mind uploading - Wikipedia
- Smithsonian - We’ve Put a Worm’s Mind in a Lego Robot’s Body
- Genetic algorithm - Wikipedia
- MIT technology review - Evolutionary algorithm outperforms deep-learning machines at video games
- Mother Jones - Welcome, Robot Overlords. Please Don’t Fire Us?