Qu’est-ce que l’intelligence artificielle générale ?
partie 5/9 de la série Intelligence artificielle – L’ultime révolution- partie 01
- partie 02
- partie 03
- partie 04
- partie 05
- partie 06
- partie 07
- partie 08
- partie 09
Il existe dans la nature différents types d’organisme qui semble être très doué à des tâches spécifiques. En d’autres termes, ils ont une intelligence spécialisée. Les abeilles semblent compétentes à faire des ruches. Les castors semblent compétents pour faire des barrages. Mais si un castor observe des abeilles fabriquer une ruche, il ne va pas essayer de faire pareil. Il semble donc qu’il y a un manque de transfert de compétence. Par opposition, nous, humains, pouvons observer les castors en train de construire un barrage, et répliquer à notre façon cette compétence. Nous pouvons observer comment les abeilles construisent leurs ruches et faire de même. Nous avons une intelligence générale. Et en regardant l’ampleur de notre savoir-faire, il semblerait que nous ayons l’intelligence générale la plus vaste du règne animal. C’est ce type d’intelligence que certains chercheurs tentent de construire dans leur atelier.
Au sommaire
Le meta-apprentissage
Pour faire simple, si une intelligence artificielle est capable de développer un système d’apprentissage qui lui permet d’apprendre par elle même des dizaines et des dizaines de choses, elle sera considérée comme ayant une intelligence générale. Par opposition à l’intelligence artificielle limitée que l’on peut voir aujourd’hui autour de nous. Elle aura la capacité d’appliquer sa technique d’apprentissage à un nombre virtuellement illimité de domaines, et pourra atteindre le niveau d’intelligence d’un humain. Cette capacité d’apprendre à apprendre est appelée meta-apprentissage.
C’est intéressant de noter que ce qui est souvent intuitivement considéré comme le plus difficile pour nous humain se révèle être super simple pour une intelligence artificielle. Multiplier des nombres de dix chiffres en une fraction de seconde c’est réservé aux autistes spéciaux, mais c’est hyper facile pour un ordinateur. Faire la différence entre un chien et un chat c’est un jeu d’enfant pour 99,9% des êtres humains, mais pour une intelligence artificielle c’est d’une complexité insurmontable. Faire de l’IA capable de battre n’importe quel humain aux échecs ? C’est fait. Faites-en une capable de lire un paragraphe d’un livre d’un enfant de six ans et ne pas simplement reconnaître les mots, mais en comprendre la signification ? Google dépense actuellement des milliards de dollars pour essayer de le faire. Les tâches difficiles pour nous comme le calcul, l’analyse du marché économique et la traduction linguistique en 150 langues sont extrêmement faciles à comprendre pour un ordinateur, tandis que les choses simples comme la vision, la compréhension du langage naturel et la perception sont incroyablement difficiles. Ou, comme le dit l’informaticien Donald Knuth :
“Jusqu’à présent, l’intelligence artificielle arrive à faire quasiment tout ce qui requiert de la penser, mais échoue à faire ce que les humains et animaux font “sans penser””.
Ces choses qui nous semblent si faciles sont en réalité incroyablement compliquées. Elles semblent faciles parce que ces compétences ont été optimisées par des centaines de millions d’années d’évolution à travers la sélection naturelle. Lorsque vous tendez la main vers un objet, les muscles, les tendons et les os de votre épaule, de votre coude et de votre poignet effectuent instantanément une longue série d’opérations physiques, en conjonction avec vos yeux, pour vous permettre de bouger votre main sur trois dimensions. Cela semble sans effort pour vous parce que le logiciel dans votre cerveau a eu des millions d’années d’entraînement à travers des milliers de générations. Par contre, multiplier des grands nombres et jouer aux échecs sont des activités relativement récentes pour le cerveau humain, il n’a pas eu des millions d’années pour se perfectionner donc il est inefficace.
C’est pour cette raison que l’apprentissage est un élément clé dans la création d’une intelligence artificielle. Si on pouvait mettre une IA dans une boite avec tout un tas de données sur le monde plus une dose de machine learning, pendant cent millions d’années, elle ressortirait surement avec un niveau d’intelligence dépassant de loin celui d’un humain. Mais ce serait quand un peu long et la plupart des chercheurs travaillant sur le développement d’une IA générale espèrent le faire bien plus rapidement.
Donc l’élément clé pour la création d’une intelligence artificielle générale c’est l’apprentissage. Comme on l’a vu dans la partie précédente, le machine learning et le deep learning sont des techniques efficaces pour faire apprendre à des algorithmes certaines fonctionnalités. Mais des tonnes de données sont nécessaires pour nourrir ses algorithmes, ce qui est très différent de la façon dont un être humain est capable d’apprendre. Pour nous, un ou deux exemples et nous sommes capables de tirer des conclusions rapidement. Par exemple, pour reconnaître de la neige sur une photo. Pour un enfant de 10 ans vivant sur une île tropicale qui n’a jamais vu de la neige, il lui suffira de voir une ou deux photos et il aura appris. Une IA doit analyser des milliers de photos pour obtenir un résultat proche des 100% lorsqu’on lui demande de reconnaître un paysage enneigé. Une intelligence artificielle générale devrait donc être capable d’apprendre une tâche avec très peu d’exemples à disposition. Et c’est quelque chose qui semble être très compliqué aujourd’hui.
Un autre problème concernant l’apprentissage c’est bien entendu la généralisation des connaissances qu’un système artificiel est capable d’apprendre. D’où le terme “intelligence artificielle générale” et également le transfert d’apprentissage. C’est-à-dire que lorsqu’un enfant commence à devenir bon au jeu vidéo “Mario”, s’il commence à jouer à Sonic, il aura déjà des acquis techniques qui seront applicables sur tous les jeux de plateforme similaire. Si l’on prend une intelligence artificielle qui a impressionné par ces capacités, disons Alpha Zero de Google deepmind. Il sera capable de battre n’importe quel humain au jeu de Go jusqu’à la fin des temps, mais il ne sait pas commander une pizza en ligne, ou conduire une voiture. Même s’il a néanmoins démontré des capacités de transfert d’apprentissage en maîtrisant rapidement les échecs en plus du jeu de Go, mais ces capacités restent limitées.
Depuis le lancement de la recherche sur l’intelligence artificielle en 1956, la recherche dans la création d’IA générale s’est ralentie au fil du temps. Une des explications est que les ordinateurs ne disposent pas de suffisamment de mémoire ou de puissance de traitement pour simuler la complexité du cerveau humain, et donc développer une intelligence comparable.
D’autres raisons possibles ont été avancées pour justifier les difficultés rencontrées comme la nécessité de bien comprendre le cerveau humain par le biais de la psychologie et de la neurophysiologie qui ont empêché de nombreux chercheurs d’imiter la structure du cerveau humain dans un cadre artificiel. Il y a également le débat sur l’idée de créer des machines avec des émotions. Il n’y a pas d’émotions dans les modèles actuels et certains chercheurs affirment que la programmation d’émotions dans des machines leur permettrait d’avoir leur propre esprit. L’émotion résume les expériences des humains, car elle leur permet de se souvenir de leurs expériences. Le chercheur David Gelernter a écrit qu’aucun ordinateur ne sera créatif s’il ne peut simuler toutes les nuances de l’émotion humaine.
Mais l’une des difficultés qui occupent grandement les chercheurs c’est la question du “bon sens”. C’est-à-dire comment s’assurer qu’une intelligence artificielle puisse comprendre le monde et faire preuve de bon sens dans sa résolution des problèmes qu’elle rencontre ? Pour les humains, le bon sens est un ensemble de faits que tout le monde connaît et prend pour acquis lorsque l’on exécute une tâche. Par exemple, “un enfant restera plus jeune que ses parents jusqu’à la fin de sa vie”, “est-ce possible de faire une salade avec du polyester ?”, “Il est impossible que mon grand-père n’ait jamais eu d’enfant” etc.
Ce sont des questions absurdes, que n’importe quel humain de plus de 2 ans est capable de savoir. Mais une intelligence artificielle n’en a aucune idée et si elle n’apprend pas chaque réponse, elle ne pourra pas les déduire d’elle même. Par exemple, si je demande à une intelligence artificielle : “Est-ce que Monsieur Martin est plus grand que son bébé ?”, l’IA va chercher à résoudre cette question en trouvant les données sur la taille des deux êtres humains. Elle me répondra : “Monsieur Martin fait 1m80, son bébé fait 70 cm donc la réponse à votre question est que Monsieur Martin est plus grand”. Mais ce n’est pas la meilleure façon de répondre à cette question puisque n’importe qui sait qu’un adulte sera forcément plus grand que son bébé. Pas besoin de comparer leur taille pour savoir qui est plus grand.
Encore 72% de ce contenu à découvrir...
- Production
- Distribution
- Realisation
- Commentaire voix off
- Futurism - New Artificial Intelligence Does Something Extraordinary — It Remembers
- waitbutwhy - The AI Revolution: The Road to Superintelligence
- Artificial general intelligence - Wikipedia
- Enterra solutions - Artificial Intelligence and Common Sense
- Machine intelligence research institute - What is AGI?
- Supercomputer - Wikipedia
- Mind uploading - Wikipedia
- Smithsonian - We’ve Put a Worm’s Mind in a Lego Robot’s Body
- Genetic algorithm - Wikipedia
- MIT technology review - Evolutionary algorithm outperforms deep-learning machines at video games
- Mother Jones - Welcome, Robot Overlords. Please Don’t Fire Us?