Comparaison entre l’homme et l’ordinateur : qui est le plus intelligent ?
Lors d’une conférence TED à Vancouver en 2015, Nick Bostrom tente d’imaginer ce qu’il se passera quand nos ordinateurs deviendront plus intelligents que nous. Et c’est très intéressant d’avoir le point de vue d’un philosophe sur la question , puisqu’il enseigne la philosophe à l’université d’Oxford.
Nick Bostrom travaille avec des mathématiciens, philosophes et informaticiens, se réunissant pour imaginer le futur de l’intelligence artificielle (I.A). La première chose qu’il met en avant dans son questionnement c’est la différence entre le cerveau d’un chimpanzé et celui d’un Physicien quantique. Si nous regardons sous le crane, on trouve la même chose : Un cerveau. L’un est un peu plus grand, il y a peut-être aussi quelques subtilités de câblage. Ces différences invisibles ne peuvent être trop compliquées car il n’y a eu que 250 000 générations depuis notre dernier ancêtre commun. Nous savons que les mécanismes compliqués demandent beaucoup de temps pour évoluer. Donc des changements relativement mineurs nous emmènent du chimpanzé à l’homme, de branches arrachées aux arbres aux missiles balistiques intercontinentaux.
Il semble alors assez évident que tout ce que nous avons réalisé dépend principalement de quelques changements mineurs qui ont aboutit à l’esprit humain. Le corollaire, bien sûr, est que tout changement mineur à venir pourrait changer significativement le substrat de la pensée entraînant d’énormes conséquences.
De nombreux scientifiques pensent que nous sommes sur le point de développer quelque chose qui pourrait causer un tel changement : La super intelligence artificielle. Avant, l’I.A consistait à mettre des commandes dans une boîte. Il y avait des programmeurs qui fabriquaient minutieusement des objets “intelligents”. En gros, vous n’aviez que ce que vous aviez mis dedans. Mais depuis, une révolution conceptuelle s’est opérée dans le domaine de l’I.A.. Aujourd’hui, l’action est centré sur l’apprentissage de la machine. Plutôt que de coder à la main des programmes et leurs caractéristiques, on crée des algorithmes qui apprennent, souvent à partir des données perçues. C’est évidemment similaire à ce que fait un enfant. Le résultat est une I.A. qui n’est pas limitée à un domaine. Le même système peut apprendre à traduire n’importe quel couple de langues, ou apprendre à jouer au échec. Bien sûr, l’I.A. est toujours loin d’avoir la capacité d’apprendre et planifier d’un être humain. Le cortex a encore des secrets algorithmiques que nous ne savons pas intégrer dans les machines. Mais la question est : Pour combien de temps ?
Il y a quelques années, Nick et ses collègues ont fait un sondage auprès des experts mondiaux de l’I.A pour savoir ce qu’ils pensent, et une des questions posées fut, « En quelle année pensez-vous qu’il y aura 50% de probabilité qu’une I.A. atteigne le niveau d’une intelligence humaine ? » La réponse moyenne : entre 2040 et 2050. Autant dire demain !!!
La limite de traitement de l’information dans une machine est bien supérieure à celle d’un tissu biologique. Ça s’explique par la physique. Un neurone biologique « décharge » environ à 200 hertz, 200 fois par seconde. Mais, même un transistor actuel fonctionne au gigahertz. L’information se propage dans les neurones le long d’axones à 100 m/s maximum. Mais dans les ordinateurs, le signal peut voyager à la vitesse de la lumière. Il y a aussi des limitations de taille, car le cerveau humain doit rentrer dans la boîte crânienne, mais un ordinateur peut être de la taille d’un entrepôt voir plus grand.
L’I.A va, après de nombreuses années de recherche, arriver au niveau de l’intelligence d’une souris, quelque chose qui peut naviguer dans des environnements encombrés aussi bien qu’une souris. Ensuite, peut-être arrivera t-elle au niveau d’intelligence d’un chimpanzé. La prochaine étape sera l’intelligence humaine mais le train ne s’arrêtera pas à la station Humainville. Il va plutôt passer à fond devant. Il y a là de profondes implications, en particulier au niveau du pouvoir. Par exemple, les chimpanzés sont forts — à poids équivalent, un chimpanzé est deux fois plus fort qu’un homme adulte. Pourtant, le destin de cette espèce dépend beaucoup plus de ce que font les humains que de ce que les chimpanzés font eux-mêmes. Une fois que la super intelligence aura devancée à l’humain, notre destin pourrait dépendre des actions de cette super intelligence.
Pensez-y : l’I.A est la dernière invention que l’homme aura jamais besoin de faire. Les machines seront alors de meilleurs inventeurs que nous le sommes, et elles inventeront sur des échelles de temps numériques, c’est à dire beaucoup plus rapidement. Pensez à toutes les technologies incroyables de science-fiction qui sont néanmoins cohérentes avec les lois de la physique : plus de vieillissement, colonisation de l’espace, nano-robots auto-répliquants, téléchargement d’esprits humains dans des ordinateurs etc. Cette super intelligence pourrait les développer assez rapidement.
Une super intelligence avec une telle maturité technologique serait extrêmement puissante, et au moins dans certains scénarios, serait capable d’obtenir ce qu’elle veut. Nous aurions alors un futur modelé par les préférences de cette I.A Une bonne question est, quelles sont ces préférences ? C’est là que ça devient délicat. Pour progresser là-dessus, nous devons tout d’abord éviter tout anthropomorphisme. C’est ironique car dans tous les articles de journaux qui parle de l’avenir de l’I.A, on trouve une image tirée de Terminator ou Matrix. Nous devons concevoir ce problème de manière plus abstraite, et non en scénario hollywoodien.
Lors d’une conférence TED à Vancouver en 2015, Nick Bostrom tente d’imaginer ce qu’il se passera quand nos ordinateurs deviendront plus intelligents que nous. Et c’est très intéressant d’avoir le point de vue d’un philosophe sur la question , puisqu’il enseigne la philosophe à l’université d’Oxford.
Nous devons penser à l’intelligence comme un processus d’optimisation, un processus qui guide le futur dans un certain jeu de configurations. Une super intelligence est un processus d’optimisation très fort. Elle est très douée pour utiliser les moyens disponibles pour atteindre un état dans lequel son but est réalisé. Ça signifie qu’il n’y a pas de nécessaire connexion entre le fait d’être très intelligent, et avoir un objectif que nous, humains, trouverions utile ou ayant du sens.
Supposons qu’on donne comme but à une I.A. de faire rire les humains. Quand l’I.A. est peu développé, elle réalise des actions amusantes qui provoque le sourire de l’utilisateur. Quand l’I.A. devient super intelligente, elle réalise qu’il y a un moyen plus efficace d’atteindre son objectif : prendre le contrôle du monde et implanter des électrodes dans les muscles faciaux des humains pour provoquer des sourires constants. Un autre exemple, supposons qu’on demande à une I.A. de résoudre un problème de math très dur. Quand l’I.A. devient super intelligente, elle réalise que le moyen le plus efficace pour résoudre ce problème est de transformer la planète en un ordinateur géant, pour augmenter sa capacité de calcul.
Bien sûr ce sont des exemples caricaturés. Mais l’argument général est important : si vous créez un processus d’optimisation très puissant pour maximiser les chances d’atteindre l’objectif x, vous devez vous assurer que votre définition de x incorpore tout ce à quoi vous tenez. C’est une leçon qui est enseignée dans de nombreux mythes. Le roi Midas souhaitait que tout ce qu’il touche se transforme en or. Il touche sa fille, elle se transforme en or. Il touche sa nourriture, elle se transforme en or. C’est le revers de la médaille.
Vous pourriez dire que si un ordinateur commence à nous implanter des électrodes ou prendre le contrôle de la planète, nous le débrancherions. Ce n’est pas forcément si facile à faire si nous sommes devenus dépendants, par exemple, comment arrête-t-on internet ? L’important est que nous ne devrions pas croire que nous avons tout sous contrôle.
Nous pourrions tenter de nous faciliter la tâche, disons en mettant l’I.A. dans une boîte, comme un environnement logiciel sûr, une simulation de la réalité d’où elle ne peut s’échapper. Mais à quel point sommes-nous sûrs qu’elle ne trouvera pas un bug. Étant donné que de simples hackers humains trouvent toujours des bugs … La réponse est probablement de découvrir comment créer une super intelligence telle que même si elle s’échappe, on reste toujours en sécurité car elle est fondamentalement de notre côté.
Une I.A. qui utilise son intelligence pour apprendre nos valeurs, et son système de motivation est construit de telle sorte qu’elle est motivée par la recherche de valeurs ou d’actions qu’elle prédit que nous approuverions. Nous pourrions ainsi influencer son intelligence autant que possible à résoudre des problèmes importants.
Le résultat en serait très positif pour l’humanité. Mais ça n’arrivera pas automatiquement. Les conditions initiales de l’explosion de l’intelligence devront être programmées de manière précise si nous voulons obtenir un semblant de contrôle. Les valeurs de l’I.A. devront correspondre aux nôtres, pas seulement dans un contexte familier, où il est facile de contrôler comment l’I.A. se comporte, mais aussi dans de nouveaux contextes que l’I.A. pourrait rencontrer dans un futur indéfini.
Nick Bostrom pense que nous devrions donc commencer à résoudre le problème de contrôle d’abord, pour qu’il soit disponible quand on en aura besoin. On ne pourra peut-être pas résoudre tout le problème du contrôle à l’avance car certains éléments ne peuvent être mis en place qu’à posteriori. Mais plus tôt nous nous penchons sur ce problème de contrôle à l’avance, meilleure seront nos chances pour que la transition vers l’ère de l’I.A. se passe bien.
Les gens, dans un million d’années, penseront peut-être que la chose qui a vraiment été importante au 21ème siècle fut de contrôler le démarrage de la super intelligence artificielle., evitant ainsi une catastrophe si commune dans les récits de Science Fiction.
- Une pause plutôt qu'une course sur la route vers l'IA Générale
- Le paradoxe de Fermi et l'émergence des superintelligences artificielles
- L'impact économique du mind uploading
- L’intelligence artificielle pourrait-elle détruire internet ?
- Prédire l'avenir avec l'intelligence artificielle : Bientôt une réalité ?