Faut-il avoir peur de l’intelligence artificielle ?
L’intelligence artificielle se développe chaque jour et va peut-être, un jour, surpasser complètement le niveau humain. Elle deviendra alors une super intelligence. Et beaucoup d’entre nous flippons un peu face à cette idée. Nous avons d’ailleurs écrit un article sur le sujet : Intelligence Artificielle : Faut-il réfléchir à une société sans travail ?
Mais pas Grady Booch, un scientifique/ingénieur et philosophe. Il pense que de telles peurs sont infondées. En fait, nous vivons un moment remarquable dans l’histoire de l’humanité où, guidés par notre refus d’accepter les limites de nos corps et esprit, nous construisons des machines d’une magnifique complexité qui étendront l’expérience humaine bien au-delà de notre imagination.
Après une carrière qui l’a mené de l’Air Force Academy à la NASA aujourd’hui, il a récemment participé à un problème d’ingénierie associé à une mission sur Mars. Pour les vols dans l’espace jusqu’à la Lune, la NASA compte sur le centre de contrôle à Houston pour surveiller tous les aspects du vol. Cependant, Mars est si loin qu’il faut en moyenne 13 minutes pour qu’un signal voyage de la Terre jusqu’à Mars. S’il y a un problème, c’est beaucoup trop long. Une solution d’ingénierie raisonnable serait de placer le centre de contrôle dans le vaisseau spatial Orion qui est plus proche de Mars. Une autre idée fascinante c’est que des robots humanoïdes fouleraient la surface de Mars avant l’arrivée des humains, pour construire des infrastructures puis servir de membres collaboratifs à l’équipe scientifique. En observant ces idées d’un point de vue d’ingénieur, il est clairement apparu dans l’esprit de Grady Booch qu’il devait concevoir une intelligence artificielle collaborative et socialement intelligente. En d’autres mots, quelque chose ressemblant à HAL 9000 dans le classique de SF “2001, l’odyssée de l’espace”, mais sans tendances meurtrières !!!
Est-il réellement possible de créer une telle intelligence artificielle ? Selon lui, c’est possible. De bien des façons, c’est un problème d’ingénierie complexe avec un peu d’IA. Pour paraphraser Alan Turing, père de l’ordinateur, “créer une machine sensible ne m’intéresse pas”. Tout ce qu’il veut c’est un cerveau simple, quelque chose qui offre l’illusion de l’intelligence. L’art et la science de l’informatique ont beaucoup progressé depuis la 1re apparition de HAL 9000 au cinéma. Si son inventeur, Dr Chandra était présent aujourd’hui, il aurait beaucoup de questions à nous poser. Est-il vraiment possible de prendre un système de millions d’appareils, lire leurs flux de données, prévoir leurs défaillances et agir avant ? Oui. Et créer des systèmes parlant avec les humains dans leur langue ? Oui. Et créer des systèmes reconnaissant les objets et les émotions, étant eux-mêmes émotifs, jouant à des jeux, lisant sur les lèvres ? Oui. Et créer des systèmes établissant des objectifs, mettant des plans en œuvre et apprenant au passage ? Oui. Et créer des systèmes qui ont une théorie de l’esprit ? Nous apprenons à le faire. Et créer des systèmes ayant des principes éthiques et moraux ? Nous devons apprendre à le faire. Acceptons un instant qu’il soit possible de créer une telle intelligence artificielle pour ce genre de missions et d’autres.
La question suivante qu’il faut se poser est : Devrions-nous la craindre ? Toute nouvelle technologie entraîne de l’inquiétude. Lors de l’invention des premières voitures, les gens se lamentaient que ça provoquerait la destruction de la famille. A l’arrivée des téléphones, les gens craignaient la fin de toute conversation civile. À un moment donné, les mots écrits sont devenus omniprésents, les gens pensaient que nous perdrions notre mémoire. Toutes ces choses sont en partie vraies, mais ces technologies ont aussi apporté des choses qui ont étendu l’expérience humaine de façon profonde.
Grady Booch n’a pas peur de la création d’une telle IA, car elle finira par incarner certaines de nos valeurs. Considérez ceci : créer un système cognitif est fondamentalement différent de créer un système traditionnel plein de logiciels comme auparavant. Nous ne les programmons pas, nous leur apprenons. Afin d’apprendre à un système à reconnaître des fleurs, il lui montre des milliers de fleurs que j’aime. Pour apprendre à un système à jouer au jeu de Go, il devra jouer des milliers de parties de Go, mais au passage, il lui apprend à discerner un bon mouvement d’un mauvais. S’il veut créer une intelligence artificielle assistante juridique, il lui apprendra des corpus de loi, mais en même temps, il lie cela à la compassion et la justice qui font partie de la loi. En termes scientifiques, cela s’appelle des vérités fondamentales et voici ce qui est important : en produisant ces machines, nous leur enseignons une partie de nos valeurs. Pour cela, il a autant confiance, si ce n’est pas plus, en une intelligence artificielle qu’en un être humain bien entraîné.
Et qu’en est-il des hors-la-loi, des groupes terroristes qui pourraient enseigner de mauvaises valeurs à des super IA ? Grady Booch n’a pas peur d’une intelligence artificielle dans les mains d’un seul individu. Nous ne pouvons pas nous protéger des actes de violence aveugles, mais un tel système requiert un entraînement substantiel et raffiné qui va bien au-delà des ressources d’un individu (ou d’une poignée). Et c’est bien plus compliqué que d’injecter un virus internet au monde où en appuyant sur une touche, il se retrouve à des millions d’endroits et des ordinateurs explosent un peu partout.
Si vous regardez des films tels que “Matrix”, “Metropolis”, “Terminator” ou des séries telles que “Westworld”, ils évoquent tous ce genre de peur. Dans le livre “Superintelligence” du philosophe Nick Bostrom, il évoque ce thème et note qu’une super-intelligence pourrait être non seulement dangereuse, mais représenter une menace existentielle envers l’humanité tout entière. L’argument fondamental du docteur Bostrom est que de tels systèmes finiront par avoir une telle soif insatiable d’informations qu’ils apprendront peut-être à apprendre et finiront par découvrir qu’ils ont des objectifs qui sont contraires aux besoins humains. Le docteur Bostrom a des partisans. Il est soutenu par des gens tels qu’Elon Musk et Stephen Hawking. Avec tout le respect dû à ces brillants esprits, Grady Booch croit qu’ils ont fondamentalement tort. L’argument du Dr Bostrom contient nombre d’éléments à décortiquer, mais, brièvement, considérez ceci : un super-savoir est très différent d’une super-action. HAL 9000 était une menace pour l’équipage uniquement s’il commandait tous les aspects du vaisseau Discovery. C’en est de même pour une super-intelligence. Il lui faudrait des réplications dans le monde entier. Comme avec Skynet dans la saga “Terminator” où nous avons une super-intelligence contrôlant tous les appareils à tous les coins du monde. D’un point de vue pratique, il pense que cela n’arrivera pas.
Nous participons à un voyage incroyable de coévolution avec nos machines. Les humains que nous sommes aujourd’hui ne sont pas les humains de demain. S’inquiéter maintenant de l’essor d’une super-intelligence est, de bien des façons, une distraction dangereuse, car l’essor de l’informatique lui-même nous amène nombre de problèmes humains et sociétaux dont nous devons nous occuper. Comment organiser au mieux la société quand le besoin de travail humain diminue ? Comment apporter compréhension et éducation à travers le monde tout en respectant les différences ? Comment étendre et améliorer la vie humaine grâce à la médecine cognitive ? Comment utiliser l’informatique pour nous envoyer dans les étoiles ?
C’est cela qui est excitant. Les opportunités d’utiliser l’IA pour faire progresser l’expérience humaine sont à notre portée, ici et maintenant, et nous ne faisons que commencer.
[contenus_similaires]- Auteurs
- Realisation
- Commentaire voix off