L’histoire de l’intelligence artificielle
Partie 1/1 de la série alan turing- Partie 01
Si l’on prend du recul sur l’histoire de l’humanité, on remarque qu’il y a seulement trois grandes révolutions selon l’historien Yuval Noah Harari. La révolution cognitive, la révolution agricole et la révolution scientifique. Mais si on se projette dans un siècle ou deux, notre époque sera peut-être perçue comme le début de la quatrième grande révolution. Une sorte de deuxième révolution cognitive où l’intelligence d’Homo Sapiens sera décuplée par un facteur si grand que cela pourrait bien déboucher sur la naissance d’une nouvelle espèce. La quatrième révolution sera la révolution de l’intelligence artificielle. L’ultime révolution.
Mais commençons par un peu d’histoire …
Si l’on prend du recul sur l’histoire de l’humanité, on remarque qu’il y a de nombreux événements qui ont façonné la trajectoire de notre espèce à travers les époques. Que ce soit les guerres, les changements politiques, l’émergence de religion, les révolutions sociales, technologiques, scientifiques et bien d’autres. Mais si l’on est pressé, et que nous devons résumer l’ensemble de l’histoire d’Homo Sapiens à une race extra-terrestre, il est possible de le faire en seulement trois grandes révolutions selon l’historien Yuval Noah Harari.
Au sommaire
Les grandes révolutions
La première c’est la révolution cognitive qui est apparue il y a 100 000 à 70 000 ans. Une espèce insignifiante appartenant à la famille des grands singes localisée dans un petit coin de l’Afrique de l’Est commença à développer des capacités cognitives uniques comme la pensée abstraite, la mémoire, le raisonnement, ou encore la communication en groupe. Ce qui lui permit de devenir l’animal le plus puissant sur la planète. Homo Sapiens s’est répandu ensuite sur tous les continents et finit par devenir le seul représentant du genre homo.
La seconde grande révolution se déroula il y a environ 12 000 ans. Étant essentiellement des tribus nomades de chasseurs/cueilleurs, des Homo Sapiens du bassin mésopotamien, en Chine ou encore en Amérique du Sud, domestiquèrent certains types de plantes et animaux. Ce changement permit la sédentarisation, la construction de cité et l’élaboration de structure sociétale plus complexe. Cette deuxième révolution, appelée révolution agricole, engendra une explosion de la population.
Et enfin la troisième révolution eut lieu il y a 500 ans principalement en Europe avec la révolution scientifique. Elle a permis à Homo Sapiens de comprendre de plus en plus les lois qui gouvernent le monde autour de lui, mais également à l’intérieur. Cette compréhension fut la clé permettant la maîtrise de certaines forces de la nature, l’utilisation de nouvelles sources d’énergie et l’exploitation de la puissance des machines. Elle permit la révolution industrielle au 18e siècle qui engendra également une explosion de la population grâce notamment aux progrès de la médecine et à l’agriculture de masse.
Mais si on se projette dans un siècle ou deux, notre époque sera peut-être perçue comme le début de la quatrième grande révolution. Une sorte de deuxième révolution cognitive où l’intelligence d’Homo Sapiens sera décuplée par un facteur si grand que cela pourrait bien déboucher sur la naissance d’une nouvelle espèce. La quatrième révolution sera la révolution de l’intelligence artificielle. L’ultime révolution.
Mais commençons par un peu d’histoire …
Des philosophes antiques aux auteurs de science fiction
Le terme “Intelligence artificielle” serait apparu officiellement en 1956 lors d’une conférence dans le New Hampshire aux États unis. Mais le concept d’une machine ou objet capable de raisonnement et de pensée complexe remonte bien plus loin dans l’Histoire de l’humanité. C’est notamment à travers les anciens mythes que l’on trouve le plus de récits illustrant cette notion. Comme avec le mythe de Talos : un automate géant fait de bronze ayant pour but de protéger Europe, mère du Roi de Crète. La statue de Pygmalion qui prend vie ou encore dans la mythologie juive, avec le Golem, humanoïde fait d’argile qui se voit insuffler la vie afin de défendre son créateur. C’est à croire que l’idée de créer la vie et d’élaborer une copie de nous même est profondément ancrée dans la psyché humaine.
Mais les philosophes de nombreuses civilisations se sont intéressés à l’idée de comprendre la pensée humaine par une approche mécanisée, ce qui implique la possibilité de la reproduire. C’est le début de la logique et du raisonnement. Au 4e siècle av. J.-C., Aristote invente un système de raisonnement logique appelé “Syllogisme”. C’est important, car la programmation informatique est un prolongement de l’approche mathématique de la logique. Le syllogisme fonctionne en mettant en relation trois propositions afin d’en déduire un résultat. Un exemple très connu : “Tous les hommes sont mortels, or Socrate est un homme donc Socrate est mortel”.
Le mathématicien et astronome Arable Al-Khwarizmi’s fonda la discipline de l’algèbre et donna son nom au terme “Algorithme” au 9e siècle apr. J.-C.. Le philosophe espagnol Roman Llull est considéré comme un pionnier du calcul informatique par le système de classification qu’il a inventé.
Au 17e siècle, plusieurs philosophes explorent la possibilité que la pensée puisse être expliqué par un ensemble d’opérations algorithmiques ce qui fait de l’être humain et les animaux, ni plus ni moins que des machines complexes. C’est le cas avec Leibniz qui a spéculé que la raison humaine pourrait être réduite à un calcul mécanique et à qui on doit la première utilisation d’un système binaire. Mais aussi Renée Descartes et Hobbes avec sa célèbre citation :
“reason is nothing but reckoning”
Que je traduis par : « La raison n’est rien d’autre que du calcul mathématique”.
Au 18e siècle, les jouets mécaniques sont très populaires. En 1769, l’ingénieur hongrois Baron Wolfgang von Kempelen construisit une machine à jouer aux échecs pour amuser la reine autrichienne Maria Theresia. C’était un appareil mécanique, appelé le Turc (car ressemblant à un homme turc traditionnel de l’époque). C’est un des automates les plus célèbres de l’histoire, mais qui était en réalité un canular bien ficelé. Toutefois, cela montre la fascination de construire des machines capables de s’adonner à des activités intellectuelles comme les échecs.
En 1818, Marry Sheley publie l’une des premières histoires de science-fiction, “Le monstre de Frankenstein”, qui raconte l’histoire d’une créature conçue de toute pièce. Cette dernière prend vie et devient folle, se rebellant contre son créateur. Une thématique reprise de nombreuses fois par la suite, surtout dans le domaine de l’intelligence artificielle, robots et machines.
Au 20e siècle, l’étude de la logique mathématique a fourni la percée essentielle qui a rendu l’intelligence artificielle plausible. Les acteurs majeurs étant Bertrand Russell et Alfred North Whitehead avec l’ouvrage “Principia Mathematica” en 1913. La première machine fonctionnelle capable de jouer aux échecs remonte à 1912 avec l’invention de “Ajedrecista” par Leonardo Torres. Le terme “robot” est utilisé pour la première fois dans une pièce de théâtre à Londres en 1923, écrit par Karel Capek (1890 – 1938).
Alors bien sûr, l’histoire de l’intelligence artificielle côtoie étroitement celle de l’informatique. Le 20e siècle peut donc surement être considéré comme le siècle qui a vu naître cette discipline. Toutefois, il ne faut pas oublier que des machines à calculer ont été construites depuis l’Antiquité et améliorées à travers l’histoire par de nombreux mathématiciens. Le mécanisme d’Anticythère est le premier « ordinateur » analogique et mécanique, datant d’au moins 2000 ans. Charles Babbage et Ada Lovelace sont souvent considérés comme les premiers pionniers de l’informatique au début du 19e siècle. Ils ont développé les plans pour un ordinateur analogue appelé la machine analytique. Ada Lovelace formula pour la première fois la notion de programme. Mais la machine analytique ne fut fabriquée qu’après leur mort.
On fait un saut dans le temps pour assister à la naissance de l’informatique moderne avec un nom qui ressort en particulier : Alan Turing. En 1936, Alan Turing et Alonzo Church publient la thèse de Church-Turing, une hypothèse sur la nature des dispositifs de calcul mécanique. La thèse soutient que tout calcul possible peut être effectué par un algorithme exécuté sur un ordinateur, à condition que suffisamment de temps et d’espace de stockage soient disponibles. Les premiers ordinateurs modernes furent les machines destinées à déchiffrer des codes nazis durant la Seconde Guerre mondiale (ENIAC et Colossus). Un des premiers ordinateurs programmables est attribué à l’ingénieur allemand Konrad Zuse en 1941 avec le Z3.
Le concept de machine pensante se répand dans les années 40 et 50 avec des personnalités comme John Von Neumann, Norbert Wiener et Claude Shannon. En 1950, Alan Turing stipule dans une publication que si une machine peut tenir une conversation (sur un téléscripteur) qui est indiscernable d’une conversation avec un être humain, il est raisonnable de dire que la machine “pense”. C’est ainsi que naît le célèbre test de Turing. On note aussi en 1950 la première apparition des célèbres trois lois de la robotique par l’auteur de science-fiction, Isaac Asimov.
- Loi 1 : Un robot ne peut porter atteinte à un être humain ni, en restant passif, permettre qu’un être humain soit exposé au danger.
- Loi 2 : Un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi.
- Loi 3 : Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi.
- Une 4e loi, vue comme la loi 0, sera ajoutée dans la nouvelle “Les Robots et l’Empire” en 1985 :
Loi 0 : Un robot ne peut ni nuire à l’humanité ni, restant passif, permettre que l’humanité souffre.
Le concept moderne
Mais c’est en 1956, lors de la conférence de Dartmouth, aux États unis, que l’on peut mettre une date précise sur la naissance du domaine de recherche intitulé : “Intelligence artificielle”. L’idée maîtresse de la conférence c’est que chaque aspect de l’apprentissage ou toute autre caractéristique de l’intelligence peut être décrit avec une telle précision qu’une machine peut être conçue pour la simuler. Et beaucoup de chercheurs appartenant à la première vague de recherche en IA étaient plutôt optimistes. Certains pensaient à la fin des années 50 que d’ici 10 ans, le champion du monde des échecs serait un ordinateur. Ou encore cette affirmation par Marvin Minsky en 1970 :
“D’ici trois à huit ans, nous aurons une machine avec l’intelligence générale d’un être humain moyen.”
Cet optimisme ne dura pas puisque le domaine de l’intelligence artificielle connut un premier ralentissement de 1974 à 1985. Beaucoup de chercheurs avaient sous-estimé les difficultés et les limites technologiques de l’époque. Mais des notions intéressantes furent étudiées comme l’apprentissage automatique, le fameux machine learning ou les réseaux de neurones artificiels avec le Perceptron (Neural network et deep learning). Deux techniques utilisés aujourd’hui, mais on y reviendra.
L’histoire moderne de l’intelligence artificielle est une sorte de va-et-vient entre enthousiasme et déception. Entre progrès, et glaciation. Étant majoritairement financés par les gouvernements à cette époque, notamment aux États unis par le DARPA (ministère de la Défense), les chercheurs étaient donc dépendant des subventions et si les progrès n’étaient pas assez rapides aux goûts des politiciens, il était très difficile de trouver les financements pour un projet impliquant l’intelligence artificielle. Ce qui a eu pour résultat d’engendrer trois grandes vagues de recherche. La première commença en 1956, la seconde dans les années 80, et nous sommes actuellement dans la troisième depuis la fin du 20e.
Dès le début des années 80, un nouveau type de programme appelé “Systèmes experts” permit un regain d’intérêt pour l’intelligence artificielle. Les systèmes experts sont conçus pour résoudre des problèmes complexes en raisonnant à travers des amas d’information, représentés principalement comme des règles “si-alors”. Les entreprises du monde entier ont commencé à développer et utiliser des systèmes experts et, en 1985, elles dépensaient plus d’un milliard de dollars dans l’intelligence artificielle. Dans le même temps, les différents projets informatiques japonais ont inspiré les gouvernements américain et britannique à rétablir le financement dans la recherche universitaire. Ce fut la deuxième vague de recherche en intelligence artificielle. Pourtant, dès le début des années 90, une nouvelle glaciation toucha le champ d’études de l’intelligence artificielle qui acquit une mauvaise réputation. Jugé irréaliste et donc une perte de temps.
Il faut attendre la fin des années 90 pour finalement voir l’intelligence artificielle sur le devant de la scène avec un événement majeur : La victoire d’un ordinateur face au champion du monde d’échecs, Garry Kasparov le 11 mai 1997. Deep blue était un superordinateur produit par IBM et capable de calculer jusqu’à 200 000 000 de coups par seconde. L’intelligence artificielle a commencé à être utilisé avec succès pour la logistique, l’exploration de données, le diagnostic médical, la robotique industrielle, la reconnaissance vocale, le moteur de recherche de Google et d’autres domaines. En grande partie grâce à une puissance de calcul croissante suivant la loi de Moore, qui est l’observation que le nombre de transistors dans un circuit intégré double environ tous les deux ans pour un coût constant de $1000. Le prix baisse pour une plus grande puissance de calcul. Cette troisième vague de recherche est toujours d’actualité et ne semble pas être menacée par une nouvelle glaciation. Nous sommes désormais à un stade où les technologies ont prouvé concrètement qu’elles sont efficaces et utiles, ce qui encourage les investissements dans ce domaine.
Le nom “Agent intelligent” se répandit pour parler d’un système qui perçoit son environnement et prend des mesures afin de maximiser ses chances de succès. Selon cette définition, les programmes simples qui résolvent des problèmes spécifiques sont des « agents intelligents ». Le début du 21e siècle voit de nombreux problèmes résolus grâce aux algorithmes de l’intelligence artificielle. Pourtant, ce champ d’études ne reçoit pas tous les crédits qu’ils méritent. Toutes les innovations dans le domaine de l’intelligence artificielle sont réduites au statut de gadget de l’informatique.
L’idée de pouvoir créer une intelligence artificielle ayant le niveau d’intelligence humain divisait toujours autant la communauté de chercheurs. Il y avait peu d’accord sur les raisons pour lesquelles nous n’avions pas réussi à réaliser le rêve qui avait captivé l’imagination du monde dans les années 1960. De nombreux chercheurs en IA ont délibérément appelé leur recherche par d’autres noms, tels que systèmes cognitifs ou intelligence computationnelle. En partie pour éviter d’être perçu comme des rêveurs, mais aussi, car les nouveaux noms aidaient à obtenir des financements.
Il faut également mentionner que le terme IA a souvent été associé à la science-fiction, notamment au cinéma avec plusieurs succès planétaires (2001 l’odyssée de l’espace, Terminator, Matrix). Le public avait donc une image exagérément fausse du domaine avec cette idée que les machines vont se rebeller dès qu’elles seront intelligentes. Du coup, certains chercheurs préféraient tout simplement éviter le terme.
Au fil du début du 21e siècle et l’explosion d’Internet, l’accès à de grandes quantités de données ont permis des avancées majeures dans l’intelligence artificielle. En 2011, Watson, conçu par IBM, remporte le Jeopardy, un jeu de question/réponse télévisé, face à deux des meilleurs candidats de l’époque. IBM souhaite que Watson soit utilisé pour diagnostiquer des maladies. En mars 2016, le programme AlphaGo, développé par Google DeepMind, remporte 4 des 5 parties du jeu de Go dans un match avec un champion du domaine, Lee Sedol. Cela marque l’achèvement d’une étape importante dans le développement de l’intelligence artificielle. Go étant un jeu extrêmement complexe, bien plus que les échecs puisque chaque tour place le joueur face à des centaines de millions de combinaisons.
En 2016, le marché des produits, matériels et logiciels liés à l’IA a atteint plus de 8 milliards de dollars. Le Machine learning et le deep learning ont montré leur force dans la fabrication de système capable de rivaliser avec l’être humain dans de nombreux domaines incluant la conduite de véhicule, la reconnaissance d’image, et le langage. Google, Apple, Microsoft, Facebook, Amazon et les plus grandes entreprises de la Silicon Valley ont toutes misé sur l’intelligence artificielle en les mettant au coeur de leurs futures ambitions.
Une chose est sûre, l’intelligence artificielle fera partie intégrante du futur de l’humanité. Dans la suite de cette série, nous verrons les implications que cela représente pour le monde de demain.