Quels sont les progrès de l’intelligence artificielle ?

partie 3/9 de la série Intelligence artificielle – L’ultime révolution
Tout public
FULL HD
Documentaire • 29 minutes
Découvrez la série complète : 10,90€ Essayez The Flares en illimité : 0€
Intelligence artificielle – L’ultime révolution
  • partie 01
  • partie 02
  • partie 03
  • partie 04
  • partie 05
  • partie 06
  • partie 07
  • partie 08
  • partie 09

Beaucoup de personnes ne considèrent encore pas que les ordinateurs peuvent être meilleur qu’eux. Notre expérience quotidienne renforce l’idée que nous sommes les maîtres à bord, et que l’informatique n’est là que pour nous aider. Mais si on réfléchit bien, il existe un très grand nombre de tâches où une intelligence artificielle est déjà bien meilleure. Par exemple, ma calculatrice a largement plus de capacité en arithmétique que mon cerveau. Deep Blue s’est révélé être meilleur que le champion du monde d’échecs en 1997. Il s’agit bien d’intelligence artificielle puisque ces systèmes ont des objectifs complexes qu’ils arrivent à accomplir. Par contre, leurs capacités à atteindre les performances désirées viennent de la programmation de leurs algorithmes. En d’autres termes, une calculatrice possède un code informatique fixe, conçu par un informaticien humain, qui s’exécute sur un support matériel permettant plus ou moins de calcul. Si le support matériel, comme le processeur, est performant, la vitesse de calcul sera supérieure et l’agent intelligent pourra accomplir une tâche plus complexe.

Le critère qui manque à une intelligence artificielle pour accomplir des objectifs complexes sur des systèmes “infinis” c’est l’apprentissage. Mais depuis le début de 21e siècle et grâce aux machine learning et aux deep learning, nous avons désormais une technique d’analyse de données qui donne aux ordinateurs la possibilité de faire ce qui est naturel pour les humains et les animaux : apprendre de son expérience. Ce qui est la clé pour passer au niveau supérieur et s’aventurer sur la route en direction de l’intelligence artificielle générale.

Les améliorations exponentielles dans la mémoire et la puissance de calcul informatique se sont traduite en progrès spectaculaire dans le domaine de l’intelligence artificielle. Mais il a fallu beaucoup de temps avant que le machine learning arrive à maturité. D’une manière générale, les intelligences artificielles ont longtemps été cantonnées dans une catégorie où elles étaient très efficaces lorsque les règles étaient précises et limitées. Prenons l’exemple du rubik’s cube. Ce célèbre casse-tête a la réputation d’être relativement compliqué et le résoudre démontre une certaine preuve d’intelligence. Mais les règles sont précises, peu nombreuses et l’objectif est unique : avoir les six faces alignées par couleur. Depuis plusieurs années, de nombreuses équipes ont essayé de concevoir une machine capable de résoudre un rubik’s cube et forcément, avec la bonne dose de puissance de calcul et une vitesse d’exécution extrêmement rapide, une machine peut surpasser un humain. L’humain le plus rapide arrive à résoudre le puzzle en 4,59 secondes. En novembre 2016, ce record a été battu. Le robot “Sub1 reloaded” l’a fait en 0,63 seconde. En 2018, deux jeunes inventeurs ont fait même mieux en bricolant une machine capable de résoudre le Rubik’s cube en 0,38 seconde. Ce record ne pourra plus jamais être battu par un humain.

Quand Deep Blue d’IBM est devenu champion du monde d’échecs en battant Garry Kasparov en 1997, ses principaux avantages résidaient dans la mémoire et le calcul, mais pas dans l’apprentissage. Son intelligence artificielle a été créée de toute pièce par une équipe d’êtres humains, et la raison principale pour laquelle Deep Blue pouvait dépasser ses créateurs était sa capacité à calculer plus rapidement et donc analyser plus de positions potentielles à chaque tour. Quand le superordinateur d’IBM, Watson, a détrôné le champion du monde dans le jeu télévisé Jeopardy, ce n’était pas grâce à un système d’apprentissage. Mais bien une question de compétences programmées sur mesure, une mémoire supérieure et une vitesse d’exécution surhumaine. On peut dire la même chose de la plupart des avancées du 20e siècle en intelligence artificielle et robotiques.

Mais au 21e siècle, les percées se font bien plus grâce aux progrès dans le machine learning que grâce à une puissance de calcul élevée (même si ce dernier point joue toujours un rôle important).

Reconnaissance visuelle :

Afin de rendre une machine capable de comprendre le monde qui l’entoure, la technologie a été inspirée par la biologie. 80% des informations permettant aux humains de localiser leur espace et d’interagir avec leur univers passent par leurs yeux. Il a toujours été difficile pour un ordinateur de comprendre une image. C’est trivial pour un enfant de 4 ans, mais expliquer à un programme que les différents groupes de pixels colorés sur une image représentent, par exemple une montagne enneigée, est un problème qui a retenu l’attention des chercheurs depuis la création de la discipline de l’intelligence artificielle. En d’autres termes, les ordinateurs n’ont jamais été capables de voir, de lire, ni d’entendre correctement. En 2004, le chercheur Jeff Hawkins déclara :

“Aucun ordinateur n’est capable de voir aussi bien qu’une souris”.

Enfin, c’était vrai jusqu’à très récemment. Cela fait environ 5 ans que des percées majeures améliorent la reconnaissance visuelle des intelligences artificielles.

En 2011, une équipe de chercheurs de l’université de Stanford a construit le logiciel de reconnaissance d’images le plus efficace au monde à l’époque. Ce programme analysait un lot d’environ 50 000 images, et devait les classer dans 10 catégories, comme : “chiens”, “chevaux” ou encore “camions”. Il donna des réponses correctes environ 80% du temps. Sachant que des humains passant le test obtenaient un score moyen de 94%. À la suite de ce test, un étudiant de Stanford affirma qu’il serait difficile pour un ordinateur de faire mieux que 80% et qu’à la limite, il est envisageable de viser 85%, mais il faudra encore attendre longtemps avant d’obtenir un résultat égal à celui d’un humain. L’avenir ne lui donna pas raison puisqu’en 2014, une équipe de Google a conçu une intelligence artificielle capable d’écrire une courte description d’une image présentée. Le test appelé ImageNet est comparable à celui de l’université de Stanford, bien que plus compliqué. Des humains ont obtenu en moyenne 85%. Le programme de Google : 93,4%.

Le constat est là : Les humains battaient facilement les logiciels de reconnaissance d’image en 2011. Trois ans plus tard, ce n’était plus le cas. Vous pouvez tester par vous même avec capionbot de Microsoft qui analyse le contenu d’une image que vous lui avez fourni (https://www.captionbot.ai/)

Microsoft a également mis au point un algorithme qui fait l’inverse en quelque sorte. C’est-à-dire qu’à partir de mots clés comme “oiseau”, “Jaune”, “Noir”, l’intelligence artificielle génère une image.

Microsoft appelle simplement cette nouvelle technologie “Drawing bot”. Il peut générer des images d’animaux, des paysages, et même des choses bizarres comme des voitures volantes. Ce qui est le plus intéressante sur cette technologie c’est que les images générées ne sont peut-être même pas “Réel”. L’oiseau créé sur cette image pourrait ne pas exister – il n’est qu’un rendu de ce qu’un oiseau jaune et noir est pour “l’imagination” de l’IA.

Donner des yeux à une intelligence artificielle permet des progrès dans de nombreux domaines. Les plus spectaculaires peuvent être observés dans la voiture autonome. Car ces technologies sont utilisées pour la détection des obstacles et la reconnaissance des panneaux, feux tricolores, voitures, piétons et autres. Les images proviennent d’une panoplie de caméras disposées autour de la voiture, et l’entraînement deep learning sur des millions d’heures de conduite a permis aux algorithmes une reconnaissance visuelle fiable.

Nous trouvons les algorithmes de reconnaissance d’image utilisés pour l’authentification d’un individu. L’iPhone X est un exemple notable grâce à la reconnaissance faciale en 3D. En matière de surveillance et de sécurité intérieure, la reconnaissance faciale est utilisée dans les contrôles aux frontières et dans la production de documents d’identité grâce à l’utilisation de caméras spécialisées. La reconnaissance d’Iris est également en net progrès avec une probable utilisation dans des applications mobiles.

La reconnaissance visuelle donne à une intelligence artificielle la capacité de générer des créations artistiques. En nourrissant une IA avec des milliers d’oeuvre d’Art, le système est capable d’apprendre les styles artistiques des plus grands maîtres comme Picasso, Van Gogh ou Rembrandt. Ensuite, si on lui donne une photo quelconque, il est capable d’appliquer le style d’un artiste pour que la photo ait l’air d’avoir été peinte avec le style choisi. Cette technique s’appelle “Transfert de style”. Ce qui suggère que d’une certaine façon, l’intelligence artificielle a “compris” le style artistique d’un peintre par intuition visuelle. Chose qui était complètement farfelue à imaginer il y a seulement vingt ans. La créativité et l’art sont des mots qui ne sont généralement pas souvent utilisés dans le domaine de l’intelligence artificielle. Du coup, ces programmes servent également aux musées et galeries d’art pour classer rapidement des oeuvres voire même identifier avec certitude si une peinture est un original ou une copie.

Au lieu de chercher le modèle idéal pour une séance photo, les photographes du futur pourront en générer un en utilisant l’intelligence artificielle. En 2017, NVIDIA, constructeur de processeur graphique, a publié un article décrivant des algorithmes capables de générer des “photos” artificielles qui semblent aussi réelles que la photo d’un humain.

Pour son projet,

Il vous reste 74% de ce contenu à découvrir...
Encore 74% de ce contenu à découvrir...
Découvrez la série complète : 10,90€ Essayez The Flares en illimité : 0€
Déjà abonné(e) ? Connectez-vous
Logo The Flares
[contenus_similaires]

Rate this post