Prédire l’avenir avec l’intelligence artificielle : Bientôt une réalité ?

Tout public
FULL HD
Vlog / Podcast • 14 minutes
Essayez The Flares en illimité : 0€

Imaginez un monde où des systèmes d’intelligence artificielle sont si avancés qu’ils peuvent prédire certains aspects de l’avenir avec une précision stupéfiante. De l’analyse des tendances économiques à la prévision des catastrophes naturelles, en passant par la compréhension des dynamiques sociales, de la santé et du crime.

Nous allons explorer les progrès récents en matière d’intelligence artificielle prédictive. Quels sont les défis techniques et éthiques posés par une telle avancée ? Voyons s’il sera possible de créer “La machine à prédire le futur”.

Nous sommes en 2048, une unité de police utilise un système d’intelligence artificielle prédictive pour anticiper les crimes. L’efficacité du système est indéniable. Les statistiques de criminalité ont chuté de manière spectaculaire depuis son introduction. Les rues sont plus sûres, et les citoyens semblent plus confiants. Dans les bureaux ultramodernes de Pre-crime, des analystes scrutent les données en continu, tandis que des algorithmes complexes analysent des quantités massives d’informations pour identifier les potentiels criminels. Ces individus sont ensuite surveillés de près, et si le système prévoit avec une certitude suffisante qu’un crime sera commis, l’unité d’intervention entre en action.

Mais que signifie être arrêté pour un crime que l’on n’a pas encore commis ? Les défenseurs des droits de l’homme s’élèvent contre ce qu’ils considèrent comme une violation fondamentale des principes de justice. “On ne peut être coupable d’une intention”, clament-ils, mettant en lumière les nombreux cas où le système a pu mal interpréter les intentions d’une personne.

Les responsables de Pre-crime, quant à eux, soutiennent que leur système est infaillible, s’appuyant sur l’intelligence artificielle pour éliminer les biais et erreurs humains. Ils mettent en avant le nombre de vies sauvées et de crimes évités, soulignant que le sacrifice de quelques libertés individuelles est un prix raisonnable à payer pour la sécurité et le bien-être collectifs.

Au cœur de ce débat, une question demeure sans réponse : À quel point peut-on prédire l’avenir avec les données du passé ?

Bon, effectivement, ça n’aura échappé à personne, mais l’idée de Precrime est la prémisse de Minority Report, écrit par Philip K. Dick. Sauf que dans cette histoire de science-fiction, ce n’est pas une machine ou de l’intelligence artificielle, mais des Precog. Des sortes de mutants ayant la capacité de prémonition. L’œuvre soulève des questions éthiques complexes sur la liberté et le déterminisme, interrogeant le spectateur sur la légitimité d’agir sur des crimes encore pas commis. Au cœur de l’intrigue, il y a aussi une exploration des limites de ce système, où même dans un monde hautement prédéterminé, il est possible d’induire des erreurs pour ceux qui savent comment fonctionne cette technologie.

On reviendra au cas de figure de la police, mais faisons déjà un tour d’horizon de ce qui existe déjà.

L’IA peut-elle prédire l’avenir ?

Évidement, lorsqu’on parle de prédire le futur, on n’imagine pas une IA capable de voyager dans le temps, observer le futur, et revenir nous dire ce qu’elle a vu. Il s’agit plutôt d’identifier des modèles, des tendances et des corrélations parmi des montagnes de donnés qui peuvent être utilisées pour créer des prédictions plus précises par des algorithmes sophistiqués. Bien supérieur à ce que peuvent faire les humains.

Des technologies similaires pour prédire le comportement humain sont déjà utilisées aujourd’hui au sein d’entreprises qui, par exemple, suivent notre comportement sur les réseaux sociaux, établissent un profil extrêmement précis et utilisent ces profils pour prédire notre comportement et nous influencer. On peut se poser la question : À quel point leur modèle prédictif sera correct avec encore plus de puissance de calcul, encore plus d’IA, et encore plus de données ? Est-ce qu’on est vraiment si prévisible que ça ?

On peut déjà se rendre compte que la révolution des LLM, ces grands modèles de langage comme GPT 4 sont basés sur leur capacité à prédire avec précision le prochain mot. Ils sont donc dans une logique de prédire statistiquement ce qui vient après, basé sur tout ce qu’ils ont ingéré pendant leur entrainement. C’est fondamentalement ce dont nous allons parler.

Google DeepMind a révolutionné les prévisions météorologiques avec GraphCast, qui se distingue par sa capacité à fournir des prévisions météorologiques à moyen terme très précises, en utilisant seulement une fraction de la puissance de calcul nécessaire pour les modèles actuels. Cette avancée est remarquable, car elle intègre des décennies de données météorologiques, offrant ainsi une prévision plus précise dans 99,7 % des cas.

Des chercheurs de l’Université d’Oxford ont développé une intelligence artificielle capable de prédire les risques d’infarctus jusqu’à dix ans à l’avance.

On trouve aussi le modèle life2vec qui utilise une architecture similaire à GPT-4. Il a été entraîné avec les données de santé et de marché du travail de 6 millions de personnes. Il a montré une capacité de prédiction impressionnante, prévoyant des éléments tels que les traits de personnalité et même l’heure exacte du décès. Ce modèle analyse des “séquences de vie” en structurant les informations sur des aspects tels que la naissance, l’éducation, le revenu, le logement et la santé. Il a également révélé des corrélations entre des facteurs comme le rôle de leadership, les revenus élevés, ainsi que des risques accrus de mortalité associés à différents facteurs. Ce qui soulève de sérieuses questions éthiques. Si une IA est capable d’estimer à 99% la date de votre décès, est-il judicieux de le savoir ? Est-ce que ça ne sera pas abusé par les assurances ? Quand est-il d’autre modèle prédictif capable de savoir avec précision quel sera votre choix dans une situation donné. Par exemple, à 18h dans un restaurant le lundi soir, vous choisirez A plutôt que B. Ou si vous êtes stressé et en manque de sommeil, vous ferez ci ou ça. On voit bien le problème d’atteinte à la vie privée que ça pourrait causer. Sans parler de la crise existentielle, de se dire que nous sommes hyper déterminée par des causes qui nous échappent. Autrement dit, le libre arbitre n’existe pas. Au passage, je vous recommande la série Devs.
Ah, je suis aussi tombé sur des modèles qui sont spécifiquement conçus pour les marchés de prédictions tel que Metaculus. L’un qui m’a paru particulièrement pertinent, c’est Future Search, une IA conçue pour prédire des événements géopolitique. Vous lui posez une question basée sur l’actualité, FUTURESEARCH identifie les meilleurs analogues historiques pour chaque scénario, étudie leurs résultats et les intègre dans des modèles statistiques. Il lit des actualités, des analyses de l’industrie, des rapports gouvernementaux et des sources en langues étrangères. Il compile les faits et les tendances les plus instructifs sur la probabilité de votre scénario puis il simule le futur en produisant des probabilités sur les résultats des événements géopolitiques avec plus de précision que la plupart des prévisionnistes humains.

Pour revenir à la prévention des crimes, un article scientifique de 2022 a identifié 64 techniques différentes de machine learning pour la prédiction de la criminalité. Et cela fait bien 15 ans que la police s’intéresse au pouvoir prédictif de l’informatique pour anticiper où des crimes pourraient se produire dans leur juridiction. D’autant plus que les progrès en IA apportent une nouvelle dimension à la police prédictive. À l’Université de Chicago, un nouvel algorithme prévoit la criminalité avec une précision de 90%. Il isole, en particulier, violence, homicide, vol de voitures, infractions, en examinant les coordonnées temporelles et spatiales d’événements et en détectant des tendances. Il divise la ville en tuiles d’environ 300 mètres de diamètre et prédit la criminalité dans ces zones, au lieu de s’appuyer sur les quartiers traditionnels. Le modèle a tout aussi bien fonctionné avec les données de sept autres villes américaines : Atlanta, Austin, Detroit, Los Angeles, Philadelphie, Portland et San Francisco.

Mais les algorithmes sont aussi bons que la qualité des données qu’ils contiennent, ce qui pose un problème, particulièrement aux États-Unis. Historiquement, les données de la police américaine sont biaisées. Les policiers sont plus susceptibles d’arrêter ou d’accuser quelqu’un d’un crime dans les quartiers défavorisé, car c’est là où les policiers passent la majorité de leur temps. Cela signifie que la plupart des données sur les activités criminelles sur-représentent les personnes des quartiers à faible revenu. Une fois ces données ingérées dans un algorithme, ce dernier suggère que davantage d’activités criminelles se déroulent dans ces zones, créant ainsi une boucle de rétroaction qui ne reflète pas nécessairement la réalité de là où se trouvent les crimes, mais plus une sorte de distorsion. Après tout, si je ne vais jamais voir ce qu’il se passe dans le quartier Y, comment est ce que je peux savoir s’il y a beaucoup de crimes non reportés. Après, on ne peut pas non plus nier que certains quartiers défavorisés sont vraiment là où il y a le plus de crime, et il est donc raisonnable que la police y patrouille davantage.

L’IA est également utilisée pour prédire les risques de récidive par le système judiciaire, notamment pour décider des libérations conditionnelles. Ce qui a eu des effets positifs en minimisant l’éventuelle récidive de la criminalité. Un des systèmes les plus connus est COMPAS. Cependant, la question demeure de savoir si les acteurs du système de justice pénale peuvent faire confiance aux systèmes d’IA en matière d’égalité, de transparence, de protection de la vie privée, de biais et de responsabilité lorsqu’ils prédisent le risque possible de récidive des personnes condamnées. En 2016, une enquête a découvert des disparités raciales dans la décision prédictive du système COMPAS, avec des taux de faux positifs près de deux fois plus élevés pour les délinquants noirs que pour les délinquants blancs.

Le moins qu’on puisse dire, c’est que c’est compliqué. Et si on n’utilise pas l’IA, on se remet à l’intuition d’un juge ou d’autres décisionnaires qui sont probablement autant, si ce n’est plus susceptible de faire des erreurs biaisées.

Le concept derrière “Minority Report” n’est donc pas si éloigné de devenir réalité. Seulement, cela ne se fera pas avec des mutants. Il est d’ailleurs intéressant de noter que l’auteur, Philip K. Dick, se soit tourné vers des “Precogs” plutôt que vers l’intelligence artificielle. Cela dit, sa nouvelle date de 1956, une époque où le développement des ordinateurs en était encore à ses balbutiements. Mais déjà présente dans la science-fiction quand même. Après tout, le superordinateur MULTIVAC d’Isaac Asimov est apparu pour la première fois en 1955.

Un risque d’accident catastrophique

Tout cela m’amène à me demander si ce concept ne pourrait pas mener à une catastrophe existentielle. Imaginer une super intelligence Artificielle dont la tâche est de modéliser l’avenir avec précision. Cette Super IA conclut que le meilleur moyen d’y parvenir est d’obtenir un contrôle total sur un maximum d’éléments. La logique est simple : prédire l’avenir d’un système est plus facile quand on détient toutes les données le concernant. Cela renvoie à l’expérience de pensée du démon de Laplace proposée en 1814 par le mathématicien et astronome français Pierre-Simon de Laplace dans le contexte de la mécanique classique newtonienne. À cette époque, la compréhension de l’univers en tant que système mécanique régi par des lois immuables et prévisibles était prédominante. Laplace suggérait qu’une entité hypothétique, un “démon”, pourrait, si il connaissait la position et la vitesse de chaque atome dans l’univers à un moment donné, calculer l’ensemble de l’histoire passée et future de l’univers.

Avec l’avènement de la mécanique quantique au début du 20ᵉ siècle, la vision déterministe de l’univers a été sérieusement remise en question. La mécanique quantique, avec son principe d’incertitude d’Heisenberg, suggère qu’il est impossible de connaître simultanément avec précision la position et la vitesse d’une particule. Cela rend le concept d’un univers entièrement prédictible, tel que proposé par le Démon de Laplace, pratiquement impossible selon les lois actuelles de la physique.

Ça n’empêche qu’une IA suffisamment puissante pourrait tenter de limiter au maximum son incertitude sur le futur en prenant contrôle d’un grand nombre de choses. Ou alors, en réduisant la complexité sur la planète. Cette IA pourrait se dire qu’elle pourra plus facilement prédire le futur, si elle le fabrique. Elle mettra alors en œuvre d’énorme projet d’ingénierie ou autre et ce n’est pas sûr qu’on soit de la partie.

Bref, c’est un peu caricatural, mais il y a une graine d’idée intéressante pour une œuvre de SF, non ?

La Psycho-histoire possible un jour ?

La psycho-histoire est un concept fictif popularisé par l’écrivain de science-fiction Isaac Asimov dans sa série de romans “Fondation”. Bien que ce ne soit pas une discipline scientifique réelle, elle offre une vision fascinante et imaginative de la façon dont la science et la technologie pourrait un jour être utilisée pour prédire l’avenir de grandes populations humaines. Elle s’appuie sur l’idée que, bien que les actions individuelles soient imprévisibles, les actions de grands groupes peuvent être modélisées et prévues avec une grande précision. Comme la chute d’une civilisation.

Certaines disciplines s’en approchent par leurs méthodes et objectifs. Par exemple, la sociologie quantitative, l’économétrie et certains aspects de la science des données cherchent à comprendre et prédire les tendances sociales à l’aide de modèles mathématiques et statistiques.

Donc peut-être que, contrairement à la saga Fondation, ce ne seraient pas des mathématiciens, mais des IA qui feraient de la psycho-histoire dans un futur pas si lointain. En utilisant ce dont nous avons parlé dans cette vidéo, à une échelle bien plus vaste.

La question est : dans quelle mesure le passé influence-t-il réellement l’avenir ? Et dans quelle mesure les événements sont-ils spontanés ou véritablement aléatoires ?

Il faut garder à l’esprit que le futur contiendra des cygnes noirs. Un concept popularisé par Nassim Taleb. Un “cygne noir” désigne un événement qui remplit trois critères spécifiques :

  • Imprévisibilité : L’événement est une surprise totale pour la majorité des observateurs et n’était pas prévu dans les modèles ou prévisions standards.
  • Impact Considérable : L’événement a des conséquences majeures et souvent globales.
  • Rationalisation a posteriori : Après l’événement, les gens vont tenter de le rendre explicable et prévisible, malgré son caractère imprévisible initial.

Quelques exemples dans l’Histoire : La peste noire, la première guerre mondiale, les attentats du 11 septembre.

Nous pourrions donc dire que l’intelligence artificielle ne peut pas prédire l’avenir, mais elle peut le pronostiquer. En anglais, le terme correspondant serait “forecast”, un peu à la manière d’un pari sportif. Je connais mon équipe, je suis au fait de ses forces et de ses faiblesses, ainsi que de sa forme actuelle, etc. J’utiliserai donc ces données pour faire un pronostic sur le prochain match, en gardant à l’esprit qu’il existe une part d’incertitude. Je ne me dis pas que je vais prédire le résultat du match comme le ferait un voyant.

Bref, que pensez-vous de cette idée ? Est-ce que nous verrons, un jour, des IA si puissantes qu’elles peuvent pronostiquer le futur avec une grande probabilité ?

Rate this post
[contenus_similaires]

Rate this post