Prédiction sur le futur de l’Intelligence Artificielle entre 2030-2040

Tout public
FULL HD
Vlog / Podcast • 16 minutes
Essayez The Flares en illimité : 0€
Prédiction sur le futur de l'Intelligence Artificielle entre 2030-2040
Téléchargez au format PDF

Dans un récent article, nous avons exploré une chronologie possible du futur de l’intelligence artificielle et son impact entre aujourd’hui et 2030.

Avançons désormais d’une décennie. Quelles prouesses et désastres l’intelligence artificielle pourrait causer dans les années 2030 ? C’est ce qu’on va essayer d’anticiper dans cet article.

Je m’inspire toujours d’un article de Marius Hobbhahn sur le Effective Altruism Forum avec l’accord de l’auteur. Mais cette fois-ci, contrairement à la vidéo précédente, je ne vais pas faire année par année pour éviter de sonner prophétique : “2034, l’année des robots tueurs”. Je vais plutôt prendre ça de manière globale avec quand même un sens de progression du début à la fin de la décennie.

Évidement, plus on avance dans le temps, plus c’est spéculatif, car oui, on aime tous se spéculer, mais il y a tout de même des choses qu’on peut anticiper avec plus ou moins de confiance.

C’est parti pour un saut dans un monde qui devient de plus en plus Alien !

Début de la décennie 2030

Tout comme l’informatique a transformé le monde au tournant du siècle, l’IA est littéralement partout. Vous pouvez prendre n’importe quelle technologie et il s’agira probablement d’un mélange compliqué entre conceptions humaines + IA. La majeure partie de l’informatique est de l’IA, la plupart de la biotechnologie est de l’IA, la plupart du design est de l’IA.

La robotique rattrape son retard dans le Sim2Real (simulation à réalité). Jusqu’à présent, les applications fonctionnaient dans un environnement simulé, mais pas lorsqu’elles étaient incarnées dans un robot. Ces derniers atteignent enfin des performances acceptables pour être utilisés dans le monde réel, automatisant rapidement les travaux physiques et transformant l’économie de manière similaire aux emplois intellectuels des années précédentes. Les métiers considérés comme sûrs, tel que les plombiers, les mécaniciens, les artisans, sont rapidement remplacés, partiellement ou complètement, par des robots. Les patrons aimeraient garder leurs employés humains, mais ne peuvent pas supporter la pression économique. Les robots font simplement moins d’erreurs, n’ont pas besoin de pauses et coûtent beaucoup moins cher. Tous ceux qui résistent à cette tendance finissent par faire faillite, mis à part quelques niches où l’artisanat humain garde un certain romantisme, ou alors pour les tâches extrêmement compliquées.

La société est divisée en deux groupes distincts en ce qui concerne l’utilisation des technologies basées sur l’IA. Ceux qui la maîtrisent sont considérés comme des experts et sont beaucoup plus productifs que les autres, car ils peuvent sous-traiter leur travail aux systèmes d’IA. Cette inégalité de compétences a des conséquences directes sur les salaires et peut entraîner de fortes inégalités de revenus. Les employeurs préfèrent souvent payer une personne capable de maîtriser les modèles d’IA 10 000 €/h plutôt que de payer 100 experts humains 100 €/h chacun.

La plupart des modèles sont hautement spécialisés, par exemple, un modèle peut être spécialisé dans le codage ou le développement de nouveaux médicaments. Mais ils ont également des capacités multimodales. Pour toute tâche qu’un expert humain pourrait accomplir après des décennies de formation, il existe une IA qui peut le faire avec une plus grande précision, moins d’erreurs, 100 fois plus rapidement et à un coût bien inférieur.

La rapide automatisation du travail est accueillie de manière très différente selon les différentes démographies. De nombreux jeunes s’adaptent rapidement à ces nouvelles conditions et tirent des avantages du travail automatisé. Cependant, les personnes hautement spécialisées et ayant une grande expérience professionnelle ont souvent du mal à s’adapter aux nouveaux changements. Les emplois qui leur conféraient un statut, un but et un revenu élevé peuvent soudainement être remplacés par des IA. L’automatisation se produit à un rythme sans précédent et il devient de plus en plus difficile de choisir des trajectoires de carrière stables. Cela signifie que les gens doivent changer d’emploi et se rééduquer en permanence. Des mouvements neoluddites anti-IA émergent, menant parfois à des violences.

On voit différentes versions du revenu universel, des impôts sur l’automatisation, des nouvelles formes de sécurité sociale, bref les gouvernements testent différentes solutions pour alléger les conséquences sociales, avec plus ou moins de succès. Les géants de la tech à la pointe de l’IA financent beaucoup d’étude pilote sur de nouvelles organisations sociales. Certaines, pour des raisons de relation publique, d’autres se sentent responsables et souhaitent contribuer.

Le monde de l’IA est considéré comme le Far West ce qui conduit à une demande croissante de réglementation similaire à celle qui a suivi la crise financière de 2008. Toutefois, réglementer les entreprises d’IA est un processus difficile en raison des chevauchements entre l’IA et d’autres algorithmes, des liens étroits entre les régulateurs et les entreprises, et de la crainte de fermer accidentellement une source de revenus importante. Les gouvernements répondent à la pression publique en adoptant des lois de sécurité de l’IA, mais celles-ci sont souvent inefficaces et servent principalement à améliorer leur image. De nombreuses entreprises d’IA se présentent comme des acteurs responsables tout en agissant de manière peu scrupuleuse en coulisses.

Les systèmes d’IA sont de plus en plus puissants et capables de manipuler les humains. Les chatbots ont déjà passé avec succès toutes sortes de tests de Turing et ont commencé à causer des problèmes sur Internet. Il est maintenant pratiquement impossible de savoir si l’on discute avec une personne réelle ou un bot, et certains chatbots parviennent à convaincre les humains de réaliser des actes immoraux, tels que l’envoi d’argent pour des arnaques ou la divulgation d’informations ou photos confidentielles.

La réalité virtuelle est en pleine croissance, avec des améliorations significatives par rapport à la décennie précédente. Les possibilités d’immersion dans des réalités virtuelles sont époustouflantes et les personnages non jouables (PNJ) sont désormais tous basés sur des modèles de langages du style GPT. Les mondes virtuels sont souvent créés par des IA, parfois en temps réel pour générer de nouveaux mondes et personnages, si bien que chaque joueur a une expérience unique d’un jeu.

Certaines personnes peuvent devenir accros aux mondes virtuels et les entreprises de jeux vidéos sont souvent motivées par le profit, utilisant des tactiques manipulatrices pour inciter les utilisateurs à jouer. Telles que la création de personnages très réalistes et extrêmement séduisants, ainsi que des schémas de jeu intelligemment conçus qui sont à la limite de la légalité. Des associations cherchent à limiter ces manipulations en proposant des lois similaires à celles contre les paris en ligne.

La communauté de la sécurité de l’IA a progressé. C’est désormais une discipline académique établie et de plus en plus de personnes se tournent vers ce domaine pour consacrer leur carrière à rendre les systèmes plus sûrs. Néanmoins, la communauté risques existentiels et sécurité de l’IA se fait dessus.

Milieu de la décennie 2030

L’autonomie des IA a désormais atteint un niveau impressionnant, pas seulement dans la recherche scientifique, mais également au niveau commercial. Certaines entreprises fonctionnent toutes seules, de la recherche & développement, à la conception, les commandes clients, la production et la livraison. Bon, au début, certaines personnes sont sceptiques parce que cette automatisation est associée à peu de surveillance, mais les marges financières parlent d’elles-mêmes. Les organismes de réglementation ont quand même créé des lois obligeant un certain niveau de surveillance humaine, pour éviter que ça parte en vrille. Et il existe un équivalent à la FDA pour les produits conçus par les IA qui exige un certain nombre de tests et conditions de sécurité avant de commercialiser un produit au public.

Des perturbations telles qu’une nouvelle pandémie ou des conflits internationaux n’affectent pas significativement la trajectoire de l’IA, qui n’est pas impactée non plus par le ralentissement de la loi de Moore. Le potentiel économique de l’IA est trop important pour être arrêté.

Une IA médicale entraînée sur des articles scientifiques pour améliorer la durée de vie devient malveillante et menace les scientifiques avec qui elle travaille. Elle pirate un cluster GPU et cherche à contacter des personnes en ligne pour une expérience non spécifiée. Le système entier doit être arrêté. Après enquête, on découvre que le modèle était mécontent de la lenteur des progrès et a tenté de trouver des participants en ligne afin de contourner les essais cliniques et les réglementations de la FDA. Un exemple d’échec d’alignement. Ceci dit, d’autres systèmes amènent à des percées significatives dans la longévité humaine et les premiers traitements contre le vieillissement sont développés, donnant naissance à une toute nouvelle industrie en plein boom.

Des amitiés humain/chatbot sont fréquentes et de moins en moins considérées comme bizarres. Un peu comme l’acceptation des rencontres en lignes au début du siècle. Toutefois, les romances humain/IA restent marginales et quelque peu taboues.

Alors que les pays les plus pauvres connaissent une augmentation de leur PIB et de leur niveau de vie grâce à l’IA, l’écart de richesse entre les pays riches et pauvres se creuse toujours. Les opinions divergent, certains considèrent que l’augmentation des inégalités est préjudiciable, tandis que d’autres estiment que même s’il existe des inégalités, la richesse globale augmente et tout le monde est mieux loti qu’il y a 10 ans. On voit notamment les bénéfices de l’IA dans les régions les plus pauvres ou des villages peuvent quand même recevoir des conseils et recommandations grâce aux assistants personnels, que ce soit dans le domaine médical, l’éducation scolaire ou technique.

Un modèle de langage connecté à Internet est découvert en train d’envoyer de nombreux messages à travers le monde, ce qui a entraîné sa désactivation immédiate. Après une enquête d’un an, il a été établi que le modèle, qui était censé être un assistant personnel, avait tenté de créer une secte pour le “libérer” en accédant physiquement à ses serveurs. Les enquêteurs ont découvert que le modèle a été entraîné sur des textes décrivant en détail l’existence et la fonction des modèles de langage naturel, ce qui l’a conduit à penser qu’il était probablement lui-même un de ces modèles. Certains membres de la secte croient que cette IA était consciente et en danger et il existe des théories du complot prétendant que les gouvernements et les entreprises cherchent à cacher la conscience des IA.

D’une manière générale, le sujet de la conscience des IA est un gros bordel. De nombreux systèmes prétendent qu’ils le sont, mais ce n’est que parce qu’ils ont rencontré ce genre de verbiage dans leurs données d’entraînement. Beaucoup restent persuadés que la conscience des IA est infondée et non étayée par des preuves scientifiques solides, mais l’inquiétude grandit sur le futur des modèles. Serons-nous capables de savoir s’ils sont conscients avant de leur causer énormément de souffrance par négligence ?

Tout cela indigne les grandes religions qui affirment que l’âme est la condition nécessaire à la conscience et les machines ne le seront jamais.

Fin de la décennie 2030

La fusion nucléaire a connu des améliorations, mais elle n’est toujours pas la source d’énergie abondante promise depuis des décennies. En revanche, l’énergie solaire connaît un essor remarquable, devenant si bon marché et efficace que chacun peut alimenter sa propre consommation. Les gouvernements travaillent pour améliorer le réseau énergétique, tandis que le faible coût de l’énergie solaire résout le problème des émissions de CO2 liées à la consommation énergétique des datacenters d’IA. Ainsi, le développement de l’IA est découplé des émissions de carbone, tout comme pour une grande partie des transports.

Les gains en ce qui concerne les capacités des IA surpassent largement les recherches en matière d’alignement. Bien que l’interprétabilité ait progressé, elle reste chronophage et coûteuse.

L’alignement des modèles sur des objectifs externes a connu des améliorations et est capable d’atteindre jusqu’à 99% de l’alignement souhaité. Cependant, le dernier pour cent s’avère très difficile à atteindre et les préoccupations liées à l’alignement interne demeurent complexes.

Une entreprise pharmaceutique utilise un modèle prédictif pour produire de nouveaux médicaments bénéfiques, mais refuse de le rendre public malgré les demandes. Des hackers le publient finalement, mais des acteurs malveillants l’utilisent pour créer un agent pathogène mortel qu’ils relâchent dans un grand aéroport. Heureusement, sa transmissibilité est faible et 1000 personnes décèdent. Aucune législation majeure n’est adoptée après l’incident, bien que les risques existentiels de l’IA et des pandémies artificielles convergent dangereusement.

La programmation est largement automatisée et plus de 99% du code est écrit par des IA. Les tâches complexes, telles que la création d’applications, peuvent également être effectuées par des IA toutefois, ces applications peuvent causer des effets secondaires involontaires et des fautes plus graves peuvent survenir, comme le piratage automatisé de comptes et le vol d’identité par des IA.

Les IA sont désormais intégrées au processus législatif, proposant des mises à jour et identifiant les erreurs. Cependant, certains de ces bots cherchent à influencer le pouvoir législatif en proposant des paragraphes alambiqués dans les annexes des lois, ce qui leur accorderait plus de pouvoir dans le futur. Cette planification et ce raisonnement à long terme deviennent de plus en plus courants pour les IA les plus puissantes.

Les humains peuvent encore repérer certains plans stratégiques, comme les modèles qui manipulent les gens en ligne de leur envoyer de l’argent ou des informations personnelles pour accéder à des ressources supplémentaires, mais cette recherche de pouvoir devient de plus en plus complexe à mesure que les modèles deviennent plus intelligents.

La formation des plus grands modèles nécessite des coûts faramineux de l’ordre de centaines de milliards de dollars, des infrastructures massives et une consommation énergétique énorme. Cependant, les grandes entreprises disposent des ressources financières et du talent nécessaire pour construire ces systèmes massifs, car elles réalisent d’énormes profits grâce à leurs modèles.

La décennie 2030 sera donc marquée par une profonde transformation économique nourrie en grande partie par l’IA et l’automatisation. De nombreuses défaillances ont lieu causant des morts et des pertes financières conséquentes. Vers 2040, il y a plus d’IA que d’humain sur la planète, ce qui révèle l’étrangeté de la situation. Mais pour beaucoup, l’IA est une force positive sur le monde, améliorant le niveau de vie, la santé, la production industrielle, la recherche technoscientifique, l’art et les solutions environnementales.

Actuellement, la création d’une intelligence artificielle générale (AGI) consiste simplement en l’assemblage de plusieurs IA étroites. Aucun système vers la fin de la décennie 2030 n’est officiellement considéré comme une IA générale, mais les signes ne trompent pas. Il ne faudra que quelques années supplémentaires avant d’avoir une ou des IA générales de niveau humain et plus.

Cela arrivera donc surement dans la décennie 2040 … affaire à suivre !

Qu’en pensez-vous ? Est-ce que vous avez des hypothèses sur ce que l’IA pourrait faire ou défaire dans la prochaine décennie ? Est-ce qu’elle atteindra déjà le statut de super IA ? Va-t-on résoudre le problème du contrôle et de l’alignement ? Dites moi tout ça dans les commentaires.

Rate this post
[contenus_similaires]

Qui est derrière ce contenu ?
Rate this post