Une pause plutôt qu’une course sur la route vers l’IA Générale

Tout public
FULL HD
Vlog / Podcast • 17 minutes
Essayez The Flares en illimité : 0€

Sommes-nous vraiment à deux doigts de la plus grande transformation de l’histoire humaine, ou est-ce juste une décennie comme les autres ? Si c’est le cas, avons-nous des raisons de croire que cette transition vers un nouveau monde se passera sans accroc ? Peut-être qu’il serait sage de mettre les freins, au lieu de foncer tête baissée comme des kamikazes. Prendre un moment pour respirer, se retourner, et vérifier si ce à quoi nous donnons naissance ne va pas, disons, nous remplacer au premier moment venu. Et il faudrait faire ça assez rapidement, car le temps presse, et la fenêtre d’opportunité se referme très vite.

On va explorer les arguments de ceux qui prônent une pause dans le développement de l’intelligence artificielle et pourquoi la situation est urgente.

L’IA est arrivée

Cette vidéo a été créée à l’initiative de Pause IA, une organisation qui a pour objectif d’informer le grand public sur les risques de l’intelligence artificielle.

Jusqu’à récemment, l’intelligence artificielle était confinée aux échecs, aux jeux de go, et à quelques tâches limitées. Mais ces cinq à dix dernières années, les progrès en IA ont pris un virage qui donne sérieusement le tournis. L’arrivée de ChatGPT fin 2022 a littéralement mis le mot “IA” sur toutes les lèvres. Ce n’est plus de la science-fiction, ni un passe-temps de geeks, mais une technologie aux mains de centaines de millions d’utilisateurs. Aujourd’hui, des entreprises comme OpenAI, Anthropic, Google, ceux qui tirent les ficelles derrière les modèles les plus généraux, sont dans une course effrénée pour créer des IA toujours plus puissantes. Leur mission ? Atteindre le fameux stade de l’IA générale et, pourquoi pas, de super IA. Un système artificiel aussi compétent que vous et moi, qui nous dépasserait bien vite sur le terrain des capacités cognitives.

Beaucoup sont déjà en train de déboucher le champagne à l’idée d’être si proches de la singularité. Ils trépignent d’impatience à l’idée de récolter les fruits de cette incroyable technologie. Et des promesses, il y en a à la pelle. Tous les secteurs vont être bouleversés : l’énergie, la médecine, la robotique, l’espace, les transports. Le futur de Star Trek semble presque à portée de main.

Alors, pourquoi vouloir mettre une pause dans le développement de l’IA ? Ne serait-ce pas comme retarder l’avènement d’un monde meilleur ?

Maxime Fournes, fondateur de la branche française de Pause AI :

PauseAI à la base, c’est un mouvement qui a été créé aux Pays-Bas, c’est un mouvement international. Le but, c’est vraiment de sensibiliser les gens aux dangers de l’IA et d’arriver à faire évoluer le discours.

Ce n’est pas comme si nous étions dogmatiquement contre l’IA. Ce n’est pas un simple rejet de l’intelligence artificielle. Ce que nous proposons, c’est de faire une pause dans le développement des modèles qui présentent le plus de dangers potentiels, en particulier les modèles de type GPT, comme GPT-5, GPT-6, et les futures versions. Nous devrions arrêter de les développer pour l’instant et renforcer la recherche sur ce qu’on appelle l’alignement des intelligences artificielles, qui vise à comprendre et à contrôler les IA avancées.

C’est là, je pense, le point central. Le grand public n’est pas vraiment conscient du fait que nous ne comprenons pas et ne contrôlons pas les modèles que nous sommes en train de créer. Les gens pensent que ces IA sont simplement des logiciels normaux, comme ceux qu’ils ont l’habitude d’utiliser, qui suivent des instructions. Mais en réalité, nous parlons de développer de véritables cerveaux artificiels géants, qui apprennent de manière autonome et deviennent de plus en plus competents, sans que nous soyons capables de prédire dans quelle direction cette puissance va évoluer.

La route vers l’utopie IA est parsemée d’embûches, et au fond, tout ça, c’est quand même assez intuitif ! Posez-vous la question : Est-il raisonnable de penser qu’on puisse facilement contrôler un système bien plus capable et intelligent ?

Si notre espèce a atteint le sommet de la chaîne alimentaire, au point de se détacher presque totalement du processus évolutionnaire darwinien, ce n’est pas parce qu’on était plus rapides ou plus costauds. L’intelligence est l’une des forces les plus puissantes de l’univers. Et disons-le franchement, ce n’est pas toujours une bonne nouvelle pour les autres espèces. Allez faire un tour dans une ferme intensive, et vous verrez de quoi je parle.

Il n’est donc pas surprenant que cette course effrénée pour concevoir une nouvelle forme d’intelligence, supérieure à la nôtre dans tous les sens du terme, invite à quelques grattements de tête. Surtout si ces systèmes possèdent une grande autonomie.

Mais de quel type de risque parle-t-on, exactement ?

Les risques des systèmes à usage général

Maxime Fournes : On part sur un monde où l’humain n’est plus en contrôle. En fait, c’est juste ce système qui décide tout et ces systèmes vont être complètement opaques vu que de toute façon, ils sont plus intelligents que nous. Ce qui veut dire par définition qu’on ne comprend pas ce qu’ils font. Et à partir de ce moment-là, peu importe ce qui se passe, c’est plus nous qui décidons de l’avenir de l’humanité, c’est ce sont ces systèmes. Donc, on a intérêt à ce qu’ils soient extrêmement bien alignés avec l’humanité, et ça, pour le moment, on ne sait pas faire. Et ce n’est pas du tout le scénario par défaut.

Sur la trajectoire qui nous mènerait à un tel système, nous allons déjà rencontrer des systèmes de plus en plus compétents dans de nombreuses tâches spécifiques, ce qui pose déjà des dangers très concrets. Par exemple, il est possible que GPT-5, qui sortira l’année prochaine, soit déjà meilleur que n’importe quel humain en termes de programmation et de piratage informatique. Cela signifie que, globalement, nous aurions inventé une arme de destruction massive virtuelle.

C’est un problème extrêmement grave. La personne qui aurait ce système entre ses mains disposerait soudainement d’une puissance stratégique incontestable sur le reste du monde. Voilà un exemple de danger concret. Et il y en a bien d’autres, tous assez distincts les uns des autres. Même si ce système ne devient pas surhumain en cyberattaques, il pourrait devenir surhumain dans la création de virus.

Aujourd’hui, nous avons déjà la capacité de synthétiser un virus à partir de son ADN. La question devient alors : comment définir l’ADN d’un virus vraiment mortel pour les humains ? Beaucoup d’experts pensent que c’est C’est probablement un domaine où les IA vont devenir très fortes, très vite. Nous risquons donc de voir apparaître bientôt la recette d’un virus capable d’anéantir l’humanité.

Reconnaissant la puissance des IA, les laboratoires et les États se lancent dans une course effrénée pour être les premiers à déployer ces technologies, souvent en sacrifiant la sécurité sur l’autel de la vitesse. C’est un scénario classique de course à l’armement ou à l’innovation économique : foncer d’abord, réfléchir ensuite. Le hic, c’est que ces risques pourraient survenir bien avant même d’atteindre ce stade hypothétique de super IA générale. Et évidemment, plus on pousse les compétences, plus les conséquences pourraient être cataclysmiques. Oui, on parle bien de scénarios d’extinction de l’humanité. Et ce ne sont pas juste quelques technophobes nostalgiques des luddistes qui le disent. Yoshua Bengio et Geoffrey Hinton, considéré comme des pères fondateurs de l’IA et ayant reçu l’équivalent du prix Nobel en informatique, ont publiquement admis leurs inquiétudes sur les scenarios les plus catastrophiques.

Même les experts en sécurité de l’IA considèrent qu’une extinction provoquée par l’intelligence artificielle n’est pas une hypothèse à écarter, estimant sa probabilité médiane à 30%. Certes, l’incertitude règne, mais l’incertitude sur le fait de savoir si on va tous y passer ou non me semble être une raison suffisante pour prôner la prudence.

D’où l’idée de faire une pause dans le développement de systèmes plus puissants que ceux que nous avons déjà, et de rediriger la recherche vers plus de sécurité, plutôt que plus de capacités.

IA Générale, non merci

Maxime Fournes : De mon point de vue, si nous parvenons à obtenir cette pause internationale, ce serait déjà une première étape. Il y a bien sûr l’idée de faire de la recherche sur l’alignement des intelligences artificielles, tout en sachant qu’il est possible que cela ne fonctionne pas. Peut-être est-il fondamentalement impossible pour un être d’une certaine intelligence de véritablement aligner un être d’une intelligence supérieure.

Nous devons découvrir si c’est le cas, et le plus rapidement possible. Mais je pense qu’il y a aussi un énorme travail d’éducation à faire. Le problème principal en ce moment, à mon sens, est avant tout un problème de coordination humaine. Le fait est que beaucoup de gens ne comprennent pas vraiment ce que sont ces intelligences artificielles ni les dangers qu’elles représentent.

Donc, une fois que nous aurons mis en place cette pause, il sera crucial d’éduquer chaque personne sur cette planète pour éviter que des individus continuent à mener leurs recherches dans leur coin et à essayer de créer ces systèmes. Si nous voulons survivre à plus long terme, nous devons faire en sorte de bloquer complètement le développement de ces systèmes apocalyptiques, au moins jusqu’à ce que la recherche sur l’alignement ait progressé.

Plutôt que de créer des IA capables de tout faire, pourquoi ne pas orienter la recherche vers des IA extrêmement puissantes mais limitées à des domaines spécifiques ? Imaginez une IA dédiée exclusivement à la fusion nucléaire, à l’oncologie, ou à d’autres domaines où son impact pourrait véritablement transformer le monde. En concentrant les efforts sur ces niches, nous pourrions maximiser les bénéfices de l’IA tout en minimisant les dangers inhérents aux modèles à usage général.

Les oppositions à une pause

Évidemment, la proposition de faire une pause dans le développement de l’IA ne manque pas de susciter des objections, surtout parmi les poids lourds du secteur. Et ce qui est amusant, c’est que beaucoup ont demandé publiquement à être régulé, ce qui en dit long sur la situation. Imaginez des pyromanes demandant plus de pompiers, tout en continuant de jouer avec des allumettes.

Maxime Fournes : Un argument que l’on entend toujours, c’est que “ce n’est pas possible”. Pour moi, ce n’est pas vraiment un argument contre une pause, c’est plutôt du défaitisme. C’est un peu comme une prophétie auto-réalisatrice : plus on y croit, plus ça devient réalité. Je pense que ce n’est pas vrai, que c’est possible. Il y a de fortes chances que les gens finissent par ouvrir les yeux sur ce qui se passe en intelligence artificielle, et dans ce cas, la situation pourrait se débloquer complètement. Un traité international pourrait alors devenir tout à fait envisageable.

Un autre argument porte sur les bénéfices potentiels de l’IA. Là, on entre dans une question de probabilités. Est-ce qu’on est suffisamment confiants pour estimer qu’il y a vraiment plus de chances d’atteindre une utopie que de provoquer l’extinction humaine ? Personnellement, je ne suis pas d’accord. Je pense que le scénario par défaut est loin d’être bon pour nous. Et ensuite, est-ce qu’on est prêts à prendre autant de risques, avec chaque humain sur cette planète, sans leur demander leur avis ?

Un autre argument contre la pause, c’est que même si on la met en place, on n’aura pas de mécanisme pour l’imposer, et la recherche pourrait devenir illégale. Des acteurs malhonnêtes pourraient continuer en secret. C’est peut-être l’argument le plus robuste contre la pause. Cependant, dans le monde actuel, il est difficilement envisageable pour des acteurs malhonnêtes de faire cela en toute discrétion. À partir du moment où les États-Unis et la Chine, par exemple, décident ensemble d’arrêter la recherche, il serait compliqué pour des acteurs privés de poursuivre sans être détectés.

Cela dit, malheureusement, dans cinq ou six ans, ce risque pourrait devenir réel. Si on arrête maintenant et qu’on continue la recherche fondamentale, on devra encore une fois aborder ce problème. Mais pour l’instant, l’urgence, c’est de mettre en place cette pause.

On se rend compte que nous sommes à un moment crucial. Aujourd’hui, seules les entités avec des ressources énergétiques et computationnelles colossales peuvent entraîner la prochaine génération de modèles. Cela rend l’idée d’une pause plus réaliste à imposer et à surveiller, tant que la barre reste aussi haute. D’autant plus que la chaîne de production des IA dépend de cartes graphiques spécialisées, qui ne sortent pas des usines comme des petits pains. Ces cartes sont elles-mêmes dépendantes de technologies de photolithographie avancée hyper spécialisées à Taïwan et aux Pays-Bas. La demande dépasse l’offre, imposant ainsi une limite qu’il est possible de contrôler… pour l’instant.

Maxime Fournes : En 2020, un article de recherche est paru, intitulé “Les lois d’échelle“, qui montrait qu’il existe une corrélation très, très forte entre la puissance de calcul et les capacités des modèles que l’on entraîne. Depuis 2020, cela a été confirmé. À chaque fois que l’on entraîne un cerveau artificiel plus gros, le véritable défi est de rassembler suffisamment de processeurs d’intelligence artificielle, en l’occurrence des cartes graphiques dédiées à ce genre de calculs, de les installer en nombre suffisant dans un grand centre de données, et ensuite de faire tourner le modèle pendant des mois.

Cela coûte des centaines de millions de dollars, car ces opérations consomment des quantités astronomiques d’électricité, nécessitent de l’eau pour le refroidissement, etc. Pour l’instant, il n’y a pas beaucoup d’acteurs sur cette planète capables de réaliser cela. Seuls les grands laboratoires d’IA ont cette capacité.

Nous sommes donc encore dans une période où, si l’on interdisait l’entraînement de ces systèmes, cela pourrait être efficace pendant encore, je dirais, au moins cinq ans, avant que des gens puissent entraîner de tels modèles chez eux.
Mais le jour où la barre pour créer des IA puissantes sera abaissée, les vannes seront grandes ouvertes, et obtenir des régulations internationales sera comme essayer d’attraper de l’eau avec une passoire.

Depuis la sortie de GPT-4, les instances internationales commencent à réaliser les risques liés aux IA à usage général. Lors du sommet sur l’IA à Londres en juin 2024, des chercheurs ont signé une lettre ouverte, alertant que l’IA représente une menace existentielle pour l’humanité, comparable aux pandémies et aux guerres nucléaires.

La France est aveugle aux risques de l’IA

Et la France dans tout ça ? Eh bien, elle s’est fait capturer par les lobbies des géants de la tech. En particulier par un certain chef de l’IA chez Facebook (Meta), qui murmure à l’oreille des politiciens français et parcourt les médias pour affirmer que les risques de l’IA sont un délire de technophobes apocalyptiques.

Comme on dit, “Il est difficile de faire comprendre quelque chose à un homme si cet homme a un intérêt personnel à ne pas comprendre cette chose, surtout quand son salaire en dépend.”

Aussi brillant que soit Yann LeCun, il ne va probablement pas déclarer que tout le travail de sa vie est en train de créer une arme de destruction massive potentiellement plus dangereuse qu’une bombe thermonucléaire.

Maxime Fournes : En France, qu’est-ce qui se passe ? Il y a une commission sur l’IA qui a produit un rapport en mars, censé définir les grandes lignes de la stratégie française en matière d’intelligence artificielle. Mais ce rapport, en gros, affirme qu’il n’y a aucun risque, qu’il faut globalement investir dans l’IA pour éviter que la France soit à la traîne, et il ridiculise même les dangers les plus sérieux.
Ce rapport est vraiment décevant, même en termes d’argumentation. Il est assez difficile à lire, et la qualité de l’argumentation semble être celle d’un élève de terminale. La section intitulée “Faut-il avoir peur de l’IA ?” fait deux pages. Elle commence par le mot “non”, et il n’est même pas nécessaire de lire la suite, car il n’y a aucun argument développé. Une page entière est consacrée à une analogie avec l’électricité : en gros, ils disent que, au début du XXᵉ siècle, les gens avaient peur de l’électricité, mais finalement, tout s’est bien passé, donc ceux qui ont peur de l’IA ont tort.

Ce n’est pas un argument valable, il n’y a rien de substantiel. Nous, de notre côté, sommes en train de rédiger une contre-expertise que nous finalisons en ce moment. Nous allons essayer de la faire signer par autant d’experts que possible. En septembre, nous organisons une conférence de presse à Paris, ouverte à tous. Si vous regardez ceci et que vous souhaitez y participer, n’hésitez pas. Nous y présenterons nos conclusions et mettrons en lumière ce qui se passe en France. Nous avons également analysé les conflits d’intérêts des membres de cette commission. Sur une commission de treize personnes, dix sont des représentants de l’industrie, dont quatre des entreprises qui créent ces modèles et qui n’ont évidemment aucune envie d’être régulées.

Si vous voulez creuser un peu plus le sujet, vous pouvez écouter ma conversation complète avec Maxime Fournes sur le podcast La Prospective. Le lien est dans la description.

Maxime Fournes : Si vous êtes sceptique, essayez tout de même de vous faire une opinion, car c’est un problème important. Même si vous doutez des dangers existentiels, rien qu’en termes de perte d’emploi, cela vaut la peine de se pencher sur la question et de réfléchir à ce qui va se passer pour l’emploi. On parle de systèmes qui, par définition, ont pour vocation d’automatiser 100 % du travail humain. Selon certains des meilleurs chercheurs dans ce domaine, cela pourrait arriver d’ici trois ans.

Si vous voulez planifier votre carrière, il est crucial de s’informer. La prochaine étape de déni, c’est le défaitisme, se dire : “Ah, on est foutus, on ne peut rien faire de toute façon.” Si possible, essayez de traverser rapidement cette phase. Rejoignez-nous, il y a encore de l’espoir. En gros, on peut changer les choses, on peut avoir un impact immense. La situation est en fait beaucoup plus simple que celle du réchauffement climatique.

Pause IA fait des manifestations, des vidéos courtes sur les réseaux sociaux, des collaborations avec les médias et des pétitions. Elle vient de créer un blog alimenté chaque semaine d’articles gratuits pour découvrir les risques de l’intelligence artificielle.

Pour y accéder et vous y abonner gratuitement, vous avez juste à cliquer sur le premier lien en description et à entrer votre adresse email. Vous recevrez alors un email lors de la publication d’articles importants qui vous permettront de comprendre ce qu’il se passe actuellement dans l’IA et comment agir à son échelle pour empêcher le pire.

Le format est super pédagogique, accessible à tous et vous permettra d’y voir plus clair sur ce que l’on vit en ce moment.

Vous pouvez rejoindre ce blog en cliquant ici.

Rate this post
[contenus_similaires]

Qui est derrière ce contenu ?
  • Auteurs
  • Realisation
  • Commentaire voix off
  • Montage image
Sources et références
Rate this post