Annonce publicitaire | En savoir plus... Vous ne souhaitez plus voir ces publicités ? Essayez gratuitement l'abonnement premium...

“Je ne crois que ce que je vois”. Cette expression associée à l’apôtre Saint Thomas dans les évangiles ne peut plus être respectée à la lettre aujourd’hui. Jour après jour, nous sommes assaillis par des images et des vidéos en tous genres. Tout ce contenu façonne nos croyances, nos convictions et la façon dont on pense. Il y a donc une nécessité capitale d’être sûr que ces images sont réelles. Mais depuis l’apparition de Photoshop, puis des logiciels de trucage vidéos, on ne peut plus simplement prendre la véracité de n’importe quelle image pour acquis. Étant un utilisateur de ses logiciels, je sais à quel point on peut modifier un image ou vidéo pour effacer un objet, ou ajouter quelque chose, remplacer le ciel nuageux par un ciel ensoleillé, etc. C’est une facette de mon métier en faite. Et je ne parle même pas de ce qu’il est possible de faire par les studios d’effets spéciaux responsable des trucages des blockbusters hollywoodiens. Mais il faut apprendre à utiliser ces techniques, ce qui n’est pas à la portée de tout le monde.

Ça, c’était avant, car les récents progrès dans le domaine de l’intelligence artificielle brouillent encore plus la frontière entre ce qui est réel et ce qui est truqué, et permet à n’importe qui équipée d’un ordinateur ou smartphone, de manipuler du contenu visuel.

Alors déjà, commençons par faire un petit tour d’horizon des différentes avancé qui permette à des systèmes artificiels de reconnaître et générer du contenu visuel et sonore.

Cela fait environ 5 ans que des percées majeures améliorent la reconnaissance visuelle des intelligences artificielles. En grande partie grâce au machine learning, qui est une technique d’analyse de données donnant aux ordinateurs la possibilité de faire ce qui est naturel pour les humains et les animaux : apprendre de leur expérience. Les algorithmes du machine learning utilisent des méthodes informatiques pour “apprendre” directement à partir de données sans s’appuyer sur un code prédéterminé lors de leur programmation. Ces algorithmes améliorent leurs performances de façon adaptative à mesure que le nombre d’échantillons disponibles pour l’apprentissage augmente.

La voix humaine, avec toute sa subtilité et ses nuances, se révèle être une chose extrêmement difficile à imiter pour une intelligence artificielle. Lorsque Siri, Alexa ou notre GPS communiquer avec nous, il est assez évident que c’est une machine qui parle. C’est parce que pratiquement tous les systèmes de synthèse vocale sur le marché reposent sur un ensemble préenregistré de mots, de phrases et d’énoncés (enregistrés à partir d’acteurs vocaux), qui sont ensuite liés pour produire des mots et des phrases complètes. Dans un effort pour donner un peu de vie aux voix automatisées, Lyrebird, une startup en Intelligence artificielle, ainsi que le géant de la technologie chinoise Baidu avec Deep Voice, ont développé des algorithmes qui peuvent imiter la voix de toute personne, et lire un texte avec une émotion ou une intonation prédéfinie. Il y a un an, la technologie nécessitait environ 30 minutes d’audio pour créer un clip audio artificiel. Maintenant, il peut créer de meilleurs résultats en trois secondes seulement. Ce qui veut dire que si je prends un extrait sonore d’une personne qui parle, je n’ai besoin que de 3 secondes pour que le logiciel puisse la synthétiser ! Ensuite, j’écris n’importe qu’elle texte, et la voix synthétiser le lira. C’est à la limite de la magie !

Une autre application résultant de toutes ses recherches c’est la capacité de créer des animations faciales à partir d’un discours sonore en temps réel. Non seulement l’algorithme prend comme source le fichier sonore d’une voix, mais il est en plus possible de lui donner des instructions sur l’état émotionnel que l’on souhaite pour l’expression faciale. Impressionnant !

Alors c’est une technologie qui à terme, sera utilisée pour le doublage. C’est-à-dire que pour un film américain par exemple, des algorithmes pourront synthétiser la voix, et elle sera utilisée pour les versions étrangères du film. Comme on peut le voir sur cette vidéo, même les lèvres bougent parfaitement en accord avec la voix, et ce dans plusieurs langues. Fini le métier de doubleur. Et on peut même se demander si les voix off des documentaires ou reportages finiront par être artificielles.

Ce qui nous amène à cette nouvelle technologie en provenance de l’Université de Washington, où les chercheurs ont créé un nouvel outil qui prend des fichiers audio, les convertit en mouvements de bouche réalistes, puis les greffe sur une vidéo existante. Le résultat final est une vidéo de quelqu’un disant quelque chose qu’il n’a pas dit.

Il existe également des techniques pour répliquer des mouvements du corps.

Maintenant que nous avons fait le tour des dernières avancées, il est temps de s’intéresser au phénomène des Deepfakes. Il s’agit d’une technique de synthèse d’image et audio générée par de l’intelligence artificielle et qui permet de superposer des parties de vidéos sur d’autres. Par exemple le visage d’un acteur, sur le corps d’un autre. Ou de faire dire n’importe quel texte à une personne. Le phénomène a commencé à l’automne 2017 lorsqu’un utilisateur anonyme du site Reddit sous le pseudonyme “Deepfakes” a posté plusieurs vidéos montrant des actrices célèbres comme Daisy Ridley, Gal Gadot, Emma Watson ou encore Scarlett Johansson s’adonner à des pratiques pornographiques. Le problème, c’est que ces vidéos étaient truqués. Ces actrices n’ont jamais participé à ces vidéos.

Depuis, tout un tas de vidéos deepfake sont apparu sur le net. On peut voir des acteurs dans des films dans lequel ils n’ont jamais joué par exemple, comme ici Nicolas Cage dans Indiana Jones, James Bond ou Titanic. Au final, les possibilités sont énormes et elles sont ouvertes à tous. De simples logiciels et applications suffisent pour obtenir des résultats impressionnants. Et c’est très difficile à détecter les vrais vidéos des fausses.

La technologie derrière le deepfake sera une très bonne chose pour l’éducation en apprenant avec les meilleurs professeurs de la planète. On pourra suivre un cours en ligne du MIT et de Harvard où la voix du professeur sera synthétisée et traduite en temps réel en français. Le jeu vidéo va surement utiliser ces techniques pour améliorer le rendu photo-réaliste des personnages virtuels. C’est également une très grosse réduction dans les budgets des films et il va devenir de plus en plus fréquent de voir des acteurs décédés être ressuscités pour les besoins d’un film. On l’a déjà vu avec Star Wars rogue one ou fast and furious 7 ou 8 ou 25 je sais plus. Attendez-vous à voir des duos d’acteurs impossibles comme Louis de Funès donnant la réplique à Jean Dujardin. Ainsi, un acteur ne finira plus jamais sa carrière, car même après sa mort, il sera en tête d’affiche.

Bon tout ça c’est bien beau, mais les dangers de ces technologies sont évidents ! Il ne faut pas être un génie pour comprendre que faire dire ce que l’on veut à quelqu’un peut avoir des conséquences très graves. Les risques potentiels sont extrêmement vastes et difficiles à contrecarrer. Et c’est déjà arrivé. En mai 2018, un deepfake de Donald Trump demandant aux citoyens belges d’abandonner l’accord de Paris sur le climat a été diffusé sur les réseaux sociaux. La vidéo a suscité une réaction polémique jusqu’à ce que le parti politique belge Socialistische Partij Anders reconnaisse qu’ils en étaient à l’origine. Les deepfake sont du pain bénis pour les partis politiques afin de manipuler et ’influencer les élections d’un côté ou d’un autre. Si vous faite dire au leader du parti politique opposé, que les nazis étaient des gens tout à fait respectables, que l’esclave devrait être rétabli et que la peine de mort est efficace, s’en sera fini pour lui ! Et dans les cas les plus graves, une vidéo deepfake pourrait résulter en un conflit ou une guerre si un leader politique se trouve à menacer un autre pays, etc. Il y a des tensions entre nations qu’il ne vaut mieux pas exacerber, mais certaines personnes pourraient volontairement chercher à provoquer des conflits pour des intérêts personnels.

Ou imaginer le scénario suivant : une vidéo de Donald Trump est publiée sur YouTube. Il annonce qu’il vient de lancer des missiles nucléaires en direction de la Russie. En moins d’une minute, la vidéo est virale sur tous les réseaux sociaux. 1 minute plus tard, les Russes lancent une attaque nucléaire contre les États unis. 30 secondes plus tard, la vidéo est révélée être fausse. Problèmes, les 10 plus grandes villes des États unis sont en ruines et la 3e guerre mondiale a commencé.

Les deepfakes pornographiques sont également lourds en conséquence. Les célébrités en sont souvent la cible, ce qui peut bien sûr noircir leur image. Si par exemple, une vidéo fait le buzz montrant un politicien ou un footballeur dans des actes pédophiles, même s’il dément fermement la véracité de la vidéo, le mal est fait et sa carrière sera peut-être terminée. Autrement dit, de très grosse injustice en perspective. Il existe carrément des gens qui sont payés pour créer du deepfake porno à la demande. Si le fantasme d’un type, c’est de voir son actrice préférée en plein milieu d’une partouze, il peut le commander en ligne !

Mais cela touche également les particuliers. En Australie, cette étudiante de 18 ans a commencé à voir circuler des vidéos pornos la concernant. Elle n’a aucune idée qui est derrière la création de ces vidéos. Un petit copain revanchard, une fille jalouse… du coup, elle a porté plainte, mais à l’époque, il n’y avait aucune loi contre ce genre de pratique. Depuis, elle a réussi à obtenir gain de cause et une loi a été créée pénalisant les deepfake sans consentement, en tous cas en Australie. Ce genre de pratique peut générer des rumeurs dans les couloirs des lycées et ruiner la vie de certaines personnes ! En France, une loi contre les fake news a été adoptée qui imposent aux plateformes numériques (Facebook, Twitter, etc.) des obligations de transparence lorsqu’elles diffusent des contenus contre rémunération et superviser par le Conseil supérieur de l’audiovisuel (CSA).

Certaines personnes sont contre ce type de loi, car cela pourrait être une atteinte à la liberté d’opinion. Ou carrément permettre à l’état de censurer des informations sous prétexte qu’elles sont truquées. On voit bien que cela pourrait donner un outil de propagande à l’État, ce qui est une menace pour la démocratie. Un politicien au coeur d’un scandale pourrait prétendre que c’est un deepfake qui est à l’origine de la polémique et qu’il n’y est pour rien.

Et la preuve par l’image dans un tribunal sera de plus en plus remise en question. Si je me fais accuser de meurtre, et qu’il existe une vidéo me montrant en train de commettre le crime … quelles sont mes chances de prouver mon innocence ! Les institutions judiciaires vont devoir adopter des réformes pour faire face à ces évolutions technologiques.

Alors quelles sont les solutions ? Sommes-nous condamnés à ne plus pouvoir faire confiance a quoi que ce soit, de devenir hyper cynique sur le monde et de se faire accuser de n’importe quoi preuve à l’appui ? Non, car généralement, lorsqu’une technologie est dangereuse, une autre arrive pour contrebalancer la menace. S’il existe des outils pour créer des contrefaçons, il existe également des outils pour détecter les contrefaçons.

Ainsi, des intelligences artificielles sont entraînées pour reconnaître des vidéos deepfake. Par exemple, il existe un algorithme capable d’analyser les variations du flot sanguin sur un visage. À chaque battement cardiaque, notre visage devient un peu plus rouge. C’est imperceptible à l’oeil nul, mais pas pour une IA. Donc si un visage a été superposé sur une autre vidéo pour créer un deepfake, le faux visage n’aura aucun battement cardiaque et l’IA signalera la vidéo comme étant truquée. Alors c’est évident que les créateurs des deepfake trouveront des solutions pour contourner ces algorithmes. Et de nouvelles méthodes de détection seront mises en place. Ce sera une course similaire à celle entre les pirates informatiques et les antivirus.

Bientôt, on aura surement un plug-in sur notre navigateur qui sera chargé de détecter les deepfake sur Facebook, YouTube et autres. Dès qu’on regardera une vidéo, une petite lumière verte nous indiquera que la vidéo est à 90% véridique. Et une rouge qu’elle est à 90% fausse.

Le but de cet épisode est avant tout de vous donner l’information que ces technologies existent. Gardez en tête que ce n’est pas parce que ça a l’air réaliste que c’est vrai. Et je vous demande d’avoir un regard très critique sur le contenu que vous voyez en ligne. Il faut se poser les bonnes questions. Si vous tombez sur une vidéo d’une célébrité ou un homme politique avouant quelque chose d’extrêmement déplacé ou polémique, votre cerveau doit se mettre en mode “doute”. Si nous ne sommes pas vigilants, nous risquons de nous faire manipuler à un point encore jamais vu dans l’histoire.

Référence :

https://www.theverge.com/2017/7/12/15957844/ai-fake-video-audio-speech-obama

https://petapixel.com/2017/11/07/ai-creates-photo-realistic-faces-people-dont-exist/

https://www.youtube.com/watch?v=Te0L5_u_wIg

https://www.gizmodo.com.au/2017/05/this-artificially-intelligent-speech-generator-can-fake-anyones-voice/

https://www.youtube.com/watch?v=UCwbJxW-ZRg

https://www.youtube.com/watch?v=dMF2i3A9Lzw

https://www.youtube.com/watch?v=XOxxPcy5Gr4

https://www.youtube.com/watch?v=GRQuRcpf5Gc

https://www.youtube.com/watch?time_continue=16&v=rAbhypxs1qQ

https://www.popularmechanics.com/technology/robots/a18726606/ai-algorithms-are-generating-videos-out-of-thin-air/

https://www.youtube.com/watch?v=ZtP3gl_2kBM

https://www.youtube.com/watch?time_continue=42&v=PhZpnDqNNmY

https://www.youtube.com/watch?v=Ex83dhTn0IU&list=WL&index=17

Notez ce contenu

Cet article a été écrit par :

 

Annonce publicitaire | En savoir plus... Vous ne souhaitez plus voir ces publicités ? Essayez gratuitement l'abonnement premium...
2 Commentaires
  1. Avatar
    Jean-Luc 5 mois Il y a

    Bonjour Gaetan,
    Très bon article, mais personnellement je pense que la crainte des “deepfakes” est un peu exagérée. Voici un autre scénario.
    D’abord, effectivement, il se produit une phase de “découverte” pendant laquelle cette technologie fait des dégâts : réputations brisées, fausses nouvelles virales déclenchant des polémiques, voire peut-être des guerres… Dans ce cas, prions pour que ça n’arrive pas !
    Mais avec le temps, c’est toute la notion de preuve qui est remise en question. L’accumulation des fakes fait que plus personne ne croit plus une vidéo ou un enregistrement audio ; les gens disent “c’est truqué”. Au début, des experts peuvent encore faire la différence, mais à un coût qui limite leurs interventions aux affaires à enjeux importants (politiques et financiers).
    Puis lorsque même eux ne peuvent plus distinguer avec certitude le faux du vrai, on en revient au bon vieux temps d’avant la technologie, quand il n’y avait pas de caméras ou de magnétophones, et qu’on devait tout démontrer “à l’ancienne”, avec des témoignages par exemple.
    En somme la technologie pourrait bien scier la branche sur laquelle elle est assise. Et notre meilleur défense reste notre esprit critique.
    Quant aux exemples que tu donnes dans le cinéma, si on peut faire revivre un acteur décédé, est-ce pour autant moral ? Aurait-il donné son accord ? Pour le cas Grand Moff Tarkin dans Star Wars Rogue One, les héritiers de Peter Cushing avaient assuré que oui – peut-être avec l’aide d’une liasse de billets verts. Mais ça ne sera pas toujours le cas. Les vivants ont un droit à l’image, pourquoi pas les morts ?
    A bientôt.

    • Avatar
      bernabull 5 mois Il y a

      Jean-Luc: Ô combien votre remarque me semble optimiste.
      quand on ne pourra plus “distinguer avec certitude le faux du vrai”: les deux se vaudront largement. Les “preuves” ne seront qu’une ‘opinion” comme une autre et le complotisme a de beaux jours devant lui.
      D’ailleurs, on trouve aujourd’hui sur le net des gens qui donnent des extraits de films comme preuves de la terre plate ou autres invasions aliens.

      On vit, je crois, une “déréalisation” du monde et bien malin qui sait où cela nous mènera.
      Vous même n’invoquez rien de scientifique quand vous affirmez “Dans ce cas, prions pour que ça n’arrive pas !”
      “notre esprit critique.” est amené à se dissoudre dans le manichéisme binaire du comportement machine. Du moins dans un premier temps.

Laisser une réponse

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

*

©2019 The Flares - the-flares.com ©

Vous connecter avec vos identifiants

Vous avez oublié vos informations ?