Les effets négatifs des médias sociaux : l’urgence d’un antivirus de l’esprit

Tout public
FULL HD
Vlog / Podcast • 14 minutes
Essayez The Flares en illimité : 0€
Les effets négatifs des médias sociaux : l'urgence d'un antivirus de l'esprit
Téléchargez au format PDF

À l’âge de 2 ans, votre mère en sait plus sur vous que vous-même. Normal. Mais en vieillissant, vous découvrez des choses sur votre esprit que même elle ne sait pas. D’autres concurrents s’intéressent aussi à ce qu’il se passe dans votre tête : des entreprises et le gouvernement. Et ils possèdent de plus en plus d’outils pour le faire. Amazon saura bientôt quand vous aurez besoin d’ampoules justes avant qu’elles ne s’éteignent. YouTube sait comment vous inciter à cliquer sur cette énième vidéo complotiste même s’il est dans votre intérêt de vous arrêter. Un annonceur à l’avenir pourrait connaître vos préférences sexuelles avant qu’elles ne soient claires pour vous. Et ils les connaîtront certainement avant que vous ne le disiez à votre mère.

Pirater un être humain

L’un des faits les plus importants du 21e siècle est que nous sommes maintenant des animaux piratables. Pirater un être humain, c’est comprendre ce qui se passe au niveau du corps, du cerveau, de l’esprit, afin de pouvoir prédire ce que les gens vont faire. Une fois qu’il est possible de savoir ce qu’on ressent, il est possible de prévoir nos actions, et aussi manipuler et même contrôler nos comportements. Bien sûr, cela ne peut pas être fait parfaitement comme si on était téléguidé par une puce dans le cerveau. Et ce n’est pas nouveau non plus. Il était possible de le faire dans une certaine mesure il y a un siècle. La publicité ou la propagande est finalement une forme faible de manipulation. Mais aujourd’hui, la différence est significative, car on atteint un point où quelqu’un peut vous comprendre mieux que vous ne vous comprenez vous-même grâce aux technologies que nous utilisons tous les jours. Pour en savoir plus sur ce sujet, je vous invite à découvrir le documentaire premium “Vers l’apparition d’une technoreligion?” que nous avons produit et qui est disponible en exclusivité sur notre site. Nous explorons en quoi l’autorité des religions traditionnelles est passée entre les mains de l’humanisme, pourquoi le liberalisme est menacé par les sciences du vivant et à quoi pourrait ressembler la prochaine forme idéologique dominante, dopé par le big data et les intelligences artificielles.

Bon pour continuer sur le piratage de l’humain, lorsque vous ouvrez la vidéo YouTube que votre ami vous envoie après votre pause déjeuner. Bam ! Vous vous réveillez d’une transe trois heures plus tard en vous demandant ce qu’il vient de se passer. Ce que vous ne saviez pas, c’est qu’un super ordinateur était pointé à votre cerveau. Lorsque vous cliquez une vidéo, vous activez les milliards de dollars de puissance de calcul de Google où ils savent ce qui a amené 2 milliards d’humains à cliquer sur une autre vidéo. Autrement dit, ils sont très bons à prédire quelle vidéo a le plus de chance de vous faire cliquer dessus. Vous pensez surement que ce vous regardez sur YouTube est votre choix. Mais ce n’est pas vrai dans la majorité des cas. 70% de ce que les gens regardent sont les vidéos recommandées sur la barre à droite. Ce n’est pas que nous perdons tous pouvoirs de décisions lorsque nous surfons sur YouTube ou Facebook, mais il faut se rendre à l’évidence que lors d’un match entre notre cerveau et un super ordinateur, les cotes ne sont pas équitables.

L’économie de l’attention

Mais qu’elle est la nature de ce match joué sur ces plateformes ? Est-ce forcement négatif ? Apres tout, je suis bien content d’avoir des recommandations de vidéos qui m’intéresse, plutôt que de devoir chercher manuellement, ou pire, avoir des programmes qui me sont imposés comme sur les chaines TV. Si le jeu était de savoir exactement ce dont on a besoin à un moment donné dans notre vie pour augmenter notre bien-être. Et si YouTube utilisait les données de tous ceux qui ont appris à jouer du piano, parmi leur base de données de 2 milliards d’humains, pour calculer la vidéo parfaite à me montrer si je souhaite commencer le piano, ce serait génial. Le problème c’est que ces algorithmes et cette puissance de calcul ne se soucient pas vraiment de ce qu’on veut, ils se soucient juste de ce qui nous maintiendra le plus longtemps devant l’écran. Il se trouve que ce qui fonctionne le mieux pour garder une adolescente qui regarde une vidéo YouTube sur un régime alimentaire est probablement de lui suggérer une vidéo sur les biens faits de l’anorexie. Si une personne regarde une vidéo factuelle sur le 11 septembre 2001, quelles sont les chances que la vidéo qui passe ensuite est une vidéo d’Alex Jones d’InfoWars bourrée de théorie du complot ? Plutôt grande. Est ce que se sont les meilleurs choix pour le bien-être de l’utilisateur, surement pas. Par contre c’est parfait pour les annonceurs qui savent que YouTube et Facebook font tout pour garder les utilisateurs le plus longtemps sur leurs écrans. Les réseaux sociaux sont devenus les plus gros engins de propagande de l’histoire de l’humanité. Les dictateurs du 20e siècle auraient adoré YouTube, Twitter et Facebook. On voit désormais les théories du complot les plus folles en marge de la société se retrouver soudainement sous les projecteurs et persuader des millions de personnes.

Être conscience que nous sommes bien plus facilement piratables aujourd’hui est important. Mais ce n’est pas une solution. Nous avons des millions d’années d’évolution qui poussent notre esprit vers certaines conclusions. Par exemple, si je mets un casque VR qui me place au bord d’une falaise. Je sais consciemment que je suis assis sur ma chaise, chez moi et que je ne cours aucun danger. Je suis conscient que je suis manipulé par la VR. Mais si quelqu’un me pousse dans le dos, je vais avoir une sensation physique de peur dans tout le corps avec augmentation de cortisol et tous le restent. Parce que j’ai des millions d’années d’évolution qui ont façonné mon cerveau afin qu’il considère un rebord de falaise comme quelque chose à éviter.

Recevoir une notification, un like, un commentaire entraine la sécrétion de dopamine dans notre cerveau. Tout comme lorsqu’on mange du chocolat, ou snif un rail de coke. Pas étonnant que l’on vérifie 150 fois notre téléphone dans la journée. Il y a une vraie addiction qui est créée et les géants de la Tech le savent bien. C’est une autre option utilisée pour pirater le cerveau humain. Et même si j’en ai conscience, c’est très dur de résister. Il faut utiliser des stratégies contre notre propre cerveau. La méditation de pleine conscience est un atout efficace pour entraîner son esprit à voir ce qui nous arrive au fil de la journée, et de pouvoir sortir volontairement du mode autopilote. Une sorte d’auto piratage de l’esprit pour faire face au piratage de ces plateformes. Vous pouvez aussi désactiver les notifications. Mais il faut savoir que l’ampleur du phénomène n’est pas que personnelle.

Il ne s’agit pas simplement de se dire que mettre son téléphone en niveaux de gris, désactiver les notifications et supprimer ses comptes Facebook et twitter va nous rendre moins piratable. C’est un bon début, aucun doute là-dessus. Mais nous vivons à l’intérieur d’un tissu social. Notre vie dépend de la qualité des pensées, des croyances et de la vie des autres. Si tout le monde autour de moi croit à une théorie du complot parce que YouTube influence 1,9 milliard d’humains et fait pencher la balance vers des vidéos qui nie le réchauffement climatique et l’holocauste ou que les vaccins causent l’autisme, ça va nous faire vivre dans des mondes complètement différent. Certaines croyances sont inoffensives, d’autres ont des conséquences. Après tout, ce sont des croyances bien spécifiques qui ont conduit deux avions dans des grattes ciels.

Pirater la société, un risque encore plus grand

Autrement dit, ce n’est pas que l’individu qui est piratable, la société l’est aussi. Et ce n’est pas un hasard de voir la division entre les citoyens s’agrandir pour des raisons politiques, la confiance en les institutions scientifiques se détériorer et d’être monter les uns contre les autres. Si vous voyez un article sur Facebook qui affirme qu’un groupe de réfugié syrien a violé une femme dans la rue, il y a des chances pour que vous soyez indigné. Et pour de bonnes raisons. Mais est-ce que vous passez du temps à vérifier l’information ou vous regarder juste le titre?

Je prends cet exemple, car c’est ce qu’il s’est passé en Allemagne avant les élections en 2017. Ce qui a conduit à des manifestations de partisans d’extrême droite, pas très fan de la politique d’immigration allemande. Ils ont manifesté contre un événement qui n’a jamais eu lieu, propagé par une personne en Russie, en Chine ou même un bot si ça se trouve. Et si on reste sur du grotesque, on a le pizzagate. Une théorie du complot qui s’est répandu durant les élections 2016 aux États unis accusant certains hauts placés démocrates de trafic d’enfant à des fins sexuelles et rites sataniques. C’était totalement faux, mais ces croyances ont eu une influence sur les élections. Selon différents rapports, ils y auraient jusqu’à 5 à 15% des comptes twitter qui seraient des faux. C’est donc crucial de réfléchir 2 fois lorsqu’on lit un truc sur les réseaux sociaux. Surtout que nous sommes à l’aube des deepfakes et des outils comme GPT-3 qui peut générer, en autre, des articles et commentaires sur tous les sujets. C’est un peu stupide de répondre avec plein de rage à un commentaire … qui n’a pas été écrit par un humain. D’où la nécessité de prendre un peu de recul sur ce que l’on voit en ligne.

On a parlé des deepfake plus en détail dans cette vidéo. Soyons vigilants face à l’information qu’on reçoit sur les réseaux sociaux. Et j’ai bien conscience en disant ça que nous publions du contenu sur YouTube, et qu’on a déjà fait des erreurs sur certains faits. Donc je vous encourage à vérifier ce qu’on dit.

Le système en lui-même peut faire des choses incroyables pour nous. C’est juste qu’il n’est pas aligné avec nos intérêts et valeurs. Tristan Harris, réalisateur du documentaire “The social dilemma” sur Netflix, qui explore les enjeux mentionnés dans cette vidéo, a fondé le centre for humane technology. Qui se focalise justement sur comment reconstruire l’environnement numérique pour qu’il serve les intérêts des citoyens avant tout. Le fait que de plus en plus de monde ouvre les yeux sur ces problèmes est un bon début.

L’historien Yuval Noah Harari pense qu’une fois que nous réalisons que notre cerveau peut être piraté, nous avons besoin d’un antivirus pour le cerveau, tout comme nous en avons un pour l’ordinateur. Et cela peut fonctionner sur la base de la même technologie. Supposons que vous ayez un assistant personnel qui vous surveille en permanence, 24 heures sur 24. Il sait ce que vous écrivez. Ce que vous prenez en photo, vos messages, etc. Il apprend à connaître vos faiblesses pour mieux vous protéger contre d’autres agents qui tentent de vous pirater. Donc, si vous avez un faible pour les vidéos de chats et que vous passez trop de temps sur les plateformes, alors l’IA interviendra. Peut-être avec un message indiquant que quelqu’un vient d’essayer de pirater votre attention. Tout comme vous recevez un message lorsqu’un virus infecte votre ordinateur. Le plus difficile pour nous est d’admettre nos propres faiblesses et préjugés. Si vous être contre le parti X, alors vous croirez très facilement n’importe quelle histoire sur le parti X, aussi farfelue et ridicule soit-elle. Le candidat du parti X pense que la terre est plate. Vous cliqueriez dessus et l’IA vous dira que vous êtes probablement en train de succomber à un de vos biais cognitifs et que vous allez croire une info qui est fausse. Vous devriez plutôt lire cet article qui montre une vision plus nuancé du parti X qui pourraient vous faire découvrir que vous n’êtes pas totalement contre tout ce qu’ils ont à dire. Un IA assistant qui apprend simplement à connaître vos faiblesses et vos préjugés et essaie de vous protéger contre eux. En théorie, je signe tout de suite, mais il va falloir de sérieuse garantie que les données personnelles seront bien personnelles et que cette IA me sert moi et pas la Silicon Valley ou le gouvernement.

D’autres solutions qui pourraient émerger passent par une plus grande régulation gouvernementale sur les actions des géants de la Tech. Avec plus de 2,6 milliards d’utilisateurs dans le monde si je prends Facebook, on ne peut pas les laisser faire ce qu’ils veulent sans aucune responsabilité. Est-ce que supprimer le bouton “j’aime” redonnerait la baisse de confiance de soi de plus en plus présent chez les adolescents ? Est-ce qu’il ne faudrait pas tout simplement sortir du business modèle publicitaire et migrer vers un abonnement mensuel comme le fait Netflix ? Je n’ai pas la réponse à ces questions, mais il y a des choses qu’il faudra changer.

Changer de modèle

Il y a certains moments dans l’histoire où une économie est soutenue par quelque chose qui ne sert pas l’intérêt commun. Le plus grand exemple de cela est l’esclavage. Il y avait un moment où l’esclavage soutenait toute l’économie mondiale. Et lorsque l’Empire britannique a décidé d’abolir l’esclavage en 1833, ils craignaient que l’économie de la France, toujours alimentée par l’esclavage dans ses colonies, allait les dépasser. Donc, du point de vue de la concurrence, ce n’était pas un bon coup à jouer. Et ils ont dû renoncer à 2% de leur PIB chaque année pendant 60 ans. Mais la façon dont ils y sont arrivés a été de transformer la question de l’esclavage en une question universelle des droits de l’homme afin de non seulement l’abolir au sein de l’empire britannique, mais partout sur la planète.

Il y a une structure similaire avec certaines facettes de l’économie aujourd’hui. Comme les énergies fossiles ou le business modèle publicitaire. Ces aspects représentent de trop grosses parts de l’économie mondiale pour y renoncer du jour au lendemain, mais on peut envisager une transition. Et si un pays ou une entreprise décide d’en faire des questions universelles, alors cela peut encourager un mouvement global et rendre de moins en moins tolérables les pratiques qui nous semblent immorales.

Les plateformes technologiques gagnent des milliards de dollars en nous faisant cliquer, scroller et partager. Tout comme un arbre vaut plus comme planche en bois et une baleine vaut plus morte que vivante – dans l’économie de l’extraction de l’attention, un être humain vaut plus lorsqu’il est déprimé, scandalisé, polarisé et accro.

Cette économie d’extraction d’attention accélère la dégradation de notre capacité collective à résoudre les menaces globales, des pandémies aux inégalités en passant par le changement climatique. Nous avons besoin d’une infrastructure technologique et des business modèles radicalement repensés qui correspondent réellement aux meilleurs intérêts de l’humanité. Car le 21e siècle ne manque pas de défis, certains potentiellement existentiels. Nous ne pouvons donc pas nous permettre de voir le monde à travers des millions de filtres polarisants qui paralysent les actions requises, car on ne peut pas se mettre d’accord et qu’on se fait pirater l’esprit tous les jours.
Mais qu’en pensez vous? Est ce que vous avez remarqué que vos comportements ont changé depuis que vous utilisez les réseaux sociaux et smartphone? Avez vous un comportement que vous considérez comme nocif pour vous? Avez vous des astuces pour éviter les manipulations des géants de la Tech ?

Rate this post
[contenus_similaires]

Rate this post