Après les fakenews, voici le deepfake !

Le deepfake est la même chose que le fake news.

Tout est faux.

Sauf que ce ne sont pas des articles faux.

Ici, pour le deepfake, ce sont des vidéos, des enregistrements audios. Ils vous semblent réalistes. Mais non, ils sont détournés.

Et dans un monde numérique où la vidéo et les images ont pris le dessus sur les mots, cela vous fera froid dans le dos.

Et le résultat est édifiant !

Temps de lecture : 15′

Introduction : exemple !

Voici quelques exemples de deepfakes.

 

Ici, dans cette video, Donald Trump annonce la fin du sida. Elle a été vue par 3 millions de personnes.

David Bowie – Deep Fake Love

Ici, c’est David bowie qui remplace Rick dans ce video-clip.

Un exemple de deepfake audio est tout aussi bluffant.

Il permet de faire dire n’importe quel discours d’une personne qui ne l’a jamais prononcé. Mais le timbre de la voix, les intonations sont celles de la victime de la supercherie.

Ctrl Shift Face est un slovaque qui a réalisé de nombreux deepfake.

Que signifie deepfake ?

En français, la traduction pourrait être : hyper trucage.

Deepfake est un mot balise : deep ( provenant de deep learning, la connaissance approfondie permise dans l’intelligence artificielle ) et fake ( faux ).

Le deepfake concerne à la fois des trucages vidéo mais aussi audio.

Dans une vidéo, on remplace un des personnages par vous. Et le résultat est réaliste.

Dans une conversation audio, c’est votre voix qui est utilisée et c’est vous qu’on semble entendre.

Vous avez vite compris les désastres que cela peut engendrer…

Pour votre vie personnelle, si on utilise votre image et votre voix.

Pour la démocratie, où on peut désormais diffuser des informations totalement fausses.

Histoire du deepfake.

On pourra relire toute la littérature de la propagande qui a largement utilisé les méthodes de manipulations pour détourner la vérité. Dans les photographies officielles.

L’union soviétique et les américains ont historiquement toujours utilisé la pratique de modifier des photographies pour la propagande. En retirant des personnes sur les photographies par exemple.

L’usage est donc vieux comme le monde de l’espionnage.

L’arrivée du numérique a changé la donne. Les outils numériques permettent de modifier une photographie, modifiant l’original.

Dans l’industrie de la photographie de mode, l’usage est courant. Et nombreuses sont les couvertures de magazine où on a affiné les jambes d’une actrice, d’un mannequin.

Le verbe « photoshopper » est même devenu un mot qui définit cette technique : le mot reprend le nom du logiciel bien connu Photoshop.

Que change le deepfake par rapport au vieux photomontage ?

Les différences aujourd’hui du deepfake sont les suivantes :

  • le média utilisé pour réaliser ces faux n’est plus simplement la photographie, mais la vidéo et les enregistrements médias.
  • la capacité nouvelle à chacun d’utiliser cette nouvelle fonctionnalité. Les applications qui permettent le deepfake sont accessibles à tout à chacun sur les Apple store.
  • le deepfake est élargi à tous les usages. Et pas que dans l’industrie de l’espionnage . Au delà de quelques volontés de propagande. Même le porno s’y est mis !

Les avancées technologiques.

Si le deepfake voit aujourd’hui le jour, c’est que le trucage est réaliste. Ce qui n’était pas possible jusque là.

Il faut de la puissance de calcul pour transformer 24 images secondes et les transformer dans une fluidité pour celui qui regarde la vidéo.

Pour que cela soit réaliste, et fluide et qu’on y croit, il faut limiter le « bruit ».

Le bruit c’est voir dans la vidéo quelque chose qui ne paraît pas crédible. Et qu’il y a tricherie.

Le petit grain de sable à l’écran qui rend la supercherie visible.

Tout l’enjeu du deepffake est de masquer l’arnaque. Il faut que l’individu n’y voit que du feu. Qu’il pense que tout est vrai.

Et ce qui peut alerter l’individu ce sont les « bruits «  : l’image qu’on a voulu insérer dans la vidéo est mal cadrée, pas à la même lumière… c’est un travail de chirurgie numérique .et l’intelligence artificielle permet d’accompagner cette chirurgie numérique et le deep fake.

Pour réduire ce « bruit », les nouvelles technologies utilisent l’intelligence artificielle.

En prenant connaissance de toutes les images ou vidéos disponibles sur le sujet qu’on veut mettre en scène dans le deepfake : sa posture, ses émotions.

Voilà pourquoi on parle de « deep », approfondi. Car pour rendre la scène réaliste, il faut capter tous ces signaux qui révèlent le naturel de la personne. L »intelligence artificielle permet de contextualiser la personne qu’on veut incruster dans la vidéo.

Certaines entreprise, comme Nvidia, à la base spécialisée dans la puissance de calcul, ont construit des outils pour construire des deepfake. Grâce à la technique des «réseaux adversatifs générateurs» (GAN), ils sont capables de mettre en concurrence deux algorithmes pour obtenir la meilleure imitation possible. L’un étant chargé de copier le style d’une vidéo en y ajoutant un visage tandis que l’autre juge si cette copie est crédible et si la réponse est non, tente de l’améliorer.

D’un point de vue technique, comment peut on réaliser ce genre d’exploit bluffant ?

En utilisant des vidéos, ou du son, il s’agit de mélanger la matière première du support. A l’heure du « digital », il s’agit du binary digit. L’élément le plus élémentaire du numérique : le bit.

Ce que Claude Shannon a mis en évidence dans sa théorie de l’information. ( on lira ici : théorie mathématique de la communication ).

Le résultat final du produit ( le deepfake ) est le mélange subtil des milliards de bits qui constituent la vidéo.

Une éthique du Deepfake ?

Comme tout trucage, le deepfake pose la question de l’éthique.

Ctrl Shift Face joue avec la technologie. Pour s’amuser, et alerter.

L’innovation technologique a ainsi encore enrichi les champs des possibles. La technologie est neutre dit on souvent. C’est ce qu’on en fait qui est nuisible ou pas.

Et la politique et l’éthique ont toujours un retard face à une technologie qui arrive.

La vidéo exemple du Trump et le sida a fait débat quant à l’éthique .

« La révélation est dans le film ! Et si quelqu’un a le sentiment que c’est une vraie annonce, il lui suffit de deux clics pour voir que personne d’autre ne l’a reprise. »

« Ceux qui réagissent sur les réseaux sociaux sont toujours ceux qui ne sont pas contents, pas ceux qui trouvent ça formidable », réagit Luc Barruet, directeur fondateur de Solidarité sida, soulignant qu’en comparaison avec le nombre de vues de la vidéo, la part des critiques est extrêmement restreinte. « Quand on a fait le choix de cette campagne, on savait que ça pourrait soulever des réactions », explique-t-il. Mais pour lui, le risque que des personnes prennent l’information pour argent comptant est extrêmement limité, et a été évalué en amont.

Au-delà des différentes polémiques liées aux contenus pornographiques, la technologie «deep fake» peut aussi être utilisée pour désinformer.

Selon la professeur émérite en éthique Deborah Johnson, interrogée par Vice,

«Nous arrivons au point où nous ne pouvons plus distinguer ce qui est réel de ce qui ne l’est pas (…) tout ce business de la confiance et de la faisabilité est mis à mal par cette technologie».

Contactée par Le Figaro, Solange Ghernaouti, experte internationale en cybersécurité et cyberdéfense, souligne que le numérique entraîne une «dissociation entre le contenu et le support sur lequel il est diffusé. On est face à une information immatérielle, non palpable, qui peut être consultée à la fois sur smartphone ou dans le cloud par exemple. Chaque son, image ou vidéo peut ainsi être plus facilement manipulé» explique-t-elle.

Donnée privée ou l’ADN.

La donnée numérique nous appartient, et elle est un équivalent de notre ADN.

D’un point de vue éthique, le clonage par exemple est largement contrôlé. Voire interdit.

Pour la déformation de son image, des règles éthiques devraient naître, rassemblant les acteurs du numérique, de la société.

La déclaration universelle des droits de l’homme acte la vie privée comme un droit fondamental. La relire à la vie des usages numériques pourrait donner ce cadre rassurant a tout citoyen.

En ce sens, le règlement européen sur la vie privée permet de cadrer et de proposer une philosophie de bon sens, quant à l’usage numérique de nos données. ( à lire ici : la protection des données personnelles ).

La preuve judiciaire.

Le deepfake pose question quant à la l’authenticité d’une vidéo, d’une image.

Débat la loi, comment prendre en compte la véracité d’une preuve tangible ?

L’industrie policière a fait de grandes avancées, en pouvant par exemple utiliser l’ADN pour prouver de manière indéfectible l’authenticité de la personne incriminée, ou innocentée.

L’usage des vidéos, des enregistrements vocaux en matière judiciaire deviendraient caduques. Si on ne peut prouver leur authenticité.

La preuve est difficilement appréciable.

De nouveaux protocoles de sécurité sont à mettre en place pour empêcher la détérioration du média.

L’utilisation de la technologie de la blockchain pourrait être utile.

L’idéal à terme serait d’avoir des images ou des vidéos numériques dotées de «tatouages électroniques», ce qui permettrait de vérifier «plus simplement et plus rapidement l’origine d’un contenu».

Tentatives de réponse

Pour limiter les désastres du deepfake, certains groupes institutionnels ont tenté de mettre en place des outils de vérification, ( fact checking ). Afin de déceler le vrai du faux…

Par exemple, Vincent Nozick, chercheur au laboratoire d’informatique Gaspard-Monde a lancé le programme « Menoset ».

Son objectif est de repérer les deepfake. La technologie est par exemple de repérer les mouvements de paupière.

De même, aux Etats-Unis, l’agence de recherche de défense finance pour 68 millions de dollars des projets informatiques, pour lutter contre les deepfake.

Comme nous l’avons vu, pour l’intelligence américaine, c’est un vrai enjeu dans le domaine de l’espionnage.

Dans le domaine journalistique, l’AFP ( Agence France Press ) est partenaire du projet Invid ( In Video Veritas ).

Le projet Invid permet notamment de fournir un logiciel ( plug-in ) aux journalistes pour aider à repérer les deepfake. Le logiciel indique si la vidéo a été transformée avant d’être mise en ligne, et partagée sur les réseaux sociaux.

La viralité du deepfake.

L’expérience du deepfake est nouvelle.

Comme tout nouvel usage, la curiosité capte l’attention.

La découverte du cinéma en 1895 intriguait. Chacun a voulu découvrir.

Idem pour le Minitel qui dans les années 1980 était un sujet de curiosité.

Voilà pourquoi l’ONG a utilisé ce mode de communication pour parler du sida en faisant du deepfake de trump sur le sujet « aid is dead « .

La nouveauté impacte la popularité.

Et le « buzz » fait rage sur les réseaux sociaux, comme le font les fake news.

Le porno s’en mêle aussi. Comme d’habitude, la pornographie s’approprie toujours les nouveaux usages. Numériques , ou pas. Comme la vidéo pour les télévisions en 3D.

Aussi voir des vidéos pornographiques qui montrent des positions sexuelles de célébrités, c’est ce qu’offre certaines plateformes de vidéos pornographiques.

Voir M pokora prendre son plaisir dans une vidéo, cela a de quoi nourrir les fantasmes.

L’objet numérique dénaturé.

L’internet et le monde numérique dévoyé. La connaissance et l’aspiration à rendre l’individu autonome se meurt un peu plus.

Une réflexion au sujet de « Après les fakenews, voici le deepfake ! »

  1. Ping : Dictionnaire de la vie numérique, du web, et des réseaux sociaux | Zeboute Infocom’

Répondre

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Google

Vous commentez à l'aide de votre compte Google. Déconnexion /  Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.