Deepfake : attention aux fake news en vidéo !

Après les fake news, une nouvelle forme de désinformation inquiète les médias et les pouvoirs publics : les deepfakes. Ce terme désigne des vidéos truquées au réalisme aussi bluffant qu'inquiétant. Nous vous proposons de mieux comprendre le phénomène deepfake pour mieux vous en protéger.


C'est quoi, un deepfake ?

Les vidéos deepfake sont des vidéos ultraréalistes dans lesquelles les visages et les voix sont modifiés grâce à l'intelligence artificielle.
Avec cette technologie, il devient possible de placer le visage d'une célébrité sur le corps de quelqu'un d'autre et de faire dire n'importe quoi à n'importe qui...
On a pu ainsi voir circuler sur le web une vidéo de Barack obama traitant Donald trump de "grosse merde" ou des vidéos pornographiques avec des célébrités comme Jessica Alba, Emma Watson ou Daisy Ridley.
Cette technologie s'est notamment fait connaître du grand public sur le réseau social Reddit.
Les internautes y faisaient l'éloge d'une application gratuite et simple d'utilisation baptisée FakeApp qui permet à n'importe qui de créer des vidéos truquées, sans avoir de connaissances techniques en informatique.

Comment est-ce possible ?

La manipulation vidéo existe depuis longtemps, mais elle a pris une nouvelle dimension avec les progrès de l'intelligence artificielle et du deep learning.
Ces techniques pour simuler des mouvements faciaux et les transposer sur une personne-cible ont été présentées dès 2016.
Elles permettent de contrefaire les expressions faciales dans des vidéos quasiment en temps réel et de modifier les mouvements des lèvres pour les synchroniser avec d'autres propos.
Les deepfakes qui circulent aujourd'hui sur le web sont des falsifications d'images utilisant un auto-encodeur.
Il s'agit d'une technique de Deep learning de la famille des GAN ou "réseaux génératifs antagonistes".
Dans le cas d'un deepfake, le réseau prend le visage d'une source A et apprend à l'encoder. Mais au lieu de le décoder avec le decodeur de A, il le décode avec celui d'une cible B. Le résultat obtenu est le transfert de visage avec l'expression faciale et l'illumination adéquate.

Pourquoi ça fait peur ?

Le problème avec les deepfakes, c'est que ces vidéos qui manipulent la réalité deviennent de plus en plus crédibles.
La falsification d'images est loin d'être un phénomène nouveau, mais à présent c'est le réalisme des images ou vidéos truquées qui pose problème.
Elles peuvent en effet devenir des moyens de désinformation, pour influencer l'opinion, par exemple lors de campagnes politiques aux États-Unis ou en Europe.
Désormais, ces vidéos truquées ne servent plus seulement à créer des canulars, des films X ou du revenge porn, elles peuvent aussi décrédibiliser, voire salir un candidat à une élection.
Cette technologie de plus en plus facile d'accès constitue donc un problème et un nouveau défi à relever pour nos démocraties.
En avril 2018, Jordan Peele et Jonah Peretti ont démontré les dangers du deepfake en créant une fausse vidéo de Barack obama faisant une annonce publique.
Ce phénomène et ses dangers sont très bien expliqués dans la vidéo ci-dessous, publiée sur la page Facebook de l'émission Quotidien présentée par Yann Barthès :

Existe-t-il des parades ?

Vous l'aurez compris, il devient de plus en plus difficile de distinguer si une image ou une vidéo est fausse, satirique ou authentique.
Ce phénomène pourrait donc compromettre gravement la confiance des individus dans les médias et l'information qu'ils délivrent.
C'est pourquoi, un peu partout dans le monde, les initiatives se multiplient pour faire face à cette nouvelle menace.
Le chercheur français Vincent Nozick, membre du laboratoire d'informatique Gaspard Monge à l'Université Paris-Est Marne-la-Vallée, a développé un programme appelé Mesonet afin de repérer les deepfakes en s'appuyant notamment sur le mouvement des paupières.
Aux États-Unis, l'agence de recherche américaine de défense liée au Pentagone, la DARPA, a financé à hauteur de 68 millions de dollars des projets technologiques anti deep fake.
Du côté des médias, l'AFP s'est associée au projet européen InVid (pour "In Video Veritas") : ce plug-in destiné aux journalistes peut être téléchargé sur n'importe quel navigateur Internet pour aider à repérer les vidéos truquées souvent partagées en masse sur les réseaux sociaux.
Il permet notamment de savoir si une vidéo a subi une manipulation technique avant d'être mise en ligne.
En attendant que des parades techniques soient créées, les internautes doivent être de plus en plus vigilants vis-à-vis des contenus diffusés sur Internet et relayés sur les réseaux sociaux.

Date de création : 2019-02-06
Auteur :

0 Avis

Pas encore d'avis.

Déposer un avis

CGU - Gralon - Confidentialité
Accéder au site complet
© Gralon 2011-2024