« Avec les deepfakes, n’importe qui peut devenir un démon de la manipulation »

Les fausses vidéos diffusées en ligne visent le plus souvent des activistes, des journalistes, mais d’abord et avant tout des femmes.
- 15 décembre 2019
« Avec les deepfakes, n'importe qui peut devenir un démon de la manipulation »

Considérés comme une menace pour la démocratie et l’information, les deepfakes sont aussi de redoutables outils de cyber-harcèlement. Ces fausses vidéos visent ainsi le plus souvent des activistes, des journalistes, mais d’abord et avant tout des femmes.

En avril 2018, une enfant de huit ans est violée puis tuée dans le village de Rasana, en Inde. La journaliste d’investigation Rana Ayyub, qui couvre l’affaire, est alors victime d’une intense campagne de cyber-harcèlement. Alors qu’elle boit un café avec un ami, elle reçoit un message contenant le lien d’un contenu pornographique. «  Sur la vidéo, c’était mon visage, raconte-t-elle sur le Huffington Post. J’étais choquée mais j’étais sûre que ce n’était pas moi : j’ai les cheveux bouclés, pas raides. Puis j’ai commencé à vomir…  »

De Barack Obama à Emma Watson

La vidéo visionnée ce jour-là par Rana Ayyub est ce que l’on nomme un deepfake : une fausse vidéo créée à l’aide de photos d’un visage que l’on transpose sur le corps de quelqu’un d’autre. Cette technologie, basée sur le deep learning (apprentissage profond), permet également d’imiter une voix pour lui faire tenir un discours qui n’a, en réalité, jamais été prononcé tel quel.

Le phénomène a été très médiatisé en 2018 suite à la diffusion d’une vidéo de Barack Obama – en réalité l’acteur Jordan Peele – insultant face caméra le président américain Donald Trump. Le monde a pris alors conscience que ces vidéos truquées représentaient une menace pour la démocratie et l’information.

En France, le sujet a même fait l’objet d’une question au gouvernement français : « Il n’est pas prévu dans l’immédiat de faire bouger l’arsenal législatif face à l’émergence des deepfakes », rapportait ainsi en octobre dernier le site Numerama, suite à une réponse du Secrétariat d’État au Numérique.

Plus de 95 % des deepfakes produits à ce jour sont à caractère pornographique

Cette technologie est-elle seulement réservée à quelques initiés ? Non. Durant l’été 2019, l’application chinoise Zao, qui permet de remplacer très facilement le visage d’un artiste dans un clip de musique ou un film, a connu un succès retentissant. Mais le développement de tels outils soulève de plus en plus d’inquiétudes quant au respect de la vie privée. D’autant qu’une autre facette des deepfakes reste pour l’instant assez peu mise en avant : leur potentiel en matière de cyber-harcèlement. Plus de 95 % des deepfakes produits à ce jour sont à caractère pornographique. Et de nombreuses actrices ont déjà fait les frais de ces fausses vidéos non consenties, comme Maisie Williams (Arya Stark dans la série Game of Thrones) ou Emma Watson.

Face à cette menace, c’est aux États-Unis que la prise de conscience semble la plus forte. Créateur de l’organisation Witness, Sam Gregory parcourt désormais le monde, du Brésil à l’Afrique du Sud, pour sensibiliser et former activistes et journalistes : « Notre but est de leur proposer une approche globale, pas juste de s’en tenir aux hommes et femmes politiques. »

Si les deepfakes peuvent viser n’importe qui, tous les citoyens n’ont pas accès aux mêmes ressources pour faire face à la menace : il est plus simple de se former aux États-Unis ou en France que dans des pays où les libertés publiques sont frontalement attaquées par des régimes autoritaires. « Nous expliquons que les deepfakes ne sortent pas de nulle part. Elles se situent dans un contexte où journalistes et activistes font déjà face à de nombreuses menaces du même genre. » L’organisation Witness évoque par exemple le massacre de Marikana, en 2012, lors duquel 46 mineurs en grève ont été abattus par la police sud-africaine. Des enquêteurs avaient par la suite découvert que les autorités avaient modifié des photos en déposant des armes près des corps des victimes.

« L’excuse du deepfake »

Sam Gregory insiste sur le fait que les deepfakes « ne concernent pas seulement le face swap (l’échange de visage, ndlr). Cela peut aussi passer par la modification des mouvements du corps, par exemple pour simuler un état d’ébriété. » Enfin, le directeur de Witness soulève le problème de « l’excuse du deepfake : certaines personnes vont s’en servir pour affirmer qu’une vidéo qui n’a pas été modifiée est fausse. On doit alors prouver celle-ci est vraie ! »

Mais d’ailleurs, combien faut-il de photos pour créer de tels contenus ? Aujourd’hui, entre quelques dizaines et plusieurs milliers. « Ça dépend vraiment de ce que vous voulez faire », explique le spécialiste. Selon lui, des chercheurs travaillent même sur la conception de deepfakes se basant sur… une seule photo. Se prémunir totalement d’une telle menace devient alors impossible : « Surtout, ces deepfakes n’ont pas besoin d’être réalistes pour être efficaces. » D’après Sam Gregory, les progrès technologiques sont tellement rapides que d’ici quelques mois, il pourrait même devenir impossible de les détecter à l’œil nu tant leur réalisme sera poussé.

Une prolongation du revenge porn

En France aussi, cette technologie inquiète. Ketsia Mutombo, co-fondatrice de l’association Féministes contre le cyber-harcèlement, insiste sur le caractère proprement misogyne de cette pratique : « Une femme, dans un contexte sexuel ou érotique, est toujours considérée comme étant dans une situation qui devrait lui faire honte. »

Ce constat est partagé par Adam Dodge, directeur de l’organisation américaine EndTab, qui se concentre sur les deepfakes en tant que technologie utilisée surtout pour du harcèlement basé sur le genre, au même titre que le revenge porn (un contenu sexuellement explicite publiquement partagé en ligne sans le consentement de l’une des personnes apparaissant dessus, ndlr) : « Quand la photographie s’est démocratisée, elle a servi à prendre des clichés de femmes nues sans leur consentement. C’est le même type de problème aujourd’hui avec les deepfakes. »

« N’importe qui peut devenir un démon de la manipulation »

Doit-on pour autant céder à la panique ? Ce n’est pas vraiment l’avis d’Alain Bensoussan, avocat spécialisé dans les nouvelles technologies : « Ce n’est pas un problème de quantité ni de qualité. (…) Mais n’importe qui peut désormais devenir un démon de la manipulation. » Pour l’avocat, si l’arsenal législatif permettant de sanctionner de telles pratiques existe déjà en France, son application sur le terrain se montre toujours très compliquée. Les deepfakes en tant que créations numériques recoupent en effet des problématiques majeures liées à Internet comme la liberté d’expression, la neutralité des plateformes, mais aussi le droit à l’anonymat. « Si vous portez atteinte à une personne, la victime a le droit d’obtenir votre nom, prénom et adresse pour vous poursuivre devant les tribunaux, explique l’avocat. C’est l’hébergeur qui est détenteur de cette sorte de clef. Mais beaucoup de personnes l’ignorent encore. »

Adam Jacob évoque malgré tout une situation de plus en plus inquiétante : « Nous nous rapprochons chaque jour un peu plus de la prolifération de masse de cette technologie. J’ai déjà été contacté par des avocats et des victimes isolées, qui ne savaient pas quoi faire face à cela.  » Son organisation a donc conçu un guide destiné aux victimes : il y est par exemple conseillé de sauvegarder les preuves du cyber-harcèlement (captures d’écran, messages, etc.) ou encore de demander à Google de retirer la vidéo de ses résultats de recherche.

« Rendre les gens responsables »

Ketsia Mutombo, dont l’association a accompagné un temps des victimes de cyber-harcèlement, déplore aussi « la méconnaissance dans les commissariats français de ces nouvelles manières de violenter. » L’activiste précise que la diffusion de deepfakes peut parfois mener à de la violence physique, au travail ou à l’école. « Ce sont souvent des situations urgentes, et sans soutien communautaire, on est généralement isolé. »

Alain Benssoussan fait le même constat : « Soit vous êtes assez puissant pour prendre un avocat ou lancer une contre-information, soit vous êtes un peu faible et vous allez vous faire écraser. Il faut donner le pouvoir aux associations de lutter en votre nom. » Pour l’avocat, une solution pourrait consister à « favoriser des référés extrêmement rapides et augmenter de manière très importante les condamnations à des peines de prison. » Adam Dodge est du même avis : « Nous devons rendre les gens responsables pour la diffusion de ce genre de contenus. Et les plateformes doivent coopérer, mais c’est très compliqué à mettre en place aujourd’hui. »

Le rôle des plateformes concerne notamment la capacité à identifier rapidement et efficacement les deepfakes. « La dure réalité est qu’il n’y a pas encore d’outils faciles d’accès et simples d’utilisation, estime Sam Gregory. Cela devrait arriver dans les prochains mois, comme par exemple via le  Deepfake Detection Challenge lancé récemment par Facebook. »

Adam Dodge met tout de même en garde sur les promesses des plateformes en matière de détection : « Même si demain nous sommes en capacité de repérer un deepfake automatiquement, le femmes souffriront quand même. » En témoigne un récent article de Motherboard qui évoque des avatars 3D pour casques de réalité virtuelle, créés par des internautes à l’aide du visage d’une célébrité ou de leur ex-petite amie. « Ces vidéos sont populaires car elles permettent de réaliser le fantasmes de leurs auteurs. Personne ne croit qu’elles sont réelles, c’est marqué dans le titre. »

 

SUR LE MÊME SUJET :

Fausses vidéos : extension du domaine du fake

220 000 euros détournés par téléphone grâce à un générateur de voix

> Un algorithme réinvente le fake porn

> Image, ma belle image, montres-tu la vérité ?

> « Contre les fake news, la meilleure régulation reste la pensée critique »

Illustration à la une : © Julien Marsault pour Usbek & Rica

et aussi, tout frais...