"Une menace à la réputation des individus, et la sécurité des données". C'est en ces termes que l'entreprise de veille sécuritaire en ligne visuelle néerlandaise Sensity a qualifié sa récente découverte : sur l'application de messagerie Telegram, se présentant comme sécurisée, des utilisateurs ont recours à des chaînes de discussion spécifiques pour créer des fausses photos de femmes nues, générées par des intelligences artificielles incluses dans le code informatique, rapporte le média high tech The Verge, ce mardi 20 octobre. 

Plus de 680.000 photos de femmes trafiquées

En clair : des utilisateurs téléchargent des photos de femmes, souvent prises des réseaux sociaux, dans des chaînes de conversations où un programme informatique les modifie automatiquement, effaçant leurs vêtements et modifiant la photo, jusqu'à ce qu'elles semblent nues. Le résultat n'est pas toujours probant, mais il s'avère parfois réaliste. 

En tout, plus de 680.000 photos de femmes auraient ainsi été trafiquées, dont des photos de jeunes femmes "qui semblent mineures", relate Buzzfeed News.

"C'est un cas assez unique, parce qu'il ne s'agit pas juste de gens qui discutent et partagent des contenus, mais ce programme informatique est vraiment intégré à Telegram, et nous n'avons jamais rien vu de pareil", s'inquiète Giorgio Patrini, le patron de Sensity auprès de Buzzfeed News

Selon Sensity, ces utilisateurs sont surtout basés en Russie, et dans les pays limitrophes d'Europe de l'Est. La modification basique des photos est gratuite, et il suffit (sic) de payer un peu plus d'un dollar pour obtenir 100 photos modifiées sans logo par-dessus. De quoi faire croire à de vraies photos. 

Qu'est-ce qu'un deepfake ?

Ce procédé est ce que l'on nomme un "deepfake", un terme désignant la modification poussée d'une image, ou d'une vidéo, au point de pouvoir passer pour authentique, réaliste.

Vidéo du jour

Le recours aux deepfakes est régulièrement dénoncé, notamment car elles risquent de colporter de fausses informations, porter atteinte à l'image d'une personne, ou servir à harceler massivement quelqu'un en ligne, célébrité ou anonyme, voire, à lui demander de l'argent en échange de retirer la fausse photo. L'un des usages les plus répandus des deepfakes étant de créer de fausses images pornographiques de femmes.

The Verge explique que ces robots découlent d'un logiciel, "Deepnude". Créé en juin dernier, il a vite été interrompu par son créateur, "craignant un mauvais usage" (sic).

Mais trop tard : des développeurs informatiques ont su en retirer le code-source, et créer leurs propres intelligences artificielles pouvant modifier de grosses quantités de photos en un temps record.

Des intelligences artificielles très faciles à trouver sur des sites ouverts (dits "open-source"), et à reproduire. Il y a donc un risque que ce phénomène s'étende à d'autres parties du monde.

Créer de la fausse pornographie en masse

Pour ces utilisateurs créant en masse des fausses photos de femmes nues, l'intérêt serait de créer du contenu pornographique, analyse Sensity. Si l'entreprise dit "ne pas avoir pu le prouver", elle craint des cas de harcèlement.

L'application Telegram n'a pas encore réagi à ces révélations. Similaire à Whatsapp, elle a été créée par deux opposants à Vladimir Poutine en 2013. Censurée dans plusieurs pays, elle est utilisée par plus de 400 millions de personnes par mois.