Comment les scientifiques suisses tentent de repérer les deepfakes


une photo d'un homme

Bien que les vidéos deepfake les plus connues soient des parodies mettant en vedette des politiciens et des célébrités, la technologie pourrait être déployée pour interférer dans les processus politiques ou manipuler l'opinion publique.

(Shutterstock)

Alors que les vidéos truquées à l'aide de l'intelligence artificielle deviennent de plus en plus sophistiquées, des experts en Suisse réévaluent les risques que son utilisation malveillante fait peser sur la société – et trouvent des moyens innovants pour arrêter les auteurs.

Dans un laboratoire informatique sur le vaste campus de l'EPFL, une petite équipe d'ingénieurs contemple l'image d'un homme souriant à lunettes au teint rosé et aux boucles sombres.

"Oui, c'est une bonne chose", dit le chercheur principal Touradj Ebrahimi, qui ressemble beaucoup à l'homme à l'écran. L'équipe a manipulé de manière experte le coup de tête d'Ebrahimi avec une image en ligne du fondateur de Tesla, Elon Musk, pour créer un deepfake – une image ou une vidéo numérique fabriquée par l'intelligence artificielle.

C’est l’une des nombreuses fausses illustrations – certaines plus réalistes que d’autres – que l’équipe d’Ebrahimilien externe a créé en développant des logiciels, en collaboration avec la firme de cybersécurité Quantum Integritylien externe (QI), qui peut détecter les images trafiquées, y compris les deepfakes.

En utilisant l'apprentissage automatique, le même processus derrière la création de deepfakes, le logiciel apprend à faire la différence entre l'authentique et le faux: un «créateur» lui nourrit de fausses images, qu'un «détecteur» essaie ensuite de trouver.

«Avec beaucoup de formation, les machines peuvent aider à détecter la contrefaçon de la même manière qu'un humain», explique Ebrahimi. "Plus il est utilisé, mieux c'est."

Des photos et vidéos falsifiées existent depuis l'avènement du multimédia. Mais les techniques d'IA n'ont permis que récemment aux faussaires de modifier les visages dans une vidéo ou de faire croire que la personne dit quelque chose qu'elle n'a jamais fait. Au cours des dernières années, la technologie deepfake s'est propagée plus rapidement que la plupart des experts ne l'avaient prévu.

Image Deepfake utilisant un headshot de Touradj Ebrahimi et une image de profil d'Elon Musk

L'équipe de l'EPFL a créé l'image au centre en utilisant des techniques d'apprentissage approfondi pour modifier le portrait d'Ebrahimi (à droite) et une image basse résolution d'Elon Musk de profil trouvée sur Internet.

(EPFL / MMSPG / swissinfo)

Selon l'International Risk Governance Center (IRGC), la fabrication de vidéos deepfake est devenue «exponentiellement plus rapide, plus facile et moins chère» grâce à la distribution d'outils logiciels conviviaux et de services payants en ligne.lien externe à l'EPFL.

«C'est précisément parce qu'il évolue si vite que nous devons déterminer où cela pourrait aller – quels secteurs, groupes et pays pourraient être affectés», explique son directeur adjoint, Aengus Collins.

Bien qu'une grande partie du problème des deepfakes malins concerne leur utilisation dans la pornographie, il est de plus en plus urgent de se préparer aux cas dans lesquels les mêmes techniques sont utilisées pour manipuler l'opinion publique.

Un domaine en évolution rapide

Lorsque Ebrahimi a commencé à travailler avec QI sur un logiciel de détection il y a trois ans, les deepfakes n'étaient pas sur le radar de la plupart des chercheurs. À l'époque, les clients de QI étaient préoccupés par les photos trafiquées d'accidents utilisés dans des réclamations frauduleuses d'assurance automobile et habitation. En 2019, cependant, les deepfakes avaient développé un niveau de sophistication que le projet avait décidé de consacrer beaucoup plus de temps à la question.

«Je suis surpris, car je ne pensais pas que (la technologie) irait si vite», déclare Anthony Sahakian, PDG de QI.

Sahakian a pu constater à quel point les techniques de deepfake sont parvenues à des résultats réalistes, plus récemment l'échange de visages sur une photo de passeport qui parvient à laisser intacts tous les scellés des documents.

Touradj Ebrahimi du Multimedia Signal Processing Group à l'EPFL et Anthony Sahakian, PDG de Quantum Integrity, prévoient de publier un premier prototype de leur logiciel de détection de deepfake en juin 2020.

(Alain Herzog)

Ce ne sont pas seulement les améliorations des techniques de manipulation qui intéressent des experts comme lui. Le nombre de vidéos deepfake en ligne a presque doublé en une seule période de neuf mois pour atteindre 14678 en septembre 2019, selon une estimation de Deeptracelien externe, une société néerlandaise de cybersécurité.

Zones à risques

La plupart des cibles des contrefaçons créées dans l'intention de nuire sont des femmes dont les visages ont été transposés sur des images ou des images pornographiques. Ce type d'utilisation représentait 96% des vidéos deepfake en ligne en 2019, selon Deeptrace. Certains apparaissent sur des sites pornographiques deepfake dédiés, tandis que d'autres sont diffusés sous le nom de «pornographie de vengeance» pour ternir la réputation des victimes.

«Le harcèlement et l'intimidation en ligne sont des thèmes récurrents», explique Collins.

En revanche, il y a eu peu de cas connus de deepfakes déployés pour commettre une fraude. La plupart d'entre eux ont pris la forme d'une usurpation d'identité pour inciter les victimes à envoyer de l'argent à l'agresseur.

Pourtant, les entreprises en prennent note. Des sociétés comme Zurich Insurance, Swiss Re et BNP Paribas ont toutes envoyé des représentants à un récent atelier de l'IRGC sur les risques de contrefaçon. Sahakian chez QI dit que l'utilisation potentielle de vidéos deepfake dans les réclamations d'accidents, par exemple, est une préoccupation parmi les assureurs avec lesquels il travaille.

«La technologie existe maintenant pour rendre le KYC (Know Your Customer) d'aujourd'hui obsolète», dit-il, se référant au processus de vérification de l'identité des clients et de leurs intentions afin d'éliminer les fraudes potentielles.

Éducation précoce
Comment un programme suisse enseigne la vie privée en ligne aux enfants

Les responsables suisses de la protection des données déclarent que les jeunes enfants devraient être informés de la sécurité et de la confidentialité des données avant d'utiliser Internet.


La montée des deepfakes a également conduit à des spéculations sur son utilisation potentielle pour interférer dans les processus politiques.

Ces craintes ont été confirmées lorsqu'une vidéo manipulée montrant la présidente de la Chambre des États-Unis, Nancy Pelosi, lui a fait croire qu'elle avait insulté son discours. La manipulation était de faible technologie, un soi-disant «superficiel», mais comme le dit Ebrahimi, «c'est un signe de ce qui peut être fait et de l'intention qui anime ce type de média manipulé.»

S'adapter à une nouvelle réalité numérique

Pourtant, l'expert en risques Collins prévient que l'utilisation des médias synthétiques en politique doit être mise en contexte.

"Il est possible que les deepfakes puissent jouer un rôle dans le déclenchement des élections, mais je me méfierais de trop insister sur le risque de deepfake, ou vous risquez de détourner le regard de la situation dans son ensemble", prévient-il.

Ce que les deepfakes signalent, dit-il, c'est «l'écart potentiel qui se dessine entre la vitesse à laquelle l'écosystème de l'information numérique a évolué et la capacité de la société à s'y adapter».

À titre d'exemple, Collins revient sur l'utilisation des deepfakes comme outil de cyberintimidation.

«Cela soulève des questions sur la réactivité des systèmes juridiques aux dommages individuels en ligne», dit-il. "Comment vous débarrasser du contenu numérique nuisible une fois qu'il a été créé, et comment trouvez-vous le créateur original ou appliquez-vous des lois contre lui, surtout s'il est basé dans une autre juridiction?"

Les Deepfakes peuvent également aider les campagnes de désinformation, érodant davantage le lien entre vérité et confiance.

IA pour créer et détecter

La technologie peut provoquer la panique dans certains milieux, mais tout le monde n'est pas d'accord pour dire que les vidéos deepfake sont suffisamment réalistes pour tromper la plupart des utilisateurs. Les experts disent que la qualité des deepfakes dépend encore aujourd'hui largement des compétences du créateur. L'échange de visages sur une vidéo entraîne inévitablement des imperfections dans l'image, explique Sébastien Marcel, expert en sécurité biométrique.

Trois femmes dans une illustration profonde
(Idiap (capture d'écran))

Vidéo Deepfake Idiap

Vidéo Deepfake créée par Idiap

(intégré) https://www.youtube.com/watch?v=yVH9-gHsd9s (/ intégré)

«La qualité sera très variable, selon l'intervention manuelle effectuée pour augmenter l'image», dit-il. Si le créateur s'efforce de peaufiner le résultat, le faux peut être très difficile à détecter, précise-t-il.

Marcel et ses collègues de l'Institut de recherche Idiaplien externe à Martigny, dans le sud-ouest de la Suisse, travaillent sur leur propre logiciel de détection, dans un projet né des efforts pour détecter la manipulation des visages et des voix dans les séquences vidéo. Idiap est là pour le long terme.

«Ce problème ne va pas être résolu aujourd'hui», explique Marcel. "C'est un sujet de recherche en pleine croissance, donc nous prévoyons de consacrer plus de ressources à ce domaine."

Pour l'aider à s'appuyer sur certains résultats initiaux, l'institut à but non lucratif participe à un défi lancé par Facebook pour produire un logiciel de détection de deepfake. Le géant des médias sociaux s'engage à verser plus de 10 millions de dollars aux chercheurs du monde entier (voir infobox).

Mais quelle différence fera la détection est à débattre.

"Il est peu probable de fournir une solution miracle", explique Collins. "Quel que soit l'ensemble des techniques de détection, un adversaire trouvera un moyen de le contourner."

Un jeu de chat et de souris

Ebrahimi et Marcel disent tous deux que leur objectif n'est pas de trouver un outil de sécurité. Une partie du travail du détecteur consiste à prévoir dans quelle direction les manipulateurs pourraient aller et à régler leurs méthodes en conséquence.

Marcel chez Idiap prévoit un avenir dans lequel les créateurs pourront changer non seulement un aspect d'une vidéo, comme le visage, mais l'image entière.

"La qualité des deepfakes va s'améliorer, nous devons donc également améliorer les détecteurs", au point que le rapport coût-bénéfice de la fabrication de deepfakes malveillants n'est plus en faveur du créateur, dit-il.

Ebrahimi de l'EPFL estime qu'un événement majeur, comme les élections présidentielles aux États-Unis, pourrait inciter les acteurs malveillants à accélérer leur travail, avec un objectif clair en tête.

«Cela peut prendre des mois, voire des années» avant que l'œil entraîné ne soit plus capable de détecter un faux, dit-il, et à ce stade, seules les machines auront la capacité de le faire.

Social plateformes médiatiques contre deepfakes

Twitter a introduit une nouvelle règle en mars 2020 contre le partage de contenus multimédias synthétiques ou manipulés qui peuvent nuire. Parmi les actions qu'il entreprendra figurent l'étiquetage de ces tweets et l'affichage d'avertissements aux utilisateurs. Youtube, détenue par Google, s'est engagée à ne pas tolérer de vidéos deepfake liées aux élections et au recensement américains de 2020 qui sont conçues pour induire le public en erreur. Facebook a lancé un défi, d'une valeur de plus de 10 millions de dollars, pour soutenir les chercheurs en détection dans le monde entier. Tous les deux Facebook et Google ont publié des ensembles de données d'images en profondeur pour aider les chercheurs à développer des techniques de détection.

fin de l'infobox

Deepfakes pour le divertissement et la parodie

«Les deepfakes les plus largement diffusés ont tendance à être de nature parodique, impliquant des personnalités de haut niveau» comme les célébrités et les politiciens, explique l'International Risk Governance Centerlien externe (IRGC), soulignant que «tous les deepfakes ne sont pas créés avec une intention malveillante». Hollywood a également essayé la technologie du deepfake, par exemple, pour permettre le retour au cinéma d'argent d'acteurs décédés depuis longtemps. Ebrahimi de l'EPFL dit que, si tout se passe comme prévu, un sous-produit du projet EPFL / QI pour développer un logiciel de détection de contrefaçon pourrait être l'utilisation éventuelle de la même technologie pour créer des effets spéciaux de film.

Selon le CGRI, d'autres utilisations positives potentielles des techniques de contrefaçon comprennent la synthèse vocale à des fins médicales et la criminalistique numérique dans les enquêtes criminelles.

fin de l'infobox

Neuer Inhalt

Ligne horizontale


WEF 2018

WEF Teaser 2018


Pourquoi la Suisse lutte contre l'or sale

Formulaire d'inscription

Formulaire d'inscription à la newsletter gratuite.

Inscrivez-vous à nos newsletters gratuites et recevez les meilleurs articles dans votre boîte de réception.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *