L’intelligence artificielle et les dangers qu’elle soulève occupent une grande partie de l’actualité politique et médiatique ces derniers temps, notamment à la suite de la sortie de ChatGPT. Ce billet de blog a pour but de mettre en lumière un autre dérivé de l’intelligence artificielle, mais non pas moins important et problématique : les deepfakes.
Le terme « deepfake » doit son nom à un utilisateur du média social Reddit nommé « deepfakes » – amalgame lexical de « deep learning » et de « fake » (un faux) – qui a créé en 2017 un canal de discussion sur lequel il publiait des vidéos à caractère pornographique trafiquées par le biais de procédés d’intelligence artificielle pour y superposer des visages de célébrités féminines sur ceux d’actrices pornographiques. Si le terme « deepfake » fait à l’origine référence à des vidéos à caractère pornographique modifiées par le biais de l’intelligence artificielle, il a pris aujourd’hui une signification plus large et désigne toute manipulation de contenus audiovisuels, fondée sur des procédés de deep learning, et dont le résultat aboutit à une synthèse des composants originaux (synthetic media).
Sur le plan technique, les deepfakes reposent généralement sur deux technologies principales : les Generative Adversial Networks (GAN) et le Facial Reconstruction Autoencoder Neural Network (FRANN). Toutes deux utilisent des algorithmes de deep learning organisés sous la forme de réseaux neuronaux. Concrètement, la combinaison de ces deux technologies permet d’échanger le visage d’une personne avec celui d’une autre sur une vidéo (face swap), de remplacer la voix de quelqu’un par celle d’une autre personne (deepfake audio), de changer des caractéristiques d’une personne dans une vidéo par d’autres traits (par exemple la couleur de cheveux), de transférer les expressions faciales d’une personne sur celles d’une autre personne figurant dans une vidéo (face re-enactment), de créer une vidéo de quelqu’un qui parle à partir d’un enregistrement audio et d’une séquence vidéo de son visage (lip-synching), voire même d’élaborer des contenus entièrement synthétiques.
Le média synthétique ainsi créé n’est pas intrinsèquement illicite, même si aujourd’hui le terme deepfake a une connotation négative, par opposition au terme « média synthétique » qui est plus neutre. Les filtres de certains médias sociaux permettant de changer de sexe, de visage et d’âge (tels que ceux de Snapchat et TikTok) constituent sans doute l’exemple le plus connu d’utilisation licite de deepfakes.
Les dangers associés aux deepfakes
Toutefois, ce procédé est aussi utilisé à des fins criminelles. Dans les faits, sur l’ensemble des médias synthétiques actuellement en ligne, plus de 90% concernent des deepfakes à caractère pornographique dont les victimes restent majoritairement des femmes. On parle couramment de « deepfakes porn » pour désigner les vidéos à caractère pornographique altérées afin d’y superposer la voix et/ou le visage d’une autre personne sur l’actrice originale, et de « deepnudes » – en référence à l’application DeepNude qui permettait de transformer une photo d’une personne habillée en sa version dénudée – pour des images et des photos modifiées. Ces deepfakes sont notamment créés pour se venger (revenge porn), pour nuire à la réputation d’autrui, voire pour faire chanter la victime. L’exemple récent de la fausse photo mettant en scène la ministre française Marlène Schiappa à la une d’un magazine Playboy dans une posture et tenue relativement érotiques illustre bien qu’il s’agit d’une problématique toujours d’actualité.
Il existe également d’autres types de deepfakes délictueux, comme ceux utilisés à des fins de manipulation ou de propagande (que l’on qualifie fréquemment de deepfakes news), de même que ceux utilisés pour escroquer de l’argent, pour se créer une fausse identité, ou encore à des fins d’espionnage. Toutefois, le présent billet de blog traite uniquement des deepfakes à caractère pornographique, dans la mesure où ils sont les plus courants.
La mise en ligne de deepfakes à caractère pornographique est-elle répréhensible pénalement en Suisse ?
A priori, les deepfakes à caractère pornographique devraient être principalement répréhensibles sous l’angle des infractions contre l’intégrité sexuelle. Deux infractions entrent, selon nous, en considération : importuner autrui avec de la pornographie (art. 197 ch. 2 CP) et la pornographie infantile (art. 197 ch. 4 et 5 CP).
Le problème principal de l’infraction consistant à importuner autrui avec de la pornographie, c’est qu’il faut une présentation en public ou à une personne sans y avoir été invité. Cet élément constitutif de l’infraction exclut ainsi tous les sites Internet et les canaux d’échanges sur les médias sociaux qui hébergent spécifiquement des deepfakes à caractère pornographique, dans la mesure où l’utilisateur n’y sera pas confronté inopinément. La condition du caractère pornographique peut également poser problème sous l’angle des deepnudes. En effet, la jurisprudence et la doctrine suisses considèrent que la représentation pornographique doit avoir pour but de provoquer une excitation sexuelle de la personne qui y est confrontée et doit insister exagérément sur les parties génitales dans le sens d’une sexualité sans connotation humaine et émotionnelle (ATF 128 IV 260). Lorsqu’il s’agit d’une photo ordinaire que l’on transforme en variante dénudée, il n’est pas certain que les conditions d’application de l’art. 197 ch. 2 CP soient remplies.
En matière de pornographie infantile, le Tribunal fédéral a établi que le caractère pornographique n’est pas réalisé lorsque l’auteur n’a manifestement exercé aucune influence sur l’enfant lors de la prise de vue (ATF 133 IV 31). Cette condition nous apparaît problématique sous l’angle des deepfakes dans la mesure où ces contenus sont modifiés a posteriori. Une photo ou une vidéo réalisée sans que l’auteur n’ait exercé de contrainte sur l’enfant, mais modifiée par la suite à des fins pédopornographiques, pourrait ainsi ne pas tomber sous le coup de l’art. 197 ch. 4 et 5 CP, ce qui serait choquant.
On voit donc que les infractions contre l’intégrité sexuelle ne sont pas adaptées pour sanctionner l’auteur mettant en ligne des deepfakes à caractère pornographique. De plus, il n’existe aujourd’hui aucune norme pénale qui protège l’intégrité sexuelle tant de l’actrice pornographique que de la victime dont on usurpe le visage et/ou la voix. Il convient ainsi d’examiner dans quelle mesure les infractions contre l’honneur permettent de réprimer ces deepfakes. La diffamation (art. 173 CP), la calomnie (art. 174 CP) et l’injure (art. 177 CP) sont les principales infractions concernées.
La diffamation et la calomnie supposent une atteinte à l’honneur qui soit communiquée à un tiers avec intention. L’atteinte peut être réalisée notamment par l’image ou tout autre moyen (art. 176 CP), ce qui inclut également les photomontages et les vidéos. Si la forme est remplie, il reste encore à savoir si les deepfakes à caractère pornographique constituent une atteinte à l’honneur pénalement protégé. Au vu de la jurisprudence actuelle (voir notamment TF 6S_147/2002 et TF 6B_492/2013), nous pensons que ces deepfakes remplissent cette condition dans la mesure où ils réduisent la victime au rang d’objet sexuel ou, à tout le moins, violent le sentiment de la victime d’être une personne honorable. Enfin, le deepfake doit être communiqué à un tiers, ce qui est le cas lorsqu’il est accessible en ligne sur un média social ou sur un site Internet. Dans l’hypothèse où il n’est communiqué qu’à la victime, on pourra retenir l’injure. On notera que le Tribunal fédéral a récemment jugé que celui qui propage des contenus diffamatoires ou calomnieux, par exemple en « likant », « retweetant », ou en partageant de tels deepfakes peut aussi être punissable (art. 173 ch. 1 al. 2 et 174 ch. 1 al. 2 CP ; ATF 146 IV 23).
La situation pourrait changer avec l’entrée en vigueur du nouvel art. 179decies CP en septembre 2023. Cet article, qui réprime toute usurpation d’identité causant une grave atteinte à la personnalité, permettra également de réprimer l’auteur qui met en ligne ou rend accessible des deepfakes, à condition qu’au moins une victime de l’usurpation d’identité soit clairement reconnaissable.
Comment lutter contre les deepfakes ?
Sur le plan technique, il n’existe – à notre connaissance – aucun logiciel permettant de détecter et d’éliminer avec certitude les deepfakes problématiques. D’un point de vue juridique, le droit pénal suisse permet de réprimer les deepfakes principalement sous l’angle des infractions contre l’honneur. En outre, les grandes plateformes en ligne qui véhiculent les deepfakes illicites peuvent jouer un rôle déterminant pour les endiguer. En effet, les plateformes imposent « leur droit » à leurs utilisateurs et la majeure partie d’entre elles – comme Twitter et Meta – ont activement pris des mesures pour lutter contre ce phénomène, ou à tout le moins ont cadré l’utilisation des contenus artificiellement modifiés. Ainsi, il est vraisemblable que la décision de Google de bannir de sa plateforme Google Colab tous les projets visant à créer des deepfakes aura concrètement davantage d’impact qu’une norme nationale réprimant les deepfakes problématiques. Cette situation – plutôt insatisfaisante d’un point de vue juridique – illustre bien l’intérêt pratique de continuer à promouvoir des partenariats publics-privés afin de lutter efficacement contre la cybercriminalité.
Auteur(s) de cette contribution :
Quentin Jacquemin
Assistant-doctorant en droit pénal informatique et protection des données à l'Université de Lausanne. Intéressé par les enjeux juridiques liés à la numérisation, principalement en matière de cybercriminalité. Recherches menées plus spécialement sur les questions relatives à la responsabilité des plateformes numériques en droit suisse et européen.