Deepfake : enjeux techniques, juridiques et éthiques
Article rédigé par Isabelle Laratte, avocate au barreau de Paris.
Temps de lecture : 7mn| Propriété intellectuelle
Les deepfakes représentent un défi majeur pour nos sociétés. Bien que des solutions techniques et juridiques existent, elles n’empêchent pas le phénomène de prospérer.
Depuis 2023, le « Deepfake », l’enfant terrible de l’intelligence artificielle, s’invite sur tous les réseaux, plateaux, débats publics, et législations. De Hollywood au Dark Web, cette technologie crée évènements et scandales, n’épargnant aucun secteur. Miroir déformant, reflet trompeur de notre réalité, source de manipulation, de chantage et d’extorsion, elle nous impacte tous, enfants, citoyens, personnalités publiques, célébrités, sociétés, jusqu’aux démocraties, modifiant même notre rapport à l’image et au réel.
Sommes-nous pleinement informés de son périmètre, de ses implications et des forces techniques et juridiques en jeu ? Notre droit est-il suffisant pour lutter contre ces dangers inhérents à son objet même ? Comment rétablir la crédibilité et l’authenticité des contenus numériques ? C’est aujourd’hui un défi majeur de nos sociétés.
Définition et périmètre
Le deepfake est un néologisme né de la contraction de deep learning (apprentissage profond) et fake (faux). En droit français et européen, on parlera également d’hypertrucage défini par l’IA Act européen adopté le 21 mai 2024 comme « une image ou un contenu audio ou vidéo généré ou manipulé par l’IA, présentant une ressemblance avec des personnes, des objets, des lieux, des entités ou événements existants et pouvant être perçu à tort par une personne comme authentiques ou véridiques »[1].
Utilisant des techniques d’apprentissage automatique, le deepfake permet de produire des contenus faux mais réalistes incluant la création ou la modification de contenus vocaux (conversion du texte en parole), la création ou la modification de musique, la génération de visages (facial reenactement) ou d’avatar, le remplacement de visages (face swap) ou des manipulations subtiles du visage, de la voix ou du corps ainsi que la simulation et la modification de modèles 3D.
Sans être illégal par nature, le recours au deepfake pose des problèmes complexes.
Les problématiques : exemples d’utilisations positives et négatives
Dans l’industrie du cinéma, de la télévision et du jeu vidéo, les trucages ont toujours été utilisés en post production dans le cadre des effets spéciaux. L’IA est devenue une technique supplémentaire. En 2020, pendant la période Covid, la série de France 3 « Plus belle la vie » a eu recours au deepfake pour pallier l’absence d’une de ses comédiennes, éloignée du plateau en raison de la pandémie. Le documentaire Welcome to Chechnya (2020) de David France, qui témoigne de la persécution des personnes LGBTQ+ en Tchétchénie a utilisé le deepfake pour protéger l’anonymat de ses sujets tout en conservant leur présence à l’écran.[2] La technologie de l’hypertrucage a permis à l’acteur Val Kilmer, qui a perdu sa voix de “parler”.[3]
L’IA améliore les techniques de « de-aging » ou « rajeunissement » utilisées depuis les années 2000 par les studios (Benjamin Button, the Irishman, Captain Marvel). Le dernier Indiana Jones, « Indiana Jones ou le cadran de la destinée » présente un Harison Ford rajeuni de 40 ans dans une scène de lutte dans un train. L’artiste FKA Twigs a eu recours à cette technologie pour créer son avatar virtuel, capable d’interagir avec son réseau d’abonnés.
Cette accélération du champ des possibles permise par l’IA a suscité une réaction et une inquiétude très forte des acteurs, musiciens et scénaristes américains qui ont refusé l’idée, encore dystopiques, du clonage d’interprétation ou du double numérique, dans le cadre desquels des acteurs seraient payés une somme forfaitaire pour numériser leur image, utilisable ensuite à perpétuité sans autorisation complémentaire. Ces préoccupations ont en grande partie motivé les grandes manifestations d’Hollywood en 2023, à l’occasion desquelles la Writer Guild Of America, qui regroupe les scénaristes d’Hollywood, unie pour la première fois depuis 1960 avec le syndicat des acteurs d’Hollywood, sont entrés en conflit contre l’Alliance des producteurs de films et de télévision (AMPTP) pour s’opposer avec succès à l’empiètement croissant de l’intelligence artificielle sur leur profession.
Avec l’accessibilité accrue de l’intelligence artificielle, un cap a été nettement franchi. La technologie s’est considérablement démocratisée. Les logiciels permettant de réaliser des trucages se multiplient et sont faciles d’accès, comme FakeApp, Deep faceLab sur les applications d’IA générative comme Midjourney, Stable Diffusion, Meta et OpenAI avec Dalle E 2. Cette évolution facilite et accélère la création d’images et de vidéos de plus en plus réalistes avec moins de données.
Les deepfake envahissent tous les secteurs rendant difficile la distinction entre réalité et fiction. En politique, on pense immédiatement au deep fake canular d’Emmanuel Macron ramassant des poubelles, de Barak Obama et Angela Merkel bâtissant des châteaux, ou bien encore du Pape François en doudoune blanche créé d’ailleurs avec Midjourney. En musique, un titre anonyme de Ghoswritter utilisant les voix de Drake et The Weekend générées par l’IA est devenu viral sur les réseaux sociaux avant d’être supprimé à la demande d’Universal Music Group. Comme celui à l’été 2023 du beatmaker nancéen nommé Lnkhey remixant, sans autorisation aucune, au moyen du logiciel RVC, permettant de reproduire n’importe quelle voix à l’identique, une chanson des rappeurs Heuss l’Enfoiré et Gazo avec la voix de la chanteuse Angèle. En janvier 2024, la plateforme X a verrouillé la recherche « Taylor Swift » après la diffusion massive de nus de la star générés par l’IA.
Ces images abondamment partagées sur les réseaux sociaux peuvent générer des millions de vues et créer un préjudice considérable à ceux qu’elles visent.
Le 5 juin 2023, le FBI tirait la sonnette d’alarme relativement à la recrudescence des pratiques d’extorsions et sextorsions, au deepfake suite à la réception d’un nombre accru de rapports de victimes, y compris des enfants mineurs, dont les photos ou les vidéos généralement capturées à partir du compte d’un individu sur les médias sociaux, sur internet ont été modifiées en contenu explicite ou sexuel. Ces photos ou vidéos sont ensuite diffusées publiquement sur les médias sociaux ou sur des sites pornographiques, dans le but de harceler les victimes ou de pratiquer la sextorsion. Or, une fois qu’elles ont circulé, les victimes peuvent être confrontées à des difficultés considérables pour empêcher le partage continu du contenu manipulé ou son retrait de l’internet.[4]
Le secteur des affaires n’est pas épargné comme le montre l’escroquerie impliquant Patrick Hillman, COO de la société de cryptomonnaie Binance. Des pirates qui avaient récupéré des images de son visage sont parvenus à créer un avatar virtuel pour mettre en place une escroquerie à la cotation en bourse lors de plusieurs réunions Zoom avec des représentants de projets cryptos. Le but ? Soutirer de l’argent à des usagers potentiels de portefeuilles numériques.
En avril 2022, Europol a rapporté des utilisations criminelles de la technologie incluant la désinformation, la falsification de preuves, la fraude documentaire et la production de pornographie non consensuelle([5]). Le 28 juin 2022, le FBI a également signalé une hausse des plaintes concernant les deepfakes utilisés pour obtenir des postes à distance avec accès à des informations confidentielles.[6].
En septembre 2023, un rapport du New York Times alertait le public sur le fait que des escrocs utilisaient à grande échelle des imitations de voix pour inciter les banques à transférer l’argent de leurs clients.[7] En février 2024, une multinationale de Hong Kong a subi une escroquerie de 25,6 millions de dollars impliquant des deepfakes. La police de Hong Kong a révélé que l’escroquerie consistait en une vidéoconférence à plusieurs personnes dont tous les participants, à l’exception de la victime, étaient des créations de deepfake. Et les exemples sont nombreux.[8]
Les institutions publiques sont également ciblées comme en 2023 lorsqu’un deepfake créé par trois collégiens a attribué des propos racistes au dirigeant d’un collège. La sécurité nationale et la démocratie sont également menacées par cette technologie qui est une source de désinformation et d’influence politique et électorale. En 2022 un deepfake grossier diffusé sur la chaine d’informations Ukraine 24 montrait Volodymyr Zelensky appelant ses soldats à la reddition. En janvier 2024, un Joe Biden beaucoup plus convaincant cette fois appelait les électeurs du New Hampshire avant les primaires et demandait de rentrer chez eux. En février 2024, une fausse séquence de France 24 prétendait qu’Emmanuel Macron avait été victime d’une tentative d’assasinat[9].
Avec la digitalisation croissante de nos vies, la crédibilité des images est en déclin tandis que leur potentiel de nuisance augmente. Les efforts technologiques et législatifs sont désormais essentiels pour maitriser cette technologie et préserver l’équilibre bénéfice risque.
Les solutions technologiques
La technologie évolue rapidement rendant nécessaire des solutions techniques sans cesse renouvelées.
La recherche inversée
Retrouver la vidéo originale via la recherche inversée d’images sur Google Images notamment reste une méthode efficace.
La détection des incohérences
Déceler des incohérences, à l’œil nu ou via des applications dédiées, reste crucial mais ces indices vont se raréfier avec l’amélioration de la technique.
À l’œil nu, on peut être vigilant sur les déséquilibres du corps dans l’image (comme un doigt en trop), ou observer les incohérences liées aux signalisations, aux feux, aux écrits souvent illisibles ou dans les images de deepfake. La recherche d’objets déformés doit également être considérée, comme il faut être attentif au grain de l’image. Pour vérifier si une personne lors d’un appel vidéo est animée en IA, on peut demander à l’appelant de se tourner de côté. Les vidéos deepfake ont encore du mal à générer des vues de profil.
Des logiciels comme InVid et Amnesty Youtube Dataviewer, depuis 2014, aident les journalistes à déterminer si une vidéo est truquée ou manipulée[10]. Des sociétés comme Mayachitra proposent des outils de détection d’images artificielles. Il existe de nombreuses autres solutions algorithmiques visant à traquer les deepfake via l’analyse des traces laissées sur l’image.
Cependant, ces outils ont des limites. En effet, ils identifient des retouches, des traces locales, alors que les images générées par IA sont désormais créées entièrement, pixel par pixel. Elles ne portent donc pas de traces. De plus, la plupart des anomalies visuelles seront bientôt corrigées par les générateurs d’IA.
La signature numérique
Rendre obligatoire le tatouage numérique, c’est-à-dire une signature numérique native, codée, difficilement falsifiable, invisible à l’œil nu inscrite dans toutes les vidéos et images faites par des appareils photos, smartphones ou caméras vidéo pourrait être à terme une solution pour repérer l’œuvre d’une IA[11].).
Le consortium C2PA, impliquant Adobe, Arm, Intel, Microsoft et Truepic et depuis 2024 Google travaille aujourd’hui sur des normes techniques ouvertes pour certifier la source et l’historique des contenus médiatiques. Cette norme intègrerait des métadonnées pour un élément de contenu.
Dall.E a intégré la C2PA dans ses images d’IA, permettant de vérifier la provenance sur des sites comme Content Credentials Verify d’Adobe. Cette norme appelle là encore certaines réserves. D’une part, une telle signature pourrait permettre à des régimes répressifs de traquer les créateurs de contenus. En outre, les métadonnées peuvent encore être supprimées, accidentellement ou intentionnellement.
Pour un enregistrement immuable des métadonnées, la blockchain pourrait être une solution. Enregistrer chaque média sur la blockchain fournirait une empreinte digitale vérifiable. Toutefois, cette solution est énergivore et rien n’empêcherait un producteur de fausses vidéos d’enregistrer son travail sur la blockchain.
Les solutions juridiques
Face à des solutions techniques encore insuffisantes, de quel arsenal juridique disposons-nous à l’heure actuelle pour contrer les effets négatifs du deepfake ?
Le droit français
Jusqu’à récemment, notre droit français ne disposait pas de législation spécifique contre le deepfake. Il était pourtant déjà bien outillé. Face à l’ampleur du risque, la loi n°2024-449 du 21 mai 2024 visant à sécuriser et à réguler l’espace numérique (la loi LSREN) a créé un délit spécifique pour affirmer une position ferme. Elle renforce ainsi les sanctions encourues, la responsabilité des fournisseurs de plateformes et introduit des peines complémentaires.
L’article 226-8 du code pénal, un délit spécifique
Jusqu’à récemment, l’article 226-8 du code pénal punissait d’un an d’emprisonnement et de 15 000 euros d’amende le fait de « publier, par quelque voie que ce soit, le montage réalisé avec les paroles ou l’image d’une personne sans son consentement, s’il n’apparaît pas à l’évidence qu’il s’agit d’un montage ou s’il n’en est pas expressément fait mention ». Avec la loi LSREN, il est désormais aussi interdit de « porter à la connaissance du public ou d’un tiers, par quelque voie que ce soit, un contenu visuel ou sonore généré par un traitement algorithmique et représentant l’image ou les paroles d’une personne, sans son consentement, s’il n’apparait pas à l’évidence qu’il s’agit d’un contenu généré algorithmiquement ou s’il n’en est pas expressément fait mention ». De plus, la commission de ce délit sur les réseaux sociaux devient une circonstance aggravante augmentant les peines à deux ans d’emprisonnement et 45.000€ d’amende.
Un nouvel article 226-8-1 vise plus spécifiquement les deepfakes à caractère sexuel punis de 2 ans d’emprisonnement et 60.000€ d’amende, portés à 3 ans d’emprisonnement et à 75.000€ d’amende si l’infraction est réalisée en ligne. L’article 226-9 punit la tentative et applique les mêmes sanctions aux personnes morales avec une amende encourue quintuplée et une interdiction d’exercice.
Une peine complémentaire de suspension des comptes d’accès à des services en ligne
Un nouvel article L 135-31-1 est créé dans le code pénal pour prévoir une peine complémentaire à disposition du juge visant à prononcer la suspension des comptes d’accès à des services en ligne ayant été utilisés pour commettre l’infraction. Cette peine lorsqu’elle est prononcée sera signifiée aux fournisseurs de services concernés. Lesquels devront à compter de cette signification et pour la durée d’exécution de la peine complémentaire, procéder au blocage des comptes faisant l’objet d’une suspension sous peine de sanction également puisqu’ils encourent désormais une peine de 75 000€ d’amende s’ils ne le font pas.
La création d’une peine spécifique pour viser les situations de sextorsion
Avec la loi LSREN, le délit de chantage de l’article 312 -10 est également modifié pour prévoir l’aggravation de la peine portée de cinq ans d’emprisonnement et de 75 000€ d’amende à 7 ans d’emprisonnement et 100 000 euros d’amende pour le chantage exercé en ligne au moyen d’images ou de vidéo à caractère sexuel ou en vue d’obtenir des images ou des vidéos à caractère sexuel.
Hors les cas susvisés, si le délit de deepfake ne peut être constitué, le juge conserve à sa disposition tout un arsenal répressif et notamment et principalement les délits suivants prévus par le code pénal :
- Les délits d’exhibition sexuelle et de harcèlement sexuel (222-32 et 222-33), d’outrage sexuel (222-33-1-1), de harcèlement moral (222-33-2), de harcèlement scolaire (222-33-2-3), de l’enregistrement et de la diffusion d’images de violence (222-33-3) ;
- Le délit d’atteinte à l’intimité de la vie privée de l’article 226-1 si celle-ci est en jeu. Est puni d’un an d’emprisonnement et 45 000 € d’amende le fait de porter atteinte à l’intimité de la vie privée d’autrui 1° En captant, enregistrant ou transmettant, sans le consentement de leur auteur, des paroles prononcées à titre privé ou confidentiel ; 2° En fixant, enregistrant ou transmettant, sans le consentement de celle-ci, l’image d’une personne se trouvant dans un lieu privé. 3° En captant, enregistrant ou transmettant, par quelque moyen que ce soit, la localisation en temps réel ou en différé d’une personne sans le consentement de celle-ci et en application de l’article 226-2 le fait de conserver, porter ou laisser porter à la connaissance du public ou d’un tiers ou d’utiliser de quelque manière que ce soit tout enregistrement ou document obtenu à l’aide de l’un des actes prévus par l’article 226-1. Lorsque le délit d’atteinte à la vie privée susvisé porte sur des paroles ou des images présentant un caractère sexuel prises dans un lieu public ou privé, les peines sont portées à deux ans d’emprisonnement et à 60 000 € d’amende ;
- Le délit d’usurpation d’identité de l’article 226-4-1 du code pénal qui puni de 15.000 euros d’amende et d’un an d’emprisonnement une telle usurpation s’il en résulte une atteinte à la tranquillité, à l’honneur ou à la considération ;
- Les délits de l’article 227-22 concernant la représentation sexuelle d’un mineur étant rappelé que lorsque l’image ou la représentation concerne un mineur de quinze ans, ces faits sont punis même s’ils n’ont pas été commis en vue de la diffusion de cette image ou représentation étant précisé que le fait d’offrir, de rendre disponible ou de diffuser une telle image ou représentation, par quelque moyen que ce soit, de l’importer ou de l’exporter, de la faire importer ou de la faire exporter, est puni des mêmes peines. Les peines sont portées à sept ans d’emprisonnement et à 100 000 euros d’amende lorsqu’il a été utilisé, pour la diffusion de l’image ou de la représentation du mineur à destination d’un public non déterminé, un réseau de communications électroniques.
- Les délits d’atteintes aux intérêts fondamentaux de la nation des articles 410-1 à 414-9 et notamment du délit de fourniture de fausses informations.
Il ne s’agit bien évidemment que de la liste des délits les plus topiques.
Le droit civil
Si l’infraction pénale n’est pas caractérisée, soit parce que la matérialité de l’infraction n’est pas constituée, soit parce que l’intention n’est pas démontrée, le deepfake peut être sanctionné par le droit civil. Le fondement sera l’article 9 du code civil qui protège le droit au respect de la vie privée et à la protection des autres attributs de la personnalité, en particulier l’image ou la voix. En droit français, est interdite, sauf exceptions strictement limitées tenant au droit à l’information du public, toute atteinte à la vie privée ou reproduction de l’image et/ou de la voix d’une personne.
Cependant cet article ne s’applique pas aux images des personnes décédées, ce qui constitue une limite notable dans la lutte contre le deepfake. Les droits de l’article 9 étant intransmissibles aux héritiers, ces derniers ne peuvent invoquer qu’un préjudice personnel lié à l’atteinte à la mémoire du défunt. Ainsi, des émissions recréant l’image de personnes disparues comme « L’Hôtel du Temps » sur France 3, décrite comme un biopic d’un genre nouveau utilisant l’intelligence artificielle pour recréer des légendes disparues et leur faire raconter leur vie, ont pu être produites. Le concept interroge. Le public n’a d’ailleurs pas adhéré et l’émission a été rapidement suspendue.
De même Amazon a pu annoncer en juin 2022 qu’Alexa pourrait imiter la voix d’une personne défunte sur la base d’une minute d’enregistrement.
Le droit d’auteur et les droits voisins du droit d’auteur prévus par le code de la propriété intellectuelle peuvent compléter l’article 9 lorsque ces droits ne sont pas expirés et/ou cédés pour protéger les interprétations d’artistes ou sanctionner des montages basés sur des images et/ou des séquences audiovisuelles protégées par le droit d’auteur.
Le droit contractuel
Le droit des contrats ne doit pas être minoré. Les questions de l’utilisation d’une voix, d’une prestation, d’une image, d’un fond d’image et/ou de l’utilisation de données sonore dans le cadre de deepfake devront être expressément abordées dans les contrats. Il est évident que la négociation individuelle, lorsqu’elle existe, sera vigilante. La difficulté proviendra principalement des licences non négociées souscrites lors de l’achat de logiciel divers, souvent sans même être lues.
Obligation de surveillance renforcée pesant sur les éditeurs de services de communication au public en ligne fournisseurs de services
Une lutte efficace contre le deepfake nécessite une nécessaire collaboration et mise en responsabilité, des intermédiaires, consacrée par la loi LSREN. La loi a donc accru les mesures de vigilance attendues des éditeurs de services de communication au public en ligne et sur les fournisseurs de services de plateforme et modifié la loi sur 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique.
L’Arcom est ainsi chargée de publier un référentiel déterminant les exigences minimales applicables aux systèmes de vérification d’âge attendu pour le mois de juillet 2024. Les éditeurs et fournisseurs de plateforme auront 3 mois pour se conformer.
En cas de non- conformité, l’Arcom se voit attribuer un pouvoir de sanction avec des amendes allant jusqu’à 250.000€ ou 4% du chiffre d’affaires mondial, les montants étant presque doublés en cas de récidive. L’Arcom peut également demander « aux boutiques numériques d’application logicielle » de bloquer le téléchargement des applications en cause insuffisamment sécurisées sous 48 heures, sous peine d’une amende pouvant atteindre 1% de leur chiffre d’affaires mondial.
Le droit européen
La question des deepfake, éminemment liée à celle de l’intelligence artificielle n’a pas été ignorée dans le cadre des débats ayant conduits à l’adoption du règlement sur l’intelligence artificielle le 21 mai dernier. L’analyse des considérants et notamment du considérant 134 montre la complexité de la question pour les rédacteurs afin que soit préserver une balance équilibrée entre nécessité de la liberté d’expression et renforcement de la lutte contre les deepfake. Et c’est dans ce contexte que l’article 50 du chapitre IV consacré aux obligations de transparence pour les fournisseurs[12] et les déployeurs[13] de certains systèmes d’IA prévoit ainsi « que les déployeurs d’un système d’IA qui génère ou manipule des images, ou des contenus audio ou vidéo constituant un hypertrucage, indiquent que les contenus ont été générés ou manipulés par une IA ». Cette obligation ne s’applique pas lorsque l’utilisation est autorisée par la loi à des fins de prévention ou de détection des infractions pénales, d’enquêtes ou de poursuites en la matière. Lorsque le contenu fait partie d’une œuvre ou d’un programme manifestement artistique, créatif, satirique, fictif ou analogue, les obligations de transparence énoncées au présent paragraphe se limitent à la divulgation de l’existence de tels contenus générés ou manipulés d’une manière appropriée qui n’entrave pas l’affichage ou la jouissance de l’œuvre. En outre, ce règlement ne s’applique pas, ce qui constitue une limite de taille, aux obligations incombant aux déployeurs qui sont des personnes physiques utilisant des systèmes d’IA dans le cadre d’une activité strictement personnelle à caractère non professionnel.
Les législations internationales
À titre d’exemple, nous examinerons les lois chinoises et américaines bien que la plupart des Etats adoptent aujourd’hui des lois similaires.
En Chine, dès janvier 2023, sous l’impulsion conjointe de la Cyberspace Administration of China, du ministère de l’industrie et du ministère de la sécurité publique, de nouvelles réglementations sur les technologies de deepfake ont été mises en œuvre. Cette loi interdit notamment l’utilisation de ces technologies pour la diffusion de « fake news » ou d’informations susceptibles de perturber l’économie ou la sécurité nationale, les autorités disposant d’une grande latitude pour l’interpréter. Les fournisseurs de technologies de deepfake doivent prendre des mesures pour empêcher l’usage illégal de leurs services, protéger la vie privée en exigeant le consentement des utilisateurs, authentifier l’identité des utilisateurs et étiqueter le contenu synthétique[14].
Aux États-Unis, aucune loi fédérale ne protégeait les attributs de la personnalité. L’ensemble des auditions menées devant le congrès visait à démontrer qu’il existait donc un vide juridique conséquent en la matière.[15] Certains états se sont dotés de leur propre législation contre le deepfake. Le 21 mars 2024, le Tennessee a adopté le ELVIS ACT « Ensuring Likeness Voice and Image Security Act » pour protéger les musiciens contre l’utilisation non autorisée par l’IA.
Depuis le début de l’année 2024, après la diffusion de fausses images sexuellement explicites de Taylor Swift et le mouvement de manifestation à Holywood, deux projets de loi fédérale sont à l’étude :
- Le DEFIANCE Act of 2024[16], qui devrait permettre aux victimes de poursuivre plus facilement en justice les auteurs de deepfake sexuel ou pornographique sans consentement;
- Le « No AI FRAUD Act » qui doit interdire l’utilisation de deepfakes pour imiter de manière non consensuelle une autre personne, vivante ou décédée. La loi interdirait la production, la distribution ou la mise à disposition publique de répliques numériques non autorisées d’un individu, pendant et après sa mort pendant 70 ans. Les individus pourraient accorder des licences pour leurs droits de réplique numérique, mais avec des exigences strictes comme la représentation par un avocat. Les individus, les entreprises et les plateformes qui enfreignent la loi pourraient faire l’objet de poursuites civiles. Les dommages et intérêts statutaires s’élèveraient à 5 000 $ par violation ou aux dommages réels subis, selon le montant le plus élevé. Des dommages-intérêts punitifs et des frais d’avocat sont également prévus en cas de violation intentionnelle.
À date ce projet reste très critiqué car il ne donne aucune soupape de sécurité permettant l’exercice de la liberté d’expression, telle qu’une exception pour la recherche ou l’utilisation savante. [17]
Malgré les réponses technologiques et législatives évoquées, les deepfake non consentis et les infractions associées sont en augmentation.
Il est clair que la lutte contre les deepfake nécessite une participation renforcée des plateformes et sociétés technologiques. Les plateformes en sont conscientes et ont commencé à agir via la collaboration C2PA mais cela reste insuffisant. L’absence de pistage proactif des moteurs de recherche pour détecter les abus profite encore aux auteurs des campagnes de harcèlement et/ou d’escroquerie par deepfake.
Il est également nécessaire de questionner, plus loin encore que le fait déjà la loi LSREN, la légitimité même de ces applications grand public dont l’unique objet est de proposer des solutions de deepfake. Ne s’agit-il pas d’une mise en danger des individus, souvent jeunes, qui sont les premières victimes de ces logiciels ? Ces applications ne se font-elles pas complices, voir responsable au sens de l’article 1240 du code civil en cas de harcèlement facilité par leurs solutions ? En créant ces offres, n’ont-elles pas une responsabilité accrue quant à l’usage qui est fait de leurs produits ?
Bien évidemment, la réflexion sur ces questions exige également une prise de conscience à un niveau individuel de la nécessaire responsabilité de chacun. À défaut de repli vers l’univers physique, il est crucial de maintenir une vigilance renforcée dans l’utilisation de ces technologies, et dans notre rapport à l’image et à sa diffusion. En gardant à l’esprit que les dispositifs virtuels ne sont à l’heure actuelle pas fiables de sorte qu’ils doivent impliquer la mise en place de process de sécurité complémentaires dans l’accomplissement des transactions notamment. Et, comme y invitait Europol en 2022 ou le FBI en 2023 que toute image partagée en ligne peut être détournée à des fins illégales fournissant à des criminels une abondance de contenu exploitable. Par conséquent chaque individu doit faire preuve d’une extrême prudence en ligne car une fois qu’un contenu est partagé sur internet, il peut être extrêmement difficile, voire impossible, de le supprimer. Il est essentiel de vérifier les contrôles de confidentialité sur ses réseaux sociaux. Et d’examiner attentivement toute demande d’amitié ou de communication avec des personnes que l’on ne connaît pas directement. Comme le suggère Celia Zolynski, professeur à l’université de Paris 1 Sorbonne, « un nouveau droit au paramétrage des réseaux sociaux permettant aux utilisateurs de redessiner leurs interactions sur les plateformes » pourrait également être une véritable arme contre ces vecteurs de criminalité en ligne.[18]
[1] Art 3 de l’IA Act adopté par le conseil européen le 21 mai 2024 https://artificialintelligenceact.eu/fr/
[2] https://www.liberation.fr/international/europe/bienvenue-en-tchetchenie-au-coeur-de-la-resistance-lgbt-en-russie-20210511_URWKWF7CZZDM3DJODSTFWMYGAE/?redirected=1&redirected=1
[3] https://www.wipo.int/wipo_magazine/fr/2022/02/article_0003.html
[4] https://www.ic3.gov/Media/Y2023/PSA230605
[5] Facing reality ? Law enforcement and the challenge of deepfake. https://www.europol.europa.eu/publications-events/publications/facing-reality-law-enforcement-and-challenge-of-deepfakes
[6] https://www.ic3.gov/Media/Y2022/PSA220628
[7] https://www.nytimes.com/2023/08/30/business/voice-deepfakes-bank-scams.html
[8] NBC Chicago. 27 mai 2024. Deepfake scams have robbed companies of millions. Expert warn it could get worse. https://www.nbcchicago.com/news/business/money-report/deepfake-scams-have-robbed-companies-of-millions-experts-warn-it-could-get-worse/3447854/
[9] https://www.france24.com/fr/%C3%A9missions/info-ou-intox/20240216-france-24-victime-d-un-deepfake-l-intox-continue-%C3%A0-circuler-sur-le-web
[10] Comment vérifier une vidéo ? Sur les observeurs de France 24. https://observers.france24.com/fr/20180401-guide-verification-factchecking-comment-verifier-video
[11] https://linc.cnil.fr/le-tatouage-numerique-une-mesure-de-transparence-salutaire-22 Le tatouage numérique, une mesure de transparence salutaire ? Alexis Léautier – 27 octobre 2023
[12] Art 3.3 « fournisseur », une personne physique ou morale, une autorité publique, une agence ou tout autre organisme qui développe ou fait développer un système d’IA ou un modèle d’IA à usage général et le met sur le marché ou met le système d’IA en service sous son propre nom ou sa propre marque, à titre onéreux ou gratuit.
[13] Art 3.4 « déployeur », une personne physique ou morale, une autorité publique, une agence ou un autre organisme utilisant sous sa propre autorité un système d’IA sauf lorsque ce système est utilisé dans le cadre d’une activité personnelle à caractère non professionnel
[14] Conférence tenue à l’Institut Oxford Martin Scholl par le Professeur Mimi Zhou, de l’Universite D’Exeter. China’s Deepfake Regulations: navigating security, misinformation and innovation https://www.youtube.com/watch?v=_bfoq5y6Rsw
[15] https://oversight.house.gov/hearing/advances-in-deepfake-technology-2/
[16] https://www.congress.gov/bill/118th-congress/senate-bill/3696
[17] https://www.congress.gov/bill/118th-congress/house-bill/6943
[18] Conseil national du numérique. Vers la consécration d’un droit au paramétrage ? Échange avec Célia Zolynski
Vous avez aimé l’article ?
N’hésitez pas à le partager et à nous suivre sur nos réseaux sociaux pour en apprendre plus