Urgence face à l’émergence des Deepfakes

Dans un rapport publié le 9 juillet 2024, le Copyright Office des États-Unis préconise l’adoption d’une nouvelle loi fédérale pour encadrer l’utilisation des répliques numériques (Deepfakes) générées par l’intelligence artificielle (IA)1.

Cette recommandation intervient dans un contexte où la technologie permet de recréer des voix ou des images humaines de manière incroyablement réaliste, soulevant de nombreuses inquiétudes.

UNE RÉPONSE NÉCESSAIRE FACE AUX PROGRÈS DE L’IA
Bien que les Deepfakes ne soient pas nouveaux, les récentes avancées en intelligence artificielle ont facilité leur diffusion à grande échelle. L’exemple emblématique cité est celui de la chanson « Heart on My Sleeve », qui imitait parfaitement les voix de Drake et The Weeknd sans leur autorisation, et qui a cumulé des millions d’écoutes avant d’être retirée des plateformes.

À l’origine de vidéos innocentes comme celles de célébrités « chantant » ou « jouant » dans des contextes fictifs, ces outils ne se limitent pas à des usages innocents. Ils sont de plus en plus détournés à des fins nuisibles, ce qui met en lumière les lacunes actuelles de notre cadre juridique. Des voix ou des images de personnalités publiques sont imitées pour influencer les électeurs, promouvoir des produits sans consentement, ou encore créer des vidéos pornographiques.

Devant la montée en puissance de ces dérives, le Copyright Office considère que les lois existantes ne sont plus en mesure d’offrir une protection suffisante contre l’utilisation non autorisée de l’image ou de la voix de toute personne, qu’il s’agisse de personnalités publiques comme des artistes, politiciens ou de particuliers. L’agence recommande donc l’adoption d’une nouvelle loi fédérale spécifiquement dédiée à cette problématique.

UN CADRE JURIDIQUE INADEQUAT FACE AUX REPLIQUES NUMERIQUES
Le rapport souligne que le cadre juridique actuel aux États-Unis est insuffisant pour répondre à la menace que représentent ces répliques numériques non autorisées. Malgré l’existence de lois sur les droits à la vie privée et à la publicité, l’absence d’une législation fédérale spécifique rend difficile l’application de sanctions contre les créateurs de Deepfakes. Seuls quelques États ont pris des mesures, tandis que les victimes de Deepfakes se retrouvent souvent sans recours.

Face à ces défis croissants, les législateurs se mobilisent. Le Congrès a ainsi commencé à examiner plusieurs projets de loi, dont le NO AI FRAUD Act et le NO FAKES Act, qui visent à combler ces lacunes. Ces propositions prévoient une protection juridique contre l’utilisation non autorisée de répliques numériques réalistes, y compris des voix ou des images générées par IA, avec des sanctions sévères pour les contrevenants.

Les Deepfakes représentent un équilibre délicat entre innovation technologique et protection des droits individuels. Si ces répliques peuvent avoir des fins créatives, comme ressusciter des artistes décédés ou permettre à des personnes handicapées de retrouver leur voix, elles sont également utilisées à des fins malveillantes. L’impact sur les artistes, les créateurs, et plus largement sur le public, est considérable.

Au-delà des impacts individuels, l’usage malveillant des Deepfakes menace également des institutions fondamentales. La création de contenu trompeur compromet la confiance du public dans les médias et les processus démocratiques. Par exemple, des voix clonées de politiciens ont été utilisées dans des tentatives de manipulation électorale. Les conséquences de telles actions sur la démocratie et la liberté d’expression sont graves, et les experts craignent que la technologie des Deepfakes ne rende bientôt impossible la distinction entre le vrai et le faux.

Le rapport analyse en détail les limites des cadres juridiques actuels face à cette nouvelle problématique. Au niveau des États, les droits à la vie privée et à l’image offrent une protection variable et fragmentée. Au niveau fédéral, ni le droit d’auteur, ni les lois sur la concurrence déloyale ou les communications ne sont pleinement adaptés.

Conscient de l’ampleur du phénomène, le Copyright Office appelle à une réponse rapide à l’échelle fédérale pour mieux encadrer ces répliques numériques. Sans un recours solide à l’échelle nationale, leur diffusion non autorisée menace de causer des préjudices importants, non seulement dans les domaines du divertissement et de la politique, mais aussi pour les simples particuliers.

VERS UNE MEILLEURE PROTECTION DES INDIVIDUS A L’ERE DU NUMERIQUE
Cette recommandation s’inscrit dans une réflexion plus large sur la régulation de l’IA aux États-Unis. Si elle aboutissait, cette nouvelle loi fédérale marquerait un tournant décisif dans la protection des individus face aux risques croissants liés aux Deepfakes et à l’IA. Elle garantirait une protection homogène à l’échelle nationale tout en laissant aux États la possibilité de renforcer ces mesures par des protections locales adaptées.

Le rapport du Copyright Office devrait alimenter les débats au Congrès, où plusieurs propositions législatives, telles que le NO AI FRAUD Act et le NO FAKES Act, sont déjà à l’étude. La question centrale reste de savoir comment le législateur américain parviendra à concilier la nécessité de protéger les individus et la vie privée, avec les impératifs d’innovation technologique et de liberté d’expression.

Alors que les États-Unis tâtonnent encore pour adapter leur législation face à ces nouvelles menaces, l’Union européenne a pris une longueur d’avance en adoptant le Règlement (UE) 2024/16892, qui impose des règles harmonisées pour encadrer les systèmes d’intelligence artificielle. Ce texte vise à assurer la sécurité des citoyens tout en protégeant leurs droits fondamentaux, sans pour autant freiner l’innovation.

Contrairement aux approches fragmentées des États-Unis, qui s’appuient sur des initiatives législatives spécifiques, l’UE a opté pour un cadre global. Ce règlement impose des exigences strictes en matière de transparence, de gestion des risques, et de surveillance des systèmes IA à haut risque, comme les technologies de Deepfakes. L’objectif est clair : protéger les citoyens tout en maintenant un équilibre entre la créativité technologique et la liberté d’expression.

En conclusion, l’émergence des Deepfakes présente des défis inédits pour la protection des droits individuels à l’ère numérique. Si la technologie ouvre des horizons créatifs fascinants, elle comporte également des dangers considérables pour la vie privée, la sécurité, voire les institutions. Les initiatives législatives proposées par le Copyright Office aux États-Unis et le cadre réglementaire européen sur l’intelligence artificielle sont des réponses cruciales à ces enjeux. À mesure que l’IA continue de se développer, il devient impératif de trouver un juste équilibre entre l’innovation et la protection des droits fondamentaux.

Contactez TAoMA pour obtenir des conseils personnalisés ici.
Besoin de vous former ou de former vos équipes aux bonnes pratiques sur le sujet ?
Découvrez les ateliers de TAoMA Academy en nous contactant ici.

Elsa OLCER
Juriste Stagiaire

Jean-Charles NICOLLET
Conseil en Propriété Industrielle Associé

Contactez TAoMA pour obtenir des conseils personnalisés ici.
Besoin de vous former ou de former vos équipes aux bonnes pratiques sur le sujet ?
Découvrez les ateliers de TAoMA Academy en nous contactant ici.

1) https://www.copyright.gov/ai/Copyright-and-Artificial-Intelligence-Part-1-Digital-Replicas-Report.pdf