14
octobre
2024
Urgence face à l’émergence des Deepfakes
Author:
TAoMA
Dans un rapport publié le 9 juillet 2024, le Copyright Office des États-Unis préconise l’adoption d’une nouvelle loi fédérale pour encadrer l’utilisation des répliques numériques (Deepfakes) générées par l’intelligence artificielle (IA)1.
Cette recommandation intervient dans un contexte où la technologie permet de recréer des voix ou des images humaines de manière incroyablement réaliste, soulevant de nombreuses inquiétudes.
UNE RÉPONSE NÉCESSAIRE FACE AUX PROGRÈS DE L’IA
Bien que les Deepfakes ne soient pas nouveaux, les récentes avancées en intelligence artificielle ont facilité leur diffusion à grande échelle. L’exemple emblématique cité est celui de la chanson « Heart on My Sleeve », qui imitait parfaitement les voix de Drake et The Weeknd sans leur autorisation, et qui a cumulé des millions d’écoutes avant d’être retirée des plateformes.
À l’origine de vidéos innocentes comme celles de célébrités « chantant » ou « jouant » dans des contextes fictifs, ces outils ne se limitent pas à des usages innocents. Ils sont de plus en plus détournés à des fins nuisibles, ce qui met en lumière les lacunes actuelles de notre cadre juridique. Des voix ou des images de personnalités publiques sont imitées pour influencer les électeurs, promouvoir des produits sans consentement, ou encore créer des vidéos pornographiques.
Devant la montée en puissance de ces dérives, le Copyright Office considère que les lois existantes ne sont plus en mesure d’offrir une protection suffisante contre l’utilisation non autorisée de l’image ou de la voix de toute personne, qu’il s’agisse de personnalités publiques comme des artistes, politiciens ou de particuliers. L’agence recommande donc l’adoption d’une nouvelle loi fédérale spécifiquement dédiée à cette problématique.
UN CADRE JURIDIQUE INADEQUAT FACE AUX REPLIQUES NUMERIQUES
Le rapport souligne que le cadre juridique actuel aux États-Unis est insuffisant pour répondre à la menace que représentent ces répliques numériques non autorisées. Malgré l’existence de lois sur les droits à la vie privée et à la publicité, l’absence d’une législation fédérale spécifique rend difficile l’application de sanctions contre les créateurs de Deepfakes. Seuls quelques États ont pris des mesures, tandis que les victimes de Deepfakes se retrouvent souvent sans recours.
Face à ces défis croissants, les législateurs se mobilisent. Le Congrès a ainsi commencé à examiner plusieurs projets de loi, dont le NO AI FRAUD Act et le NO FAKES Act, qui visent à combler ces lacunes. Ces propositions prévoient une protection juridique contre l’utilisation non autorisée de répliques numériques réalistes, y compris des voix ou des images générées par IA, avec des sanctions sévères pour les contrevenants.
Les Deepfakes représentent un équilibre délicat entre innovation technologique et protection des droits individuels. Si ces répliques peuvent avoir des fins créatives, comme ressusciter des artistes décédés ou permettre à des personnes handicapées de retrouver leur voix, elles sont également utilisées à des fins malveillantes. L’impact sur les artistes, les créateurs, et plus largement sur le public, est considérable.
Au-delà des impacts individuels, l’usage malveillant des Deepfakes menace également des institutions fondamentales. La création de contenu trompeur compromet la confiance du public dans les médias et les processus démocratiques. Par exemple, des voix clonées de politiciens ont été utilisées dans des tentatives de manipulation électorale. Les conséquences de telles actions sur la démocratie et la liberté d’expression sont graves, et les experts craignent que la technologie des Deepfakes ne rende bientôt impossible la distinction entre le vrai et le faux.
Le rapport analyse en détail les limites des cadres juridiques actuels face à cette nouvelle problématique. Au niveau des États, les droits à la vie privée et à l’image offrent une protection variable et fragmentée. Au niveau fédéral, ni le droit d’auteur, ni les lois sur la concurrence déloyale ou les communications ne sont pleinement adaptés.
Conscient de l’ampleur du phénomène, le Copyright Office appelle à une réponse rapide à l’échelle fédérale pour mieux encadrer ces répliques numériques. Sans un recours solide à l’échelle nationale, leur diffusion non autorisée menace de causer des préjudices importants, non seulement dans les domaines du divertissement et de la politique, mais aussi pour les simples particuliers.
VERS UNE MEILLEURE PROTECTION DES INDIVIDUS A L’ERE DU NUMERIQUE
Cette recommandation s’inscrit dans une réflexion plus large sur la régulation de l’IA aux États-Unis. Si elle aboutissait, cette nouvelle loi fédérale marquerait un tournant décisif dans la protection des individus face aux risques croissants liés aux Deepfakes et à l’IA. Elle garantirait une protection homogène à l’échelle nationale tout en laissant aux États la possibilité de renforcer ces mesures par des protections locales adaptées.
Le rapport du Copyright Office devrait alimenter les débats au Congrès, où plusieurs propositions législatives, telles que le NO AI FRAUD Act et le NO FAKES Act, sont déjà à l’étude. La question centrale reste de savoir comment le législateur américain parviendra à concilier la nécessité de protéger les individus et la vie privée, avec les impératifs d’innovation technologique et de liberté d’expression.
Alors que les États-Unis tâtonnent encore pour adapter leur législation face à ces nouvelles menaces, l’Union européenne a pris une longueur d’avance en adoptant le Règlement (UE) 2024/16892, qui impose des règles harmonisées pour encadrer les systèmes d’intelligence artificielle. Ce texte vise à assurer la sécurité des citoyens tout en protégeant leurs droits fondamentaux, sans pour autant freiner l’innovation.
Contrairement aux approches fragmentées des États-Unis, qui s’appuient sur des initiatives législatives spécifiques, l’UE a opté pour un cadre global. Ce règlement impose des exigences strictes en matière de transparence, de gestion des risques, et de surveillance des systèmes IA à haut risque, comme les technologies de Deepfakes. L’objectif est clair : protéger les citoyens tout en maintenant un équilibre entre la créativité technologique et la liberté d’expression.
En conclusion, l’émergence des Deepfakes présente des défis inédits pour la protection des droits individuels à l’ère numérique. Si la technologie ouvre des horizons créatifs fascinants, elle comporte également des dangers considérables pour la vie privée, la sécurité, voire les institutions. Les initiatives législatives proposées par le Copyright Office aux États-Unis et le cadre réglementaire européen sur l’intelligence artificielle sont des réponses cruciales à ces enjeux. À mesure que l’IA continue de se développer, il devient impératif de trouver un juste équilibre entre l’innovation et la protection des droits fondamentaux.
Contactez TAoMA pour obtenir des conseils personnalisés ici.
Besoin de vous former ou de former vos équipes aux bonnes pratiques sur le sujet ?
Découvrez les ateliers de TAoMA Academy en nous contactant ici.
Elsa OLCER
Juriste Stagiaire
Jean-Charles NICOLLET
Conseil en Propriété Industrielle Associé
Contactez TAoMA pour obtenir des conseils personnalisés ici.
Besoin de vous former ou de former vos équipes aux bonnes pratiques sur le sujet ?
Découvrez les ateliers de TAoMA Academy en nous contactant ici.
1) https://www.copyright.gov/ai/Copyright-and-Artificial-Intelligence-Part-1-Digital-Replicas-Report.pdf
10
décembre
2018
Droit à l’image du mannequin : un « flou » pas qu’artistique
Author:
teamtaomanews
La jurisprudence relative aux contrats de mannequinat se dessine par petites touches et confirme régulièrement que, comme en matière de droit d’auteur, les droits cédés ne le sont que dans la limite de ce qui est expressément prévu.
Le Juge des référés du tribunal de grande instance de Paris vient de rendre une ordonnance qui confirme ce principe, tout en apportant un élément intéressant relatif au « floutage » du visage du mannequin, réalisé par l’utilisateur de son image afin d’atténuer le préjudice allégué.
Une entreprise offrant des solutions technologiques pour améliorer la santé de ses clients (Umanlife) avait fait réaliser une vidéo promotionnelle où un couple interagissait avec leur nouveau-né, leurs amis et leurs outils high-tech. La durée d’exploitation de l’image des deux personnages principaux avait été fixée à deux ans sans que le point de départ de cette période ait été précisé. Un des deux mannequins avait considéré que la période était échue et, constatant que la vidéo était toujours en ligne, avait mis en demeure Umanlife de cesser cette utilisation.
L’entreprise a alors appliqué un filtre flou sur le visage du demandeur chaque fois qu’il apparaissait sur la vidéo. Estimant que cette mesure n’était pas suffisante, celui-ci a assigné Umanlife en référé, réclamant l’interdiction de la diffusion du spot publicitaire ainsi que la réparation de son préjudice.
Sur la caractérisation de l’atteinte
Le Juge des référés s’est considéré compétent car le trouble manifestement illicite découlait de la « seule violation » résultant du simple fait que le « corps, attribut du droit à l’image, [apparaissait dans la vidéo] ». Le demandeur avançait en effet que, dans le cadre de son métier, il utilisait autant son corps, et notamment ses mains, très exploitées dans la vidéo, que son visage. Ainsi, le TGI reconnaît que le corps du mannequin est protégeable au titre du droit à l’image, au même titre que son visage.
Sur ce point, il est est intéressant de comparer ce jugement à des décisions rendues en matière de protection de la vie privée qui ont conclu, au contraire, que la victime d’un paparazzi pouvait obtenir réparation du préjudice subi à condition que le floutage des images n’empêche pas son identification (notamment Cour d’Appel de Versailles, 6 novembre 2008, RG n°07/08158). La différence de solution semble être justifiée par le fait que le corps du mannequin est bien son instrument de travail et que la nature de l’atteinte est différente.
Le juge a ensuite réglé la question du point de départ de la période de cession du droit à l’image, absent du contrat. Il a interprété le contrat « à la lumière de la volonté des parties » en adoptant comme date d’entrée en vigueur de l’accord celle qui avait été retenue pour établir les redevances régularisées auprès de la deuxième mannequin (qui avait apparemment signé un protocole avec la société à compter du 24 septembre 2015, ce qui impliquait que le contrat initial avait pris fin à cette date), donnant ainsi raison au demandeur.
Il a dès lors constaté que l’image du mannequin avait été exploitée après la période contractuelle et en a déduit une violation du droit à l’image.
Cette ordonnance vient compléter une jurisprudence antérieure qui avait considéré que l’absence de durée précise ne valait pas durée illimitée (TGI Créteil, 1e chambre civile, 15 novembre 2016, Nathalie L. c/ Éditions Concorde).
Sur l’impact du « floutage » opéré par la défenderesse sur la détermination des mesures de réparation
Si le juge a donné raison au demandeur sur le principe, il n’a pas accordé les mesures demandées. En effet, il a estimé que la provision octroyée (4.000€) suffisait, à ce stade, à réparer le préjudice subi et que le retrait de la vidéo serait disproportionné. La justification avancée est que la défenderesse est une simple start-up qui a d’ores et déjà rémunéré la deuxième mannequin pour deux années supplémentaires et flouté le visage du demandeur.
La solution peut paraitre étrange car, si la violation est caractérisée, « peu import[ant] que le visage du demandeur soit ‘flouté’ », elle devrait être sanctionnée par la cessation de l’atteinte. On peut donc voir dans cette ordonnance une application du principe de proportionnalité, qui trouve un terrain d’élection particulier en matière de référé lorsque le juge doit concilier certains droits avec la liberté d’expression, mais également une répercussion de la patrimonialisation de l’image (puisqu’il ne s’agissait pas d’une violation de la vie privée du mannequin, mais d’une atteinte à son outil de travail, une réparation pécuniaire peut être satisfaisante).
Référence et date : Tribunal de grande instance de Paris, Ordonnance de référé du 16 novembre 2018
Lire L’ordonnance sur Legalis