30
avril
2024
L’ARA au secours de l’accès à la justice ?
Non ce n’est pas un nom d’oiseau. C’est l’acronyme de Audiences de Règlement Amiable lancées en janvier 2023 par le décret n°2023-686.
Après les recommandations du rapport Sauvé, qui souligne l’importance des méthodes alternatives de règlement des différends (MARD), le droit bouge et les mentalités aussi.
La médiation prend un réel essor, les juges commencent à devenir les meilleurs prescripteurs de médiation. Mais saviez-vous que les juges eux-mêmes peuvent aider les parties à trouver un accord ?
La mission de conciliation attribuée au juge est ancienne, mais elle a été peu exploitée jusqu’à récemment. Les juges préfèrent désigner des médiateurs ou conciliateurs tiers, en partie à cause des craintes concernant l’impartialité et le respect du contradictoire.
Le lancement des ARA peut lever certaines de ces barrières.
L’ARA est une audience spéciale où un juge tente de concilier les parties, en présence de leur avocat. Cette audience vise à offrir une résolution du litige qui ne se limite pas seulement à l’aspect juridique mais embrasse les enjeux économiques et relationnels.
L’ARA est initiée par le juge en charge du litige, mais il renvoie l’affaire à un juge responsable de l’ARA qui, de son côté, ne participe pas à la formation de jugement du dossier pour éviter tout conflit d’intérêts. Cette séparation stricte vise à maintenir l’impartialité du juge et la confiance des parties dans le processus.
L’ARA peut être organisée à n’importe quel stade de la procédure, et interrompt l’instance en cours. Elle est réservée aux litiges portant sur des droits dont les parties ont la libre disposition et se tient dans un cadre confidentiel.
Une ARA ne prévoit pas de durée fixe mais est censée être suffisamment concise pour ne pas prolonger inutilement la procédure judiciaire. Les parties, assistées par leurs avocats, doivent comparaître et peuvent à tout moment, parvenir à un accord qui peut être formalisé et rendu exécutoire.
Si aucun accord n’est atteint, l’ARA peut être clôturée sans recours, et le litige revient dans le circuit judiciaire traditionnel.
Les ARA représentent une évolution significative dans la gestion des litiges en France.
En plaçant le juge au centre des MARD, ce dispositif offre une alternative concrète à la judiciarisation excessive, avec une potentielle réduction des coûts et des délais pour les justiciables.
Toutefois, le succès des ARA est encore très mitigé. Il dépend de l’accueil par les juridictions, qui se heurtent à des questions de moyens, d’organisation.
La surcharge des tribunaux et le manque de ressources rendent le travail des juges et greffiers de plus en plus impossible, les procédures s’allongent et les justiciables se plaignent d’un coût de la justice parfois rédhibitoire.
Tout cela doit inciter tous les acteurs à réévaluer le rôle de la justice dans notre société.
Il est essentiel d’encourager toute approche de règlement amiable, qui aide à désengorger les tribunaux, à réduire la judiciarisation des conflits et à restaurer un réel accès à la justice.
Juliette Danjean
Stagiaire juriste
Anne Messas
Avocate – Associée
23
avril
2024
Si l’artiste fait de l’art, la marque parasite
Le tribunal judiciaire de Paris, dans son jugement du 27 mars 20241 a condamné la maison Givenchy au paiement de la somme de 30 000 Euros à l’artiste ZEVS pour avoir commis des actes de concurrence déloyale et parasitisme.
Quelques éléments de contexte
Monsieur Schwarz, connu sous le pseudonyme de ZEVS (se prononce Zeus), est un artiste français urbain de renom dans le milieu du Street Art. Il doit sa notoriété en partie grâce à la réalisation d’une grande série d’œuvres créées à partir de la technique du dripping (ou coulure).
Il détourne ainsi de leur fonction d’origine des symboles de la société de consommation, et notamment des logos de grandes marques, pour donner l’impression qu’ils se liquéfient complètement. Pour ZEVS, les logos sont la pierre angulaire de l’identité des grandes marques donc s’ils se liquéfient, elles disparaissent, en quelque sorte.
En l’espèce, l’œuvre qui est au cœur de l’affaire qui nous occupe appartient justement à cette série de tableaux. En 2010, il réalise « Liquidated Google », ci-après reproduit :
Or, il découvre le 27 août 2020 que la société Givenchy proposait à la vente sur son site internet un t-shirt qui reprendrait, selon lui, les caractéristiques originales de l’œuvre précitée.
ZEVS assigne Givenchy en contrefaçon de ses droits d’auteur et subsidiairement, en concurrence déloyale et parasitisme.
Les juges reconnaissent l’originalité de l’œuvre Liquidated Google
ZEVS précise bien dans ses écritures qu’il ne revendique aucun droit d’auteur sur la technique de la coulure ou du dripping largement rependue dans l’art contemporain, mais bien sur le traitement visuel qu’il en a réalisé dans son œuvre « Liquidated Google ».
Les juges accueillent ce raisonnement en ce qu’ils reconnaissent que l’originalité du tableau réside bien dans la concrétisation du message de ZEVS au sein de l’œuvre matérielle. Il créé l’illusion que le signe est en train de fondre, de saigner, « comme pour le vider de son sens ou de son pouvoir ». Les choix esthétiques opérés par l’artiste pour concrétiser cette illusion traduisent l’empreinte de sa personnalité.
Précisons que l’appropriation du logo de la marque Google n’est pas discutée par le tribunal. Le travail de ZEVS se place directement dans le courant artistique de l’appropriation, consistant à reprendre des œuvres préexistantes, ou des signes distinctifs, pour se les approprier au sein d’une œuvre nouvelle. Il existe cependant une limite entre la liberté artistique qui découle directement de la liberté d’expression, et la contrefaçon. Jeff Koons en a justement fait les frais pour ses œuvres « Fait d’hiver »2 et « Naked »3 jugées contrefaisantes par les tribunaux français. En effet, pour les juges du fond, ces œuvres étaient en réalité des œuvres composites pour la réalisation desquelles, l’accord de l’auteur des premières œuvres était nécessaire.
Alors, Liquidated Google, œuvre composite ou œuvre à part entière dont la reprise d’un signe distinctif ne relève que de la liberté artistique ?
L’on regrette que ce ne soit pas le sujet en l’espèce, mais remarquons cependant le raisonnement des juges concernant la contrefaçon et le parasitisme allégués par ZEVS.
Givenchy n’a pas contrefait l’œuvre de ZEVS mais l’a parasitée
S’agissant du t-shirt commercialisé par Givenchy, les juges réfutent toute contrefaçon de l’œuvre Liquidated Google. En effet, le terme utilisé sur le t-shirt est « GIVENCHY » et non « GOOGLE », les coulures sont des broderies et non de la peinture, et elles sont différentes. Cela est suffisant pour les juges qui considèrent que les caractéristiques originales invoquées par l’artiste ne sont pas reprises (à savoir des coulures irrégulières de longueur différentes, qui dégoulinent de la partie supérieure de chaque lettre).
En revanche, le tribunal retient que les t-shirts commercialisés par GIVENCHY s’inspirent indéniablement des œuvres de l’artiste et notamment de « Liquidated Google ». Les juges considèrent qu’ils sont donc « de nature à créer, pour le consommateur de produits de marque de luxe, une confusion avec celles-ci et ce d’autant plus que les marques de luxe s’associent régulièrement pour leurs créations à divers artistes ».
Il en résulte que Givenchy s’est placée dans le sillage de ZEVS et a tiré indûment profit de sa notoriété. Le tribunal conclut également à des actes de concurrence déloyale puisque le succès d’une telle action n’est pas subordonné à l’existence d’un rapport de concurrence entre les partiesi. Les juges considèrent en effet que « par l’association de sa marque en capitales de couleurs vives sur fond noir, avec des broderies de même couleur que chaque lettre destinées à créer un effet de coulures de peinture, la société Givenchy s’est directement inspirée des créations de M.4 et de sa démarche artistique consistant à donner l’illusion d’une liquéfaction du logo d’une marque de luxe, même si le détail des caractéristiques originales de l’œuvre « Liquidated Google » n’est pas exactement reproduit. »
GIVENCHY est donc condamnée à verser à l’artiste 30.000 Euros de dommages et intérêts pour concurrence déloyale et parasitisme. Alors que ZEVS s’approprie des signes distinctifs en toute légalité, les marques qui s’inspireraient de son travail risquent quant à elles, de se rendre coupables de parasitisme…
Il est indéniable que la concurrence déloyale et le parasitisme sont des fondements juridiques qui peuvent être souvent efficaces pour protéger ses créations lorsque la contrefaçon n’est pas retenue.
L’équipe de TAoMA est à vos côtés pour vous accompagner et vous conseiller au mieux dans la protection de vos créations mais également dans leur défense. N’hésitez pas à nous contacter.
Juliette Descamps
Stagiaire élève-avocat
Jean-Charles Nicollet
Conseil en Propriété Industrielle Associé
(1) Tribunal Judiciaire de Paris, 3e chambre 3e section, 27 mars 2024, n° 21/04132
(2) Tribunal de grande instance de Paris, 8 novembre 2018, n° 15/02536
(3) CA Paris, pôle 5 – ch. 1, 17 déc. 2019, n° 17/09695
(4) Cour de cassation, 3 mai 2016 n°14-24.905
09
avril
2024
En avant vers la régulation des systèmes d’intelligence artificielle
Dès octobre 20201, le Conseil Européen avait mis en avant l’objectif pour l’UE de devenir « un acteur mondial de premier plan dans le développement d’une intelligence artificielle sûre, fiable et éthique ».
La Commission Européenne a publié, le 21 avril 2021 sa proposition de règlement, l’IA Act, établissant un ensemble de règles harmonisées sur l’intelligence artificielle, qui a été adopté par le Conseil de l’Union Européenne fin 2022.
Dans la continuité du parcours législatif, un accord provisoire a été conclu entre le Parlement Européen et le Conseil, le 9 décembre 2023, après 3 jours de négociations.
La législation est finalement adoptée le mercredi 13 mars 2024, par une large majorité des députés européens.
Mais quels sont les apports principaux de ce texte ?
Entre neutralité technologique du droit et régulation asymétrique
L’IA Act adopte une définition très large pour englober tous les systèmes d’IA et ne pas devenir obsolète aux grés des évolutions technologiques : ainsi, il le définit comme étant « un système basé sur une machine conçu pour fonctionner avec différents niveaux d’autonomie, qui peut s’adapter après son déploiement et qui, pour des objectifs explicites ou implicites, déduit, à partir des données qu’il reçoit, comment générer des résultats tels que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer des environnements physiques ou virtuels ».
Si le texte se veut applicable à un large spectre de systèmes d’IA, il propose, paradoxalement, un champ d’application asymétrique, venant relativiser la neutralité technologique revendiquée.
En effet, cette législation fonctionne selon une approche basée sur le risque : les risques sont classifiés en trois niveaux, allant de l’inacceptable au minimal, ayant chacun un régime juridique spécifique.
Si les systèmes d’IA à risques faibles ne sont soumis qu’à une réglementation légère3, les applications d’IA « à haut risque » et les systèmes d’IA à « risques inacceptables » sont, eux, beaucoup plus impactés.
Les systèmes IAs à haut risque sont règlementées
Les IAs à haut risque sont les IAs qui présentent des risques importants pour la santé, la sécurité ou les droits fondamentaux des personnes. L’IA Act lui consacre son Titre III.
Dans un premier temps, sont considérés comme IA à haut risque, « les systèmes d’IA destinées à être utilisées comme composant de sécurité ou qui constituent un tel produit, faisant l’objet d’une évaluation ex ante de la conformité par un tiers ».
Également, est prévu, en Annexe III, une liste limitative de systèmes d’IA à haut risque, dont la Commission Européenne se réserve la possibilité d’y ajouter de nouveaux systèmes, afin de rester pertinent face à l’évolution des technologies4.
Ces IAs sont en principe autorisées sur le marché européen, sous réserve d’être conformes à la réglementation fixée par le Chapitre 2 du Titre III du texte. Ces exigences portent sur plusieurs aspects, tels que la mise en place d’un système de gestion des risques ainsi que la gestion et la gouvernance des données, mais aussi la documentation et la tenue de registres, la transparence et l’information des utilisateurs, le contrôle humain, la robustesse ou encore l’exactitude et la (cyber)sécurité des systèmes.
Ces obligations s’adressent surtout aux fournisseurs de systèmes d’IA. Néanmoins, les utilisateurs, les fabricants, ou les autres tiers ne sont pas en reste et sont également soumis à des obligations, décrites dans le Titre III !
Les IAs à risque inacceptable sont (en principe) interdites.
Le Titre II prévoit une liste de pratiques interdites : cela concerne les systèmes d’IA dont l’utilisation est considérée comme inacceptable, car contraire aux valeurs de l’Union, notamment en raison des violations des droits fondamentaux qu’elle est susceptible d’engendrer.
Sont par exemples interdites5 :
– Les « systèmes d’IA qui utilisent des techniques subliminales échappant à la conscience d’une personne ou des techniques délibérément manipulatrices ou trompeuses, ayant pour objectif ou pour effet de fausser de manière significative le comportement d’une personne ou d’un groupe de personnes en altérant sensiblement la capacité de la personne à prendre une décision en connaissance de cause, (…) »
– Les « systèmes d’IA pour l’évaluation ou la classification de personnes physiques ou de groupes de personnes sur une certaine période de temps, sur la base de leur comportement social ou de leurs caractéristiques personnelles ou de personnalité connues, déduites ou prédites, le score social conduisant » à un préjudice.
Il existe une exception concernant l’utilisation d’un système d’identification biométrique à distance en « temps réel » dans des espaces accessibles au public (apparaissant dans la liste des pratiques interdites), qui pourra être autorisé lorsqu’il est utilisé à des fins répressives. Évidemment, cette exception doit respecter des conditions de nécessité et de proportionnalité !
Les systèmes d’intelligence artificielle qui comportent des risques spécifiques de manipulation sont régis par un cadre réglementaire particulier.
Ce régime spécifique concerne certains systèmes d’IA, notamment ceux destinés à interagir avec des personnes physiques ou à générer du contenu. Ce régime intervient au-delà de la classification des risques, c’est-à-dire que même un système d’IA à risque faible peut être soumise à ce régime de transparence.
Ces systèmes seront soumis à des obligations de transparence spécifiques6.
On peut par exemple mentionner, au titre de ces obligations additionnelles, celle d’information des personnes qu’elles interagissent avec un système d’IA ou encore celle d’information des personnes qu’elles sont exposées à un système de reconnaissance des émotions. Également, le règlement prévoit le cas des « deep fakes7 », pour lesquels il sera obligatoire, sauf exceptions, de déclarer que le contenu est généré par des moyens automatisés.
Conclusion
L’IA Act est un texte dense, qui tente de réglementer les systèmes d’intelligence artificielle, avec pour finalité, de limiter les risques associés à l’utilisation de l’IA et à créer un écosystème de confiance autour de cette technologie.
Il est important de souligner que l’intention n’est pas de créer une réglementation pesant lourdement sur les entreprises ou toute personnes à l’initiative d’un système d’intelligence artificielle. En effet, l’objectif est de se limiter « aux exigences minimales nécessaires » pour répondre aux risques de l’IA, sans pour autant « restreindre ou freiner indûment le développement technologique, ni augmenter de manière disproportionnée les coûts de mise sur le marché de solutions d’IA »8.
C’est d’ailleurs la raison pour laquelle le texte réduit la charge réglementaire pesant sur les PME et les start-up ; et instaure la mise en place de bacs à sables réglementaires offrant un environnement contrôlé qui facilite le développement, la mise à l’essai et la validation des systèmes d’IA9.
Désormais, ce texte doit être adopté officiellement par le Conseil ! La législation entrera en vigueur 20 jours après sa publication au Journal officiel et sera entièrement applicable 24 mois après, à l’exception de certaines dispositions qui entreront en vigueur plus tôt, ou plus tard.
N’oublions pas toutefois que l’IA se développe de jour en jour et n’en est qu’à ses débuts ! Les applications quotidiennes sont aussi nombreuses que les risques qu’elles pourraient engendrer. Dans ce contexte, l’UE innove en tentant de limiter ces risques, sans pour autant limiter le développement de l’intelligence artificielle.
La Team de TAoMA est à votre disposition pour toute question sur ce sujet !
Juliette Danjean
Stagiaire juriste
Jean-Charles Nicollet
Conseil en Propriété Industrielle Associé
1) Réunion extraordinaire du Conseil européen (1er et 2 octobre 2020)
2) Article 3 Titre I de la dernière version du Règlement
3) Voir Titre IX et son article unique, qui encourage les fournisseurs de systèmes d’IA à tenir des codes de conduite, visant à inciter les fournisseurs de systèmes d’intelligence artificielle qui ne représentent pas un risque élevé à adopter volontairement les exigences imposées aux systèmes d’IA à haut risque, telles que définies dans le titre III.
4) Les systèmes d’IAs figurant dans le texte pour le moment, concernent par exemple les systèmes d’IA concernant l’identification biométrique et catégorisation des personnes physiques ou encore les systèmes de gestion et exploitation des infrastructures critiques (gestion et l’exploitation du trafic routier, fourniture d’eau, de gaz, de chauffage et d’électricité).
5) Voir Article 5 Titre II de la dernière version du Règlement
6) Voir Titre IV de la dernière version du Règlement
7) Selon le Parlement Européen, « les «deep fake» sont le résultat de la manipulation d’un média par l’intelligence artificielle », ce sont des « hypertrucages qui altèrent la réalité » (https://multimedia.europarl.europa.eu/fr/audio/deepfake-it_EPBL2102202201_EN)
8) Exposé des motifs de la Proposition de règlement de la Commission Européenne (1 ; 1.1)
9) Voir Titre V de la dernière version de Règlement