Droit d’auteur et intelligence artificielle

Photo de Gertrūda Valasevičiūtė sur Unsplash

Introduction

L’intelligence artificielle était, jusqu’il y a peu, un sujet de niche.

Mais, depuis l’avènement de ChatGPT et de Midjourney, le sujet fait régulièrement la une des médias généralistes.

Les nombreux problèmes qu’est susceptible de poser l’intelligence artificielle sont réels et méritent d’être abordés.

Parmi ceux-ci, l’on trouve, notamment, les manipulations de l’opinion par la création de “deepfakes” ou le risque qu’un nombre important de professions tombent en désuétude.

Le droit d’auteur n’échappe pas à ce débat. Nous en avons déjà parlé ici.

Je vous renvoie également à mon ouvrage Le droit d’auteur en questions, pages 310 à 327, sous le titre B “Les machines, robots et intelligences artificielles”.

L’objectif du présent article est de mettre en lumière quelques-uns des problèmes posés par l’intelligence artificielle en lien avec le droit d’auteur. Ceci du point de vue d’un avocat belge (la situation pourrait donc être différente dans d’autres pays, spécialement hors de l’Union européenne) et sans vocation à l’exhaustivité (des livres entiers pourraient être écrits sur le sujet, qui est évolutif et complexe).

La création débridée et son impact sur l’originalité

Un premier problème pourrait émerger en relation avec l’originalité des oeuvres.

Pour rappel, l’originalité est la condition de protection par le droit d’auteur. Ce qui signifie que si une oeuvre n’est pas originale, elle ne peut pas être protégée par le droit d’auteur.

L’examen de l’originalité est relativement complexe (si cela vous intéresse, je vous renvoie aux pages 115 à 207 de mon ouvrage Le droit d’auteur en questions) ; mais, pour schématiser, l’on peut considérer que la banalité exclut l’originalité.

La banalité a deux sens : (i) ce qui est à la portée de tous, ce qui pourrait être réalisé par tous et (ii) ce qui a déjà été fait et refait, ce qui est courant.

C’est surtout le deuxième sens qui nous intéresse ici.

En effet, si l’intelligence artificielle permet, toujours plus vite, l’émergence d’un nombre exponentiel d’oeuvres, le champ du banal risque de s’étendre tout aussi exponentiellement ; et, dans une pareille hypothèse, il risque d’être plus difficile de revendiquer une oeuvre originale, a fortiori pour le “simple” créateur humain.

Pour le dire autrement, la création de masse par l’intelligence artificielle risque d’être un obstacle à l’originalité, en particulier pour les créateurs humains, en raison du champ (exponentiel) d’antériorités que cette intelligence artificielle va engendrer.

Une solution pourrait être de réduire le champ des antériorités pertinentes aux créations humaines, mais cela poserait nécessairement d’autres questions épineuses.

Quid, par exemple, d’un créateur humain qui aurait copié l’intelligence artificielle ; pourrait-il revendiquer une protection par le droit d’auteur ? Sur le principe, la réponse est difficilement affirmative (il n’a rien fait d’original, il n’a fait que copier ce qui existe déjà, en l’occurrence une création de l’intelligence artificielle).

De plus, il faut être conscient que distinguer la création humaine de la création par intelligence artificielle ne sera pas toujours aisé en pratique.

La protection des oeuvres créées par intelligence artificielle

Un autre problème est celui de la protection des oeuvres créées par intelligence artificielle.

Y a-t-il matière à protection, lorsque c’est l’intelligence artificielle qui crée ?

Comme je l’expliquais ici, l’on peut, schématiquement, distinguer deux scénarios :

  • 1er scénario : l’intelligence artificielle est un outil au service de la création (comme un appareil photo, un logiciel de traitement de texte, un logiciel de retouches…), mais c’est l’humain qui crée au moyen de cet outil.
  • 2nd scénario : l’intelligence artificielle crée en toute autonomie (sans intervention humaine au stade créatif).

Dans le premier scénario, la protection par le droit d’auteur est possible si l’humain fait preuve d’originalité (ce qui devra être évalué in concreto et au cas par cas).

Dans le second scénario, la protection parait, en l’état actuel du droit, exclue.

Avec toute la difficulté déjà relevée ci-dessus : il peut se révéler difficile, en pratique, de distinguer la création humaine de la création par intelligence artificielle.

En d’autres termes, si un humain “usurpe” la création d’une oeuvre (alors que celle-ci a été engendrée par intelligence artificielle), une protection pourrait être reconnue, alors même que l’humain n’a (en réalité) pas fait preuve d’originalité (voyez à ce sujet, Le droit d’auteur en questions, p. 319).

Les contenus utilisés par l’intelligence artificielle (“AI training”)

Un autre problème est celui des contenus utilisés par l’intelligence artificielle pour créer (a fortiori, s’il s’agit d’une création autonome).

En effet, lorsque vous demandez à une intelligence artificielle d’écrire un poème, elle ne le fera pas ex nihilo ; mais sur la base de contenus dont elle a été alimentée et à partir desquels elle a été entrainée (“AI training”).

Même chose si vous demandez à une intelligence artificielle de créer une image. Vous entrez des “prompts” dans le système et l’intelligence artificielle vous propose des images. Elle n’a pas créé ces images à partir de zéro, mais elle travaille en tenant compte de contenus existants.

Ces contenus, s’ils constituent des oeuvres protégées au sens du droit d’auteur (textes, images…), peuvent être problématiques pour le propriétaire ou le responsable de l’intelligence artificielle.

En effet, alimenter et entrainer l’intelligence artificielle avec des contenus préexistants, qui peuvent être qualifiés d’oeuvres protégées au sens du droit d’auteur, suppose en principe l’autorisation des auteurs de ces contenus préexistants, car il s’agit d’actes de reproduction d’oeuvres.

Il semble utile de noter que l’exception “pour la fouille de textes et de données” (“text and data mining”), telle que prévue à l’article 4 de la Directive DSM, aura sans doute une influence sur cette question. Mais, examiner cette exception en détail ici nous mènerait bien au-delà de l’objet du présent article.

Le caractère contrefaisant du résultat final produit par l’intelligence artificielle

Il n’y a pas que les contenus utilisés par l’intelligence artificielle pour créer qui peuvent être problématiques (l’input) ; il y a également le résultat final de ce processus de création (l’output).

Quid, en effet, si l’intelligence artificielle produit une image qui est identique ou (très) similaire à une image préexistante ?

Quid encore si l’intelligence artificielle y est parvenue “de manière indépendante” ? C’est-à-dire sans accès à l’image préexistante ? En d’autres termes, quid si l’intelligence artificielle est arrivée à ce résultat identique ou (très) similaire sur la base d’un travail “propre” à partir d’autres images ou d’autres sources ? La théorie de la création indépendante peut-elle s’appliquer aux productions par intelligence artificielle ?

Au-delà de ces questions, c’est celui qui utilisera l’objet créé par l’intelligence artificielle qui risque d’être tenu responsable. Or, cet utilisateur ne sera pas nécessairement au courant de tous les détails du processus créatif de l’intelligence artificielle. Cet utilisateur ne sera donc pas en mesure de prouver la création indépendante (ou non).

La personne qui trouve une photo sur Google Images, et qui décide de l’utiliser sans s’assurer qu’elle peut le faire, s’expose à des risques en termes de contrefaçon.

Il en ira, à mon sens, de même pour la personne qui utilise une image créée par une plateforme d’intelligence artificielle, sans examiner plus avant si l’image produite par cette plateforme ne viole pas les droits de tiers.

FredericLejeuneLogo

Frédéric Lejeune, avocat au barreau de Bruxelles