Propriété intellectuelle et défis juridiques de l’intelligence artificielle : un cadre en mutation

La rencontre entre propriété intellectuelle et intelligence artificielle soulève des questions juridiques fondamentales qui transforment notre compréhension traditionnelle du droit. Ces technologies génèrent des œuvres, inventent des solutions et traitent des données protégées, remettant en question la notion même d’auteur et d’inventeur. Les systèmes juridiques mondiaux tentent de s’adapter à cette réalité où les machines deviennent créatrices. Entre protection des innovations humaines et reconnaissance des capacités algorithmiques, un nouvel équilibre se dessine. Ce cadre juridique en construction déterminera comment valoriser la création assistée par IA tout en préservant les fondements de notre système de propriété intellectuelle.

Les fondements juridiques confrontés à l’ère de l’IA générative

Le droit de la propriété intellectuelle s’est historiquement construit autour de la figure du créateur humain. Les régimes du droit d’auteur, des brevets et des marques présupposent tous l’intervention d’une personne physique capable de créer, d’inventer ou de concevoir. L’émergence des intelligences artificielles génératives vient ébranler ce postulat fondamental en introduisant des systèmes capables de produire des contenus originaux sans intervention humaine directe.

Le Code de la propriété intellectuelle français, comme la plupart des législations internationales, ne reconnaît pas explicitement la possibilité pour une IA d’être titulaire de droits. L’article L.111-1 du CPI attribue à l’auteur d’une œuvre « du seul fait de sa création » un droit de propriété incorporelle exclusif et opposable à tous. Cette notion de « création » est intrinsèquement liée à une démarche intellectuelle humaine, impliquant choix et personnalité.

Face à cette lacune, plusieurs approches juridiques émergent. La première consiste à maintenir l’exigence d’un créateur humain et à considérer que les œuvres générées par IA sont soit des œuvres dérivées des données d’entraînement, soit des créations assistées où l’humain conserve un rôle déterminant dans les choix créatifs. Une seconde approche envisage l’adaptation du cadre légal pour reconnaître un statut particulier aux créations autonomes d’IA.

La jurisprudence internationale commence à se positionner sur ces questions. Aux États-Unis, l’affaire Thaler v. United States Copyright Office a établi qu’une œuvre générée entièrement par une IA sans intervention créative humaine ne peut bénéficier de la protection du droit d’auteur. De même, l’Office américain des brevets (USPTO) a refusé de reconnaître une IA comme inventeur dans l’affaire DABUS.

En Europe, l’approche semble similaire, bien que la directive européenne 2019/790 sur le droit d’auteur ait introduit des exceptions pour la fouille de textes et de données utilisée dans l’entraînement des IA. Le Parlement européen a adopté en 2023 une résolution non contraignante suggérant que seules les œuvres créées par des humains devraient être éligibles à la protection du droit d’auteur, mais recommande d’explorer des protections alternatives pour les créations générées par IA.

Le défi des œuvres générées par IA

Les œuvres générées par IA posent plusieurs questions spécifiques :

  • La détermination du seuil d’intervention humaine nécessaire pour qualifier une œuvre de protégeable
  • L’identification du véritable créateur entre le développeur de l’IA, l’utilisateur formulant les prompts, ou l’IA elle-même
  • La qualification juridique des œuvres entièrement générées sans intervention humaine significative

Ces interrogations ne sont pas purement théoriques mais ont des implications économiques majeures dans des secteurs comme l’édition, la musique ou les arts visuels. La Cour de justice de l’Union européenne aura probablement à se prononcer sur ces questions dans les années à venir pour harmoniser les approches nationales qui commencent à diverger.

Brevets et inventions par IA : qui est l’inventeur?

Le domaine des brevets constitue peut-être le terrain où la confrontation entre intelligence artificielle et propriété intellectuelle soulève les questions les plus fondamentales. La notion d’inventeur, pierre angulaire du système des brevets, est aujourd’hui mise à l’épreuve par des systèmes d’IA capables de générer des solutions techniques innovantes de façon autonome.

Le cas emblématique de DABUS (Device for the Autonomous Bootstrapping of Unified Sentience), une IA développée par le Dr. Stephen Thaler, illustre parfaitement cette problématique. Cette IA a conçu deux inventions : un conteneur alimentaire basé sur des principes géométriques fractals et un dispositif de signalisation d’urgence. Le Dr. Thaler a déposé des demandes de brevet dans plusieurs juridictions en désignant DABUS comme inventeur, déclenchant une série de décisions juridiques qui dessinent les contours actuels de cette question.

Les offices de brevets des principales juridictions (USPTO aux États-Unis, OEB en Europe, UKIPO au Royaume-Uni, INPI en France) ont unanimement rejeté ces demandes, affirmant que l’inventeur doit être une personne physique. La Haute Cour d’Australie a confirmé en 2022 cette position après qu’une décision de première instance avait initialement accepté la demande. Seule l’Afrique du Sud a accordé un brevet désignant DABUS comme inventeur, mais dans un système d’enregistrement sans examen substantiel.

Ces décisions s’appuient sur des textes fondamentaux comme la Convention sur le brevet européen qui, bien que ne définissant pas explicitement l’inventeur comme une personne physique, a toujours été interprétée en ce sens. L’article 60(1) de la Convention stipule que « le droit au brevet appartient à l’inventeur ou à son ayant cause », présupposant des capacités juridiques que seule une personne physique possède.

Au-delà de la question de l’identité de l’inventeur se pose celle de l’activité inventive, critère fondamental de brevetabilité. Comment évaluer la non-évidence d’une invention pour « l’homme du métier » lorsque l’invention est le fruit d’une IA capable d’explorer systématiquement des millions de possibilités? Cette question pourrait transformer l’appréciation même de ce qui constitue une invention brevetable.

Plusieurs solutions juridiques sont envisagées pour résoudre ces tensions :

  • Désigner le développeur ou l’utilisateur de l’IA comme inventeur, en considérant l’IA comme un simple outil
  • Créer un nouveau régime juridique spécifique pour les inventions générées par IA
  • Adapter les critères de brevetabilité pour tenir compte des capacités spécifiques des IA

Des initiatives législatives commencent à émerger. Le Congrès américain a été saisi de propositions visant à clarifier le statut des inventions générées par IA. Au niveau international, l’Organisation Mondiale de la Propriété Intellectuelle (OMPI) mène une consultation mondiale sur l’IA et la propriété intellectuelle pour harmoniser les approches.

Données d’entraînement et violations de droits : le dilemme des modèles d’IA

L’entraînement des modèles d’intelligence artificielle repose sur l’ingestion massive de données, dont beaucoup sont potentiellement protégées par des droits d’auteur ou d’autres droits de propriété intellectuelle. Cette réalité technique pose un défi juridique majeur : l’utilisation de ces données constitue-t-elle une violation des droits exclusifs de leurs titulaires?

Le processus d’entraînement des modèles génératifs comme GPT-4, Midjourney ou Stable Diffusion implique l’analyse et la reproduction temporaire d’œuvres protégées pour en extraire des motifs statistiques. Le modèle final ne contient pas les œuvres originales mais des représentations abstraites des caractéristiques apprises. Cette distinction technique est au cœur du débat juridique.

Plusieurs actions judiciaires ont été intentées contre des entreprises d’IA pour violation présumée de droits d’auteur. L’affaire Getty Images contre Stability AI allègue l’utilisation non autorisée de millions d’images protégées. De même, les poursuites engagées par des auteurs comme Sarah Silverman contre OpenAI et Meta accusent ces entreprises d’avoir utilisé des livres protégés sans autorisation ni rémunération.

Les entreprises d’IA invoquent généralement la doctrine de l’usage loyal (fair use) aux États-Unis ou les exceptions au droit d’auteur en Europe pour justifier ces utilisations. Elles soutiennent que l’entraînement d’IA constitue une utilisation transformative qui ne concurrence pas directement les œuvres originales.

En Europe, la directive 2019/790 a introduit une exception spécifique pour la fouille de textes et de données à des fins de recherche scientifique (article 3) et une exception plus large mais avec possibilité de réserve par les titulaires de droits (article 4). Ces dispositions ont été transposées de manière variable dans les États membres, créant un paysage juridique fragmenté.

La question du consentement et de la rémunération

Au cœur de cette problématique se trouve la question du consentement des créateurs et de leur rémunération. Plusieurs modèles émergent :

  • Des systèmes d’opt-out permettant aux créateurs de refuser l’utilisation de leurs œuvres (comme le propose Midjourney)
  • Des accords de licence négociés avec des détenteurs de droits (comme l’accord entre OpenAI et Associated Press)
  • Des mécanismes de rémunération collective similaires à ceux existant pour la copie privée

La Commission européenne a publié en 2023 des lignes directrices sur l’application du droit d’auteur aux systèmes d’IA, recommandant la transparence sur les données d’entraînement et encourageant les accords volontaires entre les industries créatives et les développeurs d’IA.

Un autre aspect juridique concerne les données personnelles utilisées dans l’entraînement des IA. Le Règlement Général sur la Protection des Données (RGPD) exige un fondement légal pour le traitement de ces données, comme le consentement ou l’intérêt légitime. Les développeurs d’IA doivent donc naviguer entre les exigences du droit d’auteur et celles de la protection des données personnelles.

Cette tension entre innovation technologique et protection des créateurs illustre la nécessité d’un cadre juridique adapté qui préserve les incitations à la création tout en permettant le développement de technologies d’IA bénéfiques pour la société.

Responsabilité juridique et contrefaçon par IA : qui répond des infractions?

La question de la responsabilité juridique pour les infractions à la propriété intellectuelle commises par ou à travers des systèmes d’intelligence artificielle représente un défi majeur pour les tribunaux et les législateurs. Lorsqu’un système d’IA génère un contenu qui viole des droits préexistants, plusieurs acteurs peuvent potentiellement être tenus responsables : le développeur du système, l’utilisateur qui l’a sollicité, ou l’entité qui diffuse le contenu généré.

Les systèmes d’IA générative comme DALL-E, Midjourney ou Copilot peuvent produire des contenus qui ressemblent étroitement à des œuvres protégées, soulevant des questions de contrefaçon. Contrairement à la copie directe, ces systèmes ne reproduisent pas mécaniquement les œuvres mais génèrent des créations nouvelles qui peuvent incorporer des éléments stylistiques ou substantiels d’œuvres existantes.

Dans l’affaire GitHub Copilot, des développeurs ont allégué que cet assistant de programmation reproduisait parfois des segments entiers de code source sous licence, soulevant des questions de violation de licence et de droits d’auteur. Cette affaire illustre la difficulté à distinguer l’apprentissage légitime de la reproduction illicite.

Le cadre juridique traditionnel de la responsabilité civile et pénale pour contrefaçon s’adapte difficilement à ces nouvelles réalités. La jurisprudence commence tout juste à se former, avec des approches divergentes selon les juridictions.

Aux États-Unis, la doctrine du fair use pourrait offrir une défense dans certains cas, mais ses contours restent incertains pour les œuvres générées par IA. La Section 512 du Digital Millennium Copyright Act (DMCA) prévoit un régime de responsabilité limitée pour les intermédiaires techniques, mais son application aux développeurs d’IA fait débat.

En Europe, la directive sur le commerce électronique et le récent Digital Services Act établissent des exonérations de responsabilité pour les intermédiaires, mais leur application aux services d’IA générative n’est pas explicite. La directive sur la responsabilité du fait des produits défectueux, en cours de révision, pourrait inclure les logiciels d’IA dans son champ d’application.

Chaîne de responsabilité et mesures préventives

Face à ces incertitudes, une chaîne de responsabilité se dessine progressivement :

  • Les développeurs d’IA implémentent des filtres et des garde-fous pour limiter les risques de contrefaçon
  • Les utilisateurs sont souvent tenus contractuellement responsables des infractions résultant de leur usage du système
  • Les plateformes diffusant du contenu généré par IA mettent en place des procédures de notification et retrait

Les conditions d’utilisation des services d’IA générative reflètent cette répartition des responsabilités. OpenAI précise que les utilisateurs sont responsables des contenus qu’ils génèrent, tout en s’engageant à implémenter des mesures techniques pour prévenir les violations les plus évidentes.

Certaines entreprises développent des solutions techniques comme des filigranes numériques ou des systèmes de détection de contenu généré par IA pour faciliter l’identification et la gestion des risques juridiques. Des initiatives comme Content Credentials de la Coalition for Content Provenance and Authenticity (C2PA) visent à établir des standards d’authenticité et de traçabilité pour les contenus numériques.

L’AI Act européen, adopté en 2023, impose des obligations de transparence aux systèmes d’IA générative, exigeant qu’ils divulguent la nature générée des contenus et respectent les droits d’auteur dans leurs données d’entraînement. Cette approche réglementaire pourrait influencer les standards mondiaux en matière de responsabilité.

Vers un nouveau paradigme juridique pour l’ère de l’IA créative

L’émergence de l’intelligence artificielle créative nous pousse à repenser fondamentalement les principes qui sous-tendent notre système de propriété intellectuelle. Ce dernier, conçu à l’origine pour encourager et protéger la créativité humaine, se trouve confronté à des technologies qui brouillent la distinction entre création humaine et production algorithmique. Cette transformation appelle non pas à des ajustements marginaux, mais à l’élaboration d’un nouveau paradigme juridique.

Plusieurs modèles conceptuels émergent pour encadrer cette nouvelle réalité. Le premier consiste à étendre les cadres existants en adaptant les notions d’auteur, d’inventeur et d’œuvre protégeable. Cette approche évolutive préserve les fondements du système tout en l’adaptant aux nouvelles technologies. Le Japon a ainsi modifié sa législation pour faciliter l’utilisation d’œuvres protégées dans l’entraînement des IA, tout en maintenant le principe que seuls les humains peuvent être auteurs.

Une seconde approche, plus révolutionnaire, propose de créer des régimes juridiques spécifiques pour les créations d’IA. Le Royaume-Uni avait initialement adopté cette voie avec une disposition reconnaissant une protection sui generis pour les œuvres générées par ordinateur sans auteur humain, bien que son interprétation reste débattue dans le contexte des IA modernes.

Une troisième voie consiste à reconceptualiser la propriété intellectuelle autour de la notion de valeur ajoutée plutôt que d’origine humaine. Dans cette perspective, ce qui mérite protection n’est pas tant la source de la création que sa valeur économique et culturelle.

Le rôle de la transparence et des métadonnées

La transparence apparaît comme un principe directeur dans ce nouveau paradigme. Les initiatives visant à marquer ou identifier les contenus générés par IA se multiplient, à la fois comme outils de prévention des infractions et comme moyens d’information du public.

  • Les métadonnées intégrées aux fichiers numériques pourraient indiquer l’utilisation d’IA dans le processus créatif
  • Des registres publics pourraient documenter les œuvres utilisées pour l’entraînement des modèles
  • Des systèmes de traçabilité permettraient de suivre l’évolution des créations dérivées

La France a adopté en 2023 une loi exigeant la transparence sur l’utilisation de l’IA dans la création de contenus, reflétant cette tendance vers plus de clarté dans l’écosystème créatif.

Au niveau international, l’OMPI a lancé une série de consultations sur l’IA et la propriété intellectuelle, reconnaissant la nécessité d’une approche coordonnée. Ces discussions pourraient aboutir à de nouveaux instruments internationaux adaptés à l’ère de l’IA.

Les enjeux dépassent le cadre strictement juridique pour toucher à des questions éthiques et sociétales profondes. Comment préserver la diversité culturelle face à des systèmes d’IA entraînés principalement sur des contenus occidentaux? Comment garantir une rémunération équitable aux créateurs humains dont les œuvres nourrissent les algorithmes? Comment éviter la concentration du pouvoir créatif entre les mains de quelques entreprises technologiques?

Le Conseil de l’Europe a adopté en 2023 une recommandation sur l’impact des systèmes algorithmiques sur les droits humains, soulignant l’importance de maintenir l’humain au centre des préoccupations juridiques et éthiques.

Ce nouveau paradigme juridique en construction devra équilibrer plusieurs impératifs parfois contradictoires : encourager l’innovation technologique, protéger les créateurs humains, préserver l’accès à la culture et au savoir, et maintenir la diversité des expressions créatives. Il s’agit d’un défi majeur pour nos sociétés, qui déterminera comment la créativité humaine et artificielle coexisteront dans les décennies à venir.

Questions pratiques et perspectives d’avenir

Face aux défis juridiques posés par l’intersection entre propriété intellectuelle et intelligence artificielle, les acteurs économiques et institutionnels doivent prendre des décisions pratiques sans attendre la stabilisation complète du cadre juridique. Cette situation d’incertitude génère à la fois des risques et des opportunités stratégiques.

Pour les entreprises développant des IA, plusieurs stratégies de mitigation des risques juridiques se dessinent :

  • La constitution de bases d’entraînement légitimes via des licences ou l’utilisation d’œuvres libres de droits
  • L’implémentation de filtres anti-contrefaçon dans les systèmes génératifs
  • Le développement de mécanismes de partage de revenus avec les créateurs
  • L’adoption de politiques de transparence sur les méthodes d’entraînement

Adobe a ainsi lancé son service Firefly en affirmant l’entraîner uniquement sur des contenus libres de droits ou sous licence, établissant un standard potentiel pour l’industrie. De même, Getty Images a développé son propre générateur d’images en partenariat avec NVIDIA, utilisant exclusivement sa bibliothèque d’images sous licence.

Pour les créateurs et titulaires de droits, de nouvelles questions stratégiques émergent : faut-il autoriser l’utilisation de ses œuvres pour l’entraînement des IA? À quelles conditions? Comment valoriser cette nouvelle forme d’exploitation? Des initiatives comme la Société des Auteurs dans les Arts Graphiques et Plastiques (ADAGP) en France commencent à négocier des accords collectifs pour l’utilisation d’œuvres visuelles dans l’entraînement des IA.

Les utilisateurs d’IA générative doivent quant à eux naviguer dans un environnement juridique incertain, particulièrement concernant l’exploitation commerciale des contenus générés. Les politiques des différents fournisseurs varient considérablement : Midjourney accorde une licence commerciale sur les images générées, tandis que Stability AI laisse les droits aux utilisateurs mais avec des restrictions.

Perspectives législatives et réglementaires

Plusieurs initiatives législatives et réglementaires devraient clarifier le paysage juridique dans les années à venir :

En Europe, l’AI Act impose des obligations de transparence et de conformité aux développeurs de systèmes d’IA générative, notamment concernant le respect du droit d’auteur. La Commission européenne prépare également une initiative sur les droits de propriété intellectuelle pour l’IA, attendue pour 2024.

Aux États-Unis, le Copyright Office a lancé une étude approfondie sur l’IA et le droit d’auteur, qui pourrait déboucher sur des recommandations législatives. Plusieurs propositions de loi ont été déposées au Congrès pour clarifier les règles applicables aux œuvres générées par IA.

Au niveau international, l’OMPI poursuit ses consultations qui pourraient aboutir à des recommandations ou à de nouveaux instruments juridiques harmonisés.

À plus long terme, nous assistons probablement à l’émergence d’un écosystème juridique hybride où coexisteront :

  • Des œuvres entièrement humaines bénéficiant de la protection traditionnelle
  • Des œuvres assistées par IA avec un régime de co-création
  • Des œuvres générées par IA avec des protections spécifiques ou limitées
  • Des œuvres librement utilisables dans des communs numériques

Cette diversification des régimes juridiques reflète la complexité croissante des processus créatifs à l’ère numérique et la nécessité d’adapter finement les incitations juridiques aux différentes formes de création.

L’évolution technologique continuera de défier nos cadres juridiques. Les modèles multimodaux comme GPT-4 ou Gemini, capables d’analyser et générer différents types de contenus, soulèvent des questions encore plus complexes de qualification juridique et de responsabilité. De même, les techniques d’apprentissage fédéré ou d’entraînement sur données chiffrées pourraient transformer la problématique de l’utilisation des données protégées.

Dans ce contexte mouvant, la collaboration entre juristes, technologues, créateurs et décideurs publics apparaît indispensable pour élaborer des solutions équilibrées qui préservent à la fois l’innovation technologique et les droits fondamentaux des créateurs.