Les petits billets de Letizia

Un blog pour donner à réfléchir, pas pour influencer… #SalesConnes #NousToutes


Je ne peux rien enseigner à personne, Je ne peux que les faire réfléchir. (Socrate 470/399 A.JC)

, ,

Entraîner Les IA Sur Des Œuvres Protégées

Entraîner Les IA Sur Des Œuvres Protégées

Réconcilier innovation et justice culturelle grâce à un cadre transparent et partenarial

Je travaille dans le milieu des artistes et je suis impliquée dans la protection de leurs œuvres. Je m’interroge donc sur l’usage des œuvres protégées pour entraîner les intelligences artificielles. Dans un contexte où des décisions judiciaires récentes légitiment une partie de ces pratiques sous l’angle du fair use (utilisation équitable)—ainsi qu’un encadrement juridique encore flou—j’aspire à réconcilier progrès technologique et respect des créateurs et créatrices, mémoire culturelle et innovation.

Un arrêt du juge Alsup a statué que l’entraînement sur des livres achetés constitue un usage transformateur relevant du fair use (utilisation équitable) : « une démarche comparée à celle d’un·e écrivain·e qui apprend des autres pour créer autrement » ([Source], [Source]). Simultanément, Meta a vu une plainte rejetée à San Francisco, non parce que l’usage était jugé définitivement légal, mais en raison d’arguments juridiques mal étayés. Ces jugements marquent un tournant pour l’IA générative, mais mettent en lumière les lacunes d’un cadre légal qui reste dépendant des tribunaux.

J’éprouve un certain malaise devant l’asymétrie entre l’innovation sécurisée par ces décisions et les créateurs et créatrices, souvent privé·e·s de rémunération, dont les œuvres nourrissent ces modèles. J’ai lu, réfléchi et échangé sur le sujet, constatant que la reconnaissance de leur apport n’est pas proportionnelle à l’usage qui en est fait. Il m’est apparu que l’absence de transparence sur les corpus utilisés et l’absence de partage équitable sont problématiques à l’échelle culturelle.

C’est pourquoi je propose une approche intégrée : un encadrement juridique anticipateur, assorti de mécanismes collaboratifs et d’une interprétation éthique du fair use (utilisation équitable). Un cadre législatif prévoyant un registre public des corpus, des chartes de transparence, et l’obligation de déclarer les œuvres utilisées dans l’entraînement. Cet encadrement permettrait de conjurer l’effet « boîte noire » qui mine la confiance entre créateurs et créatrices, plateformes et citoyen·ne·s.

Cela signifierait par exemple que chaque plateforme ou laboratoire d’IA publie la proportion de livres, articles ou œuvres visuelles employées : 40 % web, 30 % livres, etc., comme le suggèrent certaines analyses sur la transparence des corpus ([Source]). L’idée serait aussi d’instaurer des partenariats labellisés avec des collectifs d’auteurs et autrices, où des contrats-types définissent rétribution, conditions d’usage et traçabilité, inspirés de projets comme DECORAIT ([Source]).

Un tel cadre anticipateur garantirait que l’innovation ne soit pas subordonnée à la jurisprudence, mais régie par une loi claire favorisant équité et responsabilité. Il transformerait les entreprises d’IA en véritables partenaires culturels, non plus simples extractrices de contenus.

Cette démarche suppose des efforts techniques (traçabilité, auditabilité), institutionnels (co-construction de chartes entre juristes, créateurs et créatrices et ingénieur·e·s) et politiques (adoption d’un cadre législatif comparable à la Generative AI Copyright Disclosure Act aux États-Unis ([Source], [Source]). Elle répond à mes valeurs : transparence, diversité culturelle, reconnaissance de l’apport humain dans l’intelligence. Sans elles, la culture risquerait l’uniformisation, vidée de ses racines humaines.

En récapitulant, la nécessité d’un cadre éthique, l’importance de la reconnaissance des créateurs et créatrices et la promotion d’une coopération interdisciplinaire se font impérieuses pour éviter que l’IA ne s’impose sans responsabilité. Ces défis dépassent les clivages géographiques ou sectoriels : il s’agit de repenser notre rapport collectif au numérique, à la création, à la mémoire.

Je laisse ici ouverte l’idée que chacun·e peut s’engager : soutenir des plateformes transparentes, réclamer des registres publics, valoriser les créations humaines. Comme l’a formulé Albert Einstein : « La technologie ne vaut que ce que vaut l’homme qui l’utilise ». En espérant que ces réflexions encouragent un dialogue, je vous invite à partager vos idées ou expériences sur ce thème.


En savoir plus sur Les petits billets de Letizia

Abonnez-vous pour recevoir les derniers articles par e-mail.

Laisser un commentaire