Ce lundi 29 avril, une association autrichienne a annoncé déposer plainte contre ChatGPT. L'interface est visée par plusieurs poursuites, dans différents pays.
ChatGPT «divague», «invente des réponses» et est «incapable de corriger ses erreurs». Ce lundi 29 avril, l'association autrichienne Noyb a annoncé le dépôt d'une plainte contre la célèbre interface d'intelligence artificielle (IA) générative. Le logiciel est poursuivi en justice dans plusieurs pays, notamment pour son usage jugé abusif des données personnelles et pour des accusations de violation des droits d'auteur.
Dans son communiqué, Noyb (pour «None of you business», soit «Ce ne sont pas vos affaires» en anglais) indique avoir interrogé ChatGPT sur la date de naissance de son fondateur, Max Schrems, et constaté que l'agent conversationnel «a systématiquement donné une fausse information» au lieu de reconnaître qu'il ne savait pas. «ChatGPT divague» et même son éditeur «ne peut l'empêcher», accuse l'association.
Sachant que l'article 5 du Règlement général européen sur la protection des données (RGPD) stipule que les informations concernant des personnes doivent être exactes et que tout traitement de données doit être loyal, Noyb estime qu'Open AI, l'éditeur américain de ChatGPT, ne se plie pas à la loi. «Si un système ne peut fournir des résultats corrects et transparents, il ne saurait être utilisé pour générer des données sur des individus», insiste Maartje de Graaf, l'avocate de l'association.
noyb has filed a complaint against the ChatGPT creator OpenAI
OpenAI openly admits that it is unable to correct false information about people on ChatGPT. The company cannot even say where the data comes from.
Read all about it here https://t.co/gvn9CnGKOb— noyb (@NOYBeu) April 29, 2024
Cette nouvelle plainte n'est pas sans rappeler celle déposée en France en avril 2023 auprès de la Commission nationale de l'informatique et des libertés (Cnil) par le député français Eric Bothorel (Renaissance). A l'époque, il avait lui aussi dénoncé des infractions au RGPD après avoir constaté que ChatGPT diffusait des informations erronées le concernant.
L'interface se trompait par exemple sur sa date et son lieu de naissance, lui prêtait des mandats de maire qu'il n'a jamais endossé et le présentait comme le député de la 2e circonscription des Côtes-d'Armor au lieu de la 5e.
La Cnil a ouvert une «procédure de contrôle» pour instruire au moins cinq plaintes contre le robot d'intelligence artificielle d'OpenAI. Au dossier d'Eric Bothorel s'ajoute notamment celui de l'avocate Zoé Vilain. La présidente de Janus international, association de sensibilisation aux enjeux du numérique, avait déploré l'absence de «conditions générales d'utilisation» à accepter et d'«une quelconque politique de confidentialité» lors de la création d'un compte OpenAI.
Une troisième plainte française a été déposée par David Libeau, développeur très investi dans la protection des données personnelles, visant là encore des informations personnelles le concernant dans ChatGPT. «Lorsque je demandais plus d'informations, l'algorithme a commencé à affabuler et à m'attribuer la création de sites web ou l'organisation de manifestations en ligne, ce qui est totalement faux», avait-il expliqué auprès de l'AFP.
En 2023, fin mars, ces craintes liées à l'utilisation des données avait conduit l'Italie a devenir le premier pays dans le monde occidental à bloquer purement et simplement ChatGPT. L'Autorité italienne de protection des données personnelles accusait le robot conversationnel de ne pas respecter la réglementation européenne et de ne pas vérifier l'âge des usagers mineurs.
Elle a réautorisé le programme d'IA un mois plus tard, après avoir estimé que «des pas en avant» avaient été «accomplis pour conjuguer le progrès technologique avec le respect des droits des personnes».
Les enjeux sont tels qu'un groupe de travail a été lancé au niveau de l'Union européenne (UE). Le Comité européen de la protection des données (EDPB), chargé de coordonner les autorités équivalentes à la Cnil des différents pays membres, a souligné la nécessité d'installer une coopération européenne mais aussi un échange d'informations sur le sujet, notamment concernant les éventuelles actions qui pourraient être prises envers ChatGPT.
Une plainte au Canada
Le problème dépasse les frontières européennes puisqu'une enquête a également été ouverte en avril 2023 au Canada, là encore «à la suite d’une plainte selon laquelle des renseignements personnels ont été recueillis, utilisés et communiqués sans consentement».
Les concepteurs même de l'intelligence artificielle générative, sur laquelle repose ChatGPT pour générer des réponses, reconnaissent certains travers et notamment une tendance à inventer des faits. L'un des grands enjeux à l'heure actuelle est donc d'apprendre à l'IA comment effacer ses erreurs.
Sachant que cette technologie est «entraînée» en ingurgitant de gigantesques corpus de textes glanés sur internet, la perspective de reprendre cet apprentissage depuis le début parait bien trop longue et coûteuse. A l'heure actuelle, les ingénieurs espèrent donc plutôt trouver le moyen d'intervenir de manière ciblée, en écartant les informations fausses du champ de connaissance des IA afin d'en stopper la propagation.
L'une des solutions envisagées serait d'introduire un algorithme ordonnant à l'interface de ne pas tenir compte de certaines informations apprises sans avoir à modifier toute la base de données. A priori, cela permettrait de répondre facilement à des demandes de suppression, dans le but d'être en conformité avec la protection des données personnelles.
La question des droits d'auteur
Cela ne résoudrait cependant pas tous les problèmes, puisque ChatGPT est également visé par plusieurs plaintes concernant des violations de droits d'auteur. Plusieurs écrivains, parmi lesquelles George R.R. Martin, à qui l'on doit Game of thrones, ont en effet saisi la justice contre OpenAI, qu'ils accusent d'avoir utilisé leurs œuvres sans autorisation afin d'entraîner l'interface.
Le New York Times a engagé des poursuites similaires en décembre 2023 auprès d'un tribunal fédéral à New York. Elles visent Open AI mais aussi Microsoft, dont les IA génératives reposent «sur des modèles d'apprentissage massif construits en copiant et en utilisant des millions d'articles du Times protégés par les droits d'auteur». Dans sa plainte, le journal estime que le préjudice financier pourrait représenter «plusieurs milliards de dollars».
OpenAI s'est défendu, assurant respecter «les droits des créateurs de contenus et propriétaires». Nous «souhaitons travailler avec eux pour nous assurer qu'ils bénéficient de l'IA et de nouveaux modèles de revenus», a assuré un porte-parole.
Le New York Times a en effet tenté de négocier un accord avec la start-up afin de «recevoir une compensation adéquate pour l'utilisation de ses contenus». Un arrangement existe déjà entre OpenAI et le groupe de médias allemands Axel Springer, mais il ne concerne que l'intégration de ses contenus dans les réponses aux requêtes des utilisateurs de ChatGPT et non leur utilisation pour entraîner l'IA générative.
Si le New York Times obtient gain de cause, cela pourrait donc représenter une potentielle source de revenus pour les médias partout dans le monde. OpenAI ne semble toutefois pas disposée à coopérer puisque l'entreprise a déposé un recours en justice en février dernier, pour demander au tribunal d'exclure certains éléments et chefs d'accusation de la plainte du New York Times.
La start-up accuse le journal d'avoir «payé quelqu'un pour pirater les produits OpenAI» dans le but de «générer les résultats hautement anormaux qui constituent» l'une des preuves de sa plainte. Citant des éléments de jurisprudence, l'entreprise assure qu'il est légal d'utiliser du matériel protégé par le droit d'auteur «dans la création de produits nouveaux, différents et innovants». OpenAI s'est dite certaine de l'emporter «parce que personne - pas même le New York Times - n'a le droit de monopoliser les faits ou les règles de la langue».