Le député français Eric Bothorel, du parti Renaissance, a porté plainte ce mercredi 12 avril, contre ChatGPT auprès de la Commission nationale de l’Informatique et des Libertés (Cnil). De possibles infractions au Règlement général européen sur la protection des données (RGPD) auraient été commises.
«Et le mythe ChatGPT s’effondra». C’est avec ces termes que le député Renaissance Eric Bothorel a annoncé sur Twitter, ce mercredi 12 avril, avoir porté plainte contre le robot conversationnel auprès de la Cnil, gardienne de la vie privée des Français. Cela concernerait de possibles infractions au Règlement général européen sur la protection des données (RGPD).
Et le mythe de chatGPT s’effondra … pic.twitter.com/DZkoAcNK8d
— eric bothorel (@ebothorel) April 11, 2023
Avec deux captures d’écran publiées sur le réseau social en guise de preuve, le député met en cause les informations erronées le concernant transmises par ChatGPT.
Une intelligence artificielle encore incertaine
En effet, il est écrit qu’Eric Bothorel serait né le 20 novembre 1961 à Morlaix (ou le 2 janvier 1975 à Guingamp), qu'il serait maire de Lannion ou Saint-Brieuc, élu dans la 2e circonscription des Côtes-d'Armor, qu'il aurait travaillé dans le journalisme, chez Orange, dans le groupe de communication Havas, ou comme enseignant.
Or, tout est faux : en réalité le député est né le 20 octobre 1966 à Paimpol, n'a jamais été maire, est député de la 5e circonscription des Côtes-d'Armor et a été cadre dans une filiale de General Electric.
Une situation similaire s’est déjà produite plusieurs fois en France, puisque deux plaintes avaient été déposées début avril par l’avocate Zoé Vilain et le développeur David Libeau. A travers le monde également, plusieurs personnes ont accusé ChatGPT d'inventer des informations graves sur leur compte.
Apparu en novembre dernier, ce robot conversationnel a rapidement impressionné par sa capacité à tenir des échanges cohérents et répondre à des questions complexes. Mais ce type d'intelligence artificielle, dite générative, ne fonctionne qu'en «prédisant» des réponses plausibles.
De l'aveu même de son concepteur, la start-up OpenAI, ChatGPT a tendance à produire de fausses informations, pouvant contrevenir au RGPD qui affirme que les informations sur des personnes doivent être «exactes».