Près de 1.500 images correspondant à des abus sexuels sur mineurs ont été retrouvées dans une base de données destinée à entraîner des intelligences artificielles, selon une étude publiée le 20 décembre par des chercheurs de Stanford.
Une faille majeure dans l’entraînement des intelligences artificielles. Ce mercredi 20 décembre, des chercheurs de l’université de Stanford ont dévoilé que des fichiers à caractère pédopornographique étaient présents dans une base de données utilisée dans le cadre de l’entraînements d’IA génératrices d’images.
Menée par une équipe de l’observatoire d’Internet de l’université américaine, l’enquête sur la base de données nommée LAION-5B aurait permis de détecter au moins 1.679 images d’abus sexuels sur des enfants.
Ces images sont principalement issues de sites Internet publics, ce qui entraîne un risque majeur dans le cadre de création d’images par une intelligence artificielle. Dans le cas de la base de données LAION-5B, le risque est important puisqu’elle est utilisée dans le cadre d’entraînement d’IA génératrices d’images comme Stable Diffusion et Imagen, créée par Google.
Un risque de dérive important
Après avoir fait cette découverte, les chercheurs de Stanford ont indiqué avoir signalé les contenus illégaux découverts dans le cadre de leurs recherches, tandis que l’organisation allemande LAION a indiqué à Bloomberg avoir désactivé sa base de données afin de s’assurer que le contenu présent soit conforme.
De son côté, un porte-parole de Stable Diffusion a indiqué que l’entreprise luttait contre l’utilisation de son IA à des fins illégales, dont la création de contenu pédopornographique.
«Cette étude se concentre sur la base de données LAION-5B en tant qu’ensemble», a rajouté le porte-parole, précisant que les modèles de l’entreprise empêchaient l’emploi de certains mots-clés pouvant mener à ce genre de résultats.
Mais malgré ces messages, les chercheurs américains ont confié leurs craintes, alors que certaines images illégales ont été utilisées à plusieurs reprises.
Une pratique qui ferait que les modèles d’IA soient capables d’intégrer un aspect sexuel sur du contenu représentant un enfant, entraînant de possibles dérives.