« Grok a créé du matériel pornographique à partir de nos photos » : trois adolescents poursuivent le xAI de Musk
Un groupe de trois filles, dont deux mineures, ont intenté une action en justice contre xAI, la société d'intelligence artificielle d'Elon Musk, alléguant que le générateur d'images Grok avait utilisé certaines de leurs photos pour produire et distribuer du matériel pornographique.
Il a permis « la création d'images sexuellement explicites» et, évidemment, sans leur consentement. Ainsi, trois jeunes filles américaines attaquent en justice xAI, la société d'intelligence artificielle d'Elon Musk, accusant le chatbot Grok d'avoir généré des images pornographiques à partir de certaines de leurs vraies photos.
Un procès qui intervient après que Bruxelles a lancé une enquête formelle ces dernières semaines et qui pourrait impliquer plus d'un millier de victimes mineures aux États-Unis et qui est lié aux deepfakes du Nouvel An publiés sur X sur lesquels la Californie enquête également aujourd'hui.
Grok accusé : l'IA d'Elon Musk qui crée des deepfakes sexuels sur des femmes et des enfants finit dans le collimateur de l'UE
xAI a choisi de profiter de la prédation sexuelle de personnes réelles, y compris d'enfants, bien qu'elle connaisse parfaitement les conséquences de la création d'un produit aussi dangereux, a déclaré Vanessa Baehr-Jones, avocate des plaignants.
Ce qui s'est passé
Les adolescents ont découvert que des contenus manipulés avec l’intelligence artificielle – notamment des images et des vidéos deepfakes – circulaient en ligne, étaient téléchargés sur des serveurs Discord puis partagés sur d’autres plateformes, comme Telegram.
Dans un cas, l’une des filles a reçu un message anonyme sur Instagram l’avertissant de la présence d’un contenu la représentant nue et dans des poses sexualisées, avec d’autres pairs. Certaines images auraient été générées à partir de photos prises alors qu'il était encore mineur, notamment des clichés tirés du registre scolaire.
Selon ce qui est rapporté dans la plainte, ces matériels ont également été utilisés comme « marchandises de marchandage » dans des circuits illégaux pour obtenir d'autres matériels pédopornographiques.
Après avoir signalé aux autorités, la police a arrêté un suspect, trouvant sur son téléphone un contenu illégal qui aurait été généré à l'aide d'outils basés sur la technologie xAI.
Le procès allègue que le matériel a été créé via des applications tierces utilisant Grok sous licences officielles. Même s’il n’est pas directement réalisé sur la plateforme X, le système s’appuierait tout de même sur les serveurs de xAI, qui profiterait de la diffusion de sa technologie.
Les avocats accusent l'entreprise d'avoir effectivement transféré la responsabilité à des développeurs externes, sans contrôles adéquats sur l'utilisation des outils.
Un problème mondial (et croissant)
L’affaire s’inscrit dans un contexte plus large d’enquêtes et de poursuites contre xAI pour avoir généré des images sexualisées non consensuelles. Selon certaines analyses, Grok aurait produit des millions d'images de ce type en quelques semaines, dont des milliers impliquant des mineurs.
Elon Musk a précédemment nié que le système ait été utilisé pour créer du contenu illégal, affirmant qu'il n'était pas au courant des images de mineurs générées par la plateforme et affirmant que Grok avait été conçu pour se conformer aux lois locales.
Cette affaire ne peut manquer de remettre en lumière un problème de plus en plus urgent : l’utilisation incontrôlée de l’intelligence artificielle dans la manipulation d’images et le manque de protection efficace, notamment lorsque les plus jeunes sont concernés.
Source : Le Gardien
