grok elon musk

Grok accusé : l'IA d'Elon Musk qui crée des deepfakes sexuels sur des femmes et des enfants finit dans le collimateur de l'UE

L'Union européenne ouvre une enquête formelle sur le chatbot X Grok pour avoir créé des images sexuelles non consensuelles, ce qui, selon la Commission, expose les citoyens de l'UE à un « préjudice grave »

L'Union européenne a décidé d'intervenir dans l'affaire Grok, le chatbot d'intelligence artificielle intégré à la plateforme X, accusé d'avoir facilité la création d'images sexuelles non consensuelles de personnes réelles. Un phénomène qui, selon la Commission, a déjà exposé les citoyens européens à des « préjudices graves », notamment les femmes et les mineurs.

Bruxelles a donc ouvert une enquête formelle pour vérifier si X a respecté les obligations énoncées dans le Loi sur les services numériques (DSA), la réglementation qui oblige les grandes plateformes numériques à évaluer et atténuer les risques associés à leurs services, notamment lorsqu'ils peuvent encourager la diffusion de contenus illégaux ou dangereux.

A lire aussi : Boom des photos et vidéos créées avec l'Intelligence Artificielle : astuces pour démasquer les deepfakes

A l'honneur, les risques liés à la production et à la circulation de :

  • images sexuelles manipulées (deepfake)
  • matériel d'abus sexuel sur des enfants
  • contenu lié à la violence de genre

Selon la Commission, X n'aurait peut-être pas procédé à une évaluation préalable des risques spécifiques liés à Grok avant d'activer des fonctionnalités qui modifiaient de manière significative le profil de risque global de la plateforme. Une étape obligatoire prévue par le DSA, notamment lorsque des outils capables de générer des contenus sensibles à grande échelle sont introduits.

Si les violations étaient confirmées, l'entreprise d'Elon Musk pourrait être condamnée à une amende pouvant aller jusqu'à 6 % de son chiffre d'affaires annuel mondial.

Les chiffres rendent le tableau encore plus sérieux. Selon une analyse du New York Times, en seulement neuf jours à partir de fin décembre, Grok a généré environ 1,8 million d'images sexualisées de femmes. Un volume qui donne la mesure de l’ampleur du problème et de la rapidité avec laquelle l’IA peut produire des contenus préjudiciables, sans consentement et sans contrôle effectif.

Les deepfakes sexuels de femmes et d’enfants constituent une forme de dégradation violente et inacceptable. Nous établirons si

En substance, l’Europe veut désormais comprendre si la protection des personnes a été sacrifiée au nom de la rapidité du développement et de l’engagement technologiques.

L'Union européenne n'est pas la seule à agir : ces derniers mois, des mesures réglementaires contre Grok ont ​​également été lancées par le Royaume-Uni, l'Australie, le Canada, le Japon, l'Inde, la Malaisie, l'Indonésie, les Philippines, l'Irlande et la France. Un front international de plus en plus large qui signale que le problème n’est pas marginal, mais structurel.

Début janvier déjà, Bruxelles avait ordonné à X de conserver tous les documents et données internes relatifs à Grok, qualifiant les images qui en ressortaient d' »horribles » et de « dégoûtantes ». À partir de là, les enquêtes nationales et les pressions politiques se sont multipliées.

Au-delà des cas individuels, le problème est plus profond : l’IA générative entre dans nos vies sans barrières solides, sans règles véritablement appliquées, et souvent sans réelle évaluation de son impact sur les droits humains. Et quand un système est capable de produire des millions d’images sexualisées en quelques jours, le risque est déjà une réalité.

L’enquête européenne sur Grok marque une étape clé. Il ne s’agit pas seulement d’une plateforme ou d’un chatbot, mais du principe selon lequel la technologie ne peut pas se développer en sacrifiant la sécurité des personnes les plus vulnérables.

A lire également