Algorithme incontrôlable: Pourquoi Instagram vous montre-t-il des combats et des accidents mortels?
Depuis le début de 2025, depuis que Trump est retourné à la Maison Blanche, Meta a décidé de changer sa politique de modération aux États-Unis, abandonnant la vérification des faits. Le résultat sera-t-il ceci? Contenu sanglant sans filtres?
Beaucoup se sont produits en ces heures pour rencontrer du contenu sur des réseaux sociaux non exactement légers. Accidents mortels, mutilations et violence de divers types se sont suivis sur les écrans de milliers d'utilisateurs, y compris des adolescents, pendant une période de temps suffisante pour perturber le plus et pour envoyer le dû rapports.
Apporter des centaines de vidéos violentes à apparaître dans les flux Instagram aurait été un Erreur d'algorithmequel objectif il reconnaîtrait, intervenant pour corriger et s'excuser auprès du public.
Lisez aussi: Le régime alimentaire personnalisé: développé l'algorithme qui vous fera perdre du poids?
Cependant, il n'est pas clair combien d'utilisateurs ont été impliqués ou combien de vidéos ont été insérées par erreur parmi les contenus suggérés. Il est vrai que de nombreux membres ont signalé le problème directement à la plate-forme.
La « faute » a eu de graves conséquences: les vidéos ont rLes chronologies avec des restrictions pour un contenu sensible sont également ajoutéesou ceux créés spécifiquement pour protéger les mineurs. The diffused images were particularly shocking, as reported by some US media: road accidents, mutilations at work, fatal falls from attractions in the amusement parks (the videos were shown in sequence, without interruptions, and came from unknown pages to the user, with names such as Blackpeoplebeinghurt, Choquant Et Peupleminghub).
Nous avons résolu un problème qui a fait que certains utilisateurs voient le contenu des rouleaux Instagram Feeds qui n'auraient pas dû être suggérés. Nous nous excusons pour l'inconvénient – a déclaré un porte-parole de Meta.
Cependant, l'entreprise n'a pas fourni de détails sur la nature de l'erreur ou sur la raison pour laquelle le système de contrôle du contenu n'a pas fonctionné comme prévu.
L'incident ravive le débat sur les politiques de méta-modération, déjà sous la loupe après la récente décision d'arrêter le programme de vérification des faits aux États-Unis sur Facebook, Instagram et Threads. Ces trois plateformes comptent au total plus de 3 milliards d'utilisateurs dans le monde.
Nous en avons parlé ici: Facebook, Instagram et Threads: ce que cela signifie que Zuckerberg éliminera la vérification des faits (et quelles sont les conséquences pour vous)
En général, les contenus violents et explicites sont interdits par les Meta Politiques, qui les suppriment généralement pour protéger la communauté. Cependant, dans certaines circonstances, l'entreprise autorise la publication de vidéos avec des images fortes si elle est jugée utile de sensibiliser à des questions telles que des violations des droits de l'homme ou des conflits.
Lisez également:
