Instagram teste un bouton « je n’aime pas » sur les commentaires, mais il ne fonctionne pas comme vous l’imaginez. Invisible aux yeux des autres, il influencera pourtant ce que vous verrez en priorité. Une arme contre la toxicité ou un risque de censure déguisée ? Voici tout ce qu’il faut savoir.
« Je n’aime pas » ? Instagram teste un nouveau bouton, une révolution silencieuse !
Instagram expérimente un bouton « je n’aime pas » sur les commentaires, une initiative discrète visant à réduire la toxicité sur la plateforme. Contrairement aux systèmes de vote négatif visibles sur d’autres réseaux sociaux, cette nouvelle fonctionnalité ne montre pas publiquement le nombre de dislikes, mais influence l’ordre d’affichage des commentaires.
Instagram tente une approche plus subtile de la modération
L’annonce a été faite par Adam Mosseri, patron d’Instagram, sur la plateforme Threads. Ce test permet aux utilisateurs de signaler, de manière privée, qu’un commentaire leur déplaît ou leur semble inapproprié. Contrairement à YouTube ou Reddit, où les votes négatifs sont souvent visibles, Instagram a choisi de rendre cet indicateur confidentiel afin d’éviter les campagnes de mass-dislike et les effets de meute.
L’objectif principal est d’améliorer la qualité des discussions sur la plateforme. Plutôt que de supprimer directement un commentaire ou de laisser les utilisateurs uniquement signaler un contenu problématique, ce bouton permet une régulation plus organique. Les commentaires les plus mal perçus perdront en visibilité, sans pour autant être supprimés.
D’après un porte-parole de Meta, la fonctionnalité est actuellement testée auprès d’un nombre restreint d’utilisateurs sur les publications et les Reels. Si l’essai est concluant, cette option pourrait être déployée plus largement.
Instagram va tester un bouton "Je n'aime pas"https://t.co/Ut0Xf2gBsp pic.twitter.com/ttKAXtY8vy
— Tech & Co (@techandco) February 20, 2025
Un enjeu pour lutter contre la toxicité en ligne
Instagram, qui appartient au groupe Meta, est régulièrement critiqué pour la présence de commentaires toxiques sous les publications, en particulier chez les jeunes utilisateurs et les créateurs de contenu. La plateforme a déjà introduit plusieurs outils de modération, comme les filtres de mots-clés, la modération automatique et les restrictions sur certains comptes.
Avec cette nouvelle approche, Instagram cherche à responsabiliser sa communauté. Les utilisateurs ont ainsi un moyen discret de signaler du contenu qu’ils jugent déplacé, sans risquer d’alimenter des polémiques publiques. L’algorithme prendra en compte ces retours pour ajuster l’ordre d’affichage des commentaires, favorisant ainsi les échanges plus respectueux.
Toutefois, certains s’interrogent sur l’impact de cette mesure. Si elle permet de limiter la visibilité des propos toxiques, elle pourrait aussi conduire à la mise en retrait d’opinions minoritaires, mais légitimes, simplement parce qu’elles sont impopulaires. Un équilibre délicat que Meta devra surveiller pour éviter tout biais involontaire dans la hiérarchisation des échanges.
Avec ce test, Instagram explore une nouvelle voie pour réguler les discussions sur sa plateforme, sans restreindre directement la liberté d’expression. Reste à voir si cette initiative sera perçue comme un réel progrès par les utilisateurs et si elle produira les effets escomptés.