Fermer

Choisissez un pays

Grande BretagneEnglish
Afrique du SudEnglish
SurinameEnglish
InternationalEnglish

[Médias Sociaux] Facebook, Instagram et YouTube face au défi de la modération

Blog
22nd November 2016

Dans la relation client, les réseaux sociaux sont devenus des canaux d’expression stratégiques. Les grandes marques établissent désormais le dialogue à travers ces supports, via des pages ou comptes officiels, qui pour les clients permettent de questionner et surtout de se plaindre. Ainsi, les pages publiques des entreprises sur les réseaux sociaux accueillent quelquefois des messages injurieux ou diffamatoires, qui peuvent nuire à leur image de marque et mettre en péril leur réputation.

Plusieurs associations ont alors signalé le laxisme des réseaux sociaux concernant les propos haineux. Si la nudité est sanctionnée, l’homophobie ou encore le racisme passent souvent à travers les mailles du filet. Les réseaux sociaux les plus utilisés font donc aujourd’hui face au défi de la modération.

Comment les médias sociaux font-ils face à ce défi ?

#1 Instagram

Le réseau social qui n’en finit plus de compter le nombre d’inscrits a annoncé la mise en place de règles permettant de modérer les commentaires : les comptes professionnels peuvent désormais bloquer des commentaires, via un système de filtres qui verrouille les mots et expressions fréquemment signalés par les utilisateurs. L’objectif est de conserver des commentaires constructifs, utiles et positifs sur le réseau social.

Le Spam s’était en effet multiplié ces derniers temps. Ce nouvel outil devrait donc considérablement réduire le nombre de propos choquants et inappropriés, et à termes, renforcer la sécurité des profils business. Une bonne nouvelle pour les community managers et influenceurs, qui croulent parfois sous la multitude de commentaires indésirables.

instaa

#2 YouTube.

YouTube a annoncé il y a peu le recrutement de « héros » pour aider à la modération. La plateforme de vidéos vient ainsi de créer le statut de « YouTube Heroes » pour pousser des utilisateurs à s’impliquer davantage dans la modération de contenus. Leur mission ? Devenir des experts du signalement de contenus abusifs, gravir les échelons de la communauté et, à terme, tester des produits avant leur sortie (selon Les Numériques).

Présenté sous forme de jeu avec différents niveaux, ce programme débloque des récompenses en fonction du nombre de points accumulés par chaque participant. Des gratifications d’une nature un peu étrange, puisqu’elles consistent à « participer à des workshops exclusifs », découvrir en avant-première des nouvelles fonctionnalités et… accéder à un outil permettant de signaler des contenus en masse. En clair, YouTube récompense l’implication de ses utilisateurs en leur donnant les moyens de s’impliquer davantage et plus efficacement.

A notre avis, il y a peu de chance que cela fonctionne. Ou que cela suffise, car l’incentive est faible. Mais l’initiative mérite d’être signalée ! Et cela permet de communiquer positivement sur le sujet.

YOUTUBE

#3 Facebook

Facebook compte beaucoup sur sa communauté de membres pour s’autoréguler, puisqu’un gros effort a été fait avec le système de signalement, qui permet un premier tri des contenus. Facebook ne peut pas contrôler par défaut tout contenu posté sur son réseau, il vérifie à minima les contenus signalés par ses utilisateurs.

Par ailleurs, imaginons que Facebook soit en mesure de contrôler tous les contenus publiés et le fasse: cela ne ferait-il pas fuir les utilisateurs attachés à une certaine confidentialité (que Facebook défend par ailleurs)? C’est une question de rentabilité: si Facebook est assimilé à un endroit où l’on ne peut rien dire, il court un risque d’exode massif de ses utilisateurs.

De nombreux médias se sont récemment fait échos à propos d’une erreur de modération appliquée par Facebook, et qui a fait le buzz. En résumé, Erna Solberg – première Ministre en Norvège –  et le grand quotidien AftenPosten se sont vus bloqués sur Facebook pour avoir publié la célèbre photo de la guerre du Vietnam montrant une fillette, nue, brulée au Napalm. Censure pour pédopornographie ? Algorithme mal réglé ? Non, simple erreur humaine de modération selon eux! Faute avouée, à moitié pardonnée ? C’est rare que Facebook admette une erreur de ce type en tout cas.

viet

 

Vous souhaitez bénéficier de la compétence de professionnels de la modération de contenus ? En faisant appel à notre agence de modération Netino, vous avez la garantie d’un résultat à la hauteur de vos exigences. Notre équipe de modérateurs dispose d’une solide expérience dans le domaine et peut aisément s’adapter aux termes de votre Charte de Modération.

 

Nous vous recommandons de lire également :


Laisser un commentaire

Your email address will not be published.Required fields are marked *


Article par: Delphine Burbaud

Actualités et informations

Recommandés pour vous…...
Service Provider
Solution Designer
Technology Enabler