Community Management

La modération du contenu versus la modération des comportements 

La modération est levier important en community management, mais dans les années à venir, elle risque de nettement migrer vers la modération des comportements au-delà du contenu. Découvrez pour quelles raisons :

La modération, en community management notamment, à jusqu’ici eu trait au contenu et au différents commentaires ou messages laissés sur les réseaux sociaux.

C’est en grande partie le travail du community manager ou d’agences spécialisées proposant des services de modération, comme c’est le cas de Netino by Webhelp.

modération comportements,modération contenu

Découvrons pour quelles raisons la modération du contenu va peu à peu migrer vers la modération des comportements.

 

Qu’est-ce que la modération sur les réseaux sociaux ?

La modération au travers des réseaux sociaux a plusieurs buts mais une même finalité ; soigner son image tout en satisfaisant les besoins et les attentes des clients ou internautes. Il est donc nécessaire de modérer tout commentaire ou propos négatifs, visant à ternir l’image d’une marque ou d’une entreprise, et ce, quelqu’en soit la nature. On parle ici de la modération de contenu en règle général.

Il est également important de soulever qu’un commentaire négatif rédigé par un internaute, ne signifie pas qu’il n’est pas justifié. Toute personne à le droit de manifester son mécontentement envers une entreprise, mais tout en restant respectueuse, et ainsi lui en faire part sur ses espaces sociaux.

La nature d’un commentaire ne doit pas être en opposition à la charte toutefois, sous peine d’une suppression qui sera justifiée. La charte doit également être établie intelligemment, et sans enfreindre la liberté d’expression.

modération en community management

Le rôle de la modération, est généralement attribué à un ou plusieurs community manager(s) selon la nature de l’entreprise, et si elle est présente sur plusieurs réseaux sociaux.

Ainsi la modération vise plusieurs formes de commentaires ou messages qui peuvent être divers et variés :

    • Répondre à des commentaires déplacés ou malveillants,
    • Modérer les trolls jusqu’à parfois les ignorer et les bloquer,
    • Modérer les débats en commentaire qui prennent une mauvaise tournure,
    • Répondre rapidement aux clients mécontents et éviter les prises à partie négatives de la communauté,
    • Supprimer tout contenu ou propos qui va à l’encontre d’une charte (les insultes, le racisme, la diffamation, les incitations à la haine, le contenu auto-promotionnel, les propos liés à la religion et la politique, etc.)

Tout contenu et propos qui ne s’opposent pas à une charte, et s’ils sont négatifs à l’encontre de la marque ou de l’entreprise, doivent systématiquement faire l’objet d’une réponse à apporter. Il n’est surtout pas recommandé de les supprimer sous peine que ça porte préjudice à la structure, car pour diverses raisons, l’internaute à la base du commentaire peut en faire une copie écran et le retourner contre cette dernière.

L’origine d’un bad buzz peut parfois faire suite à la suppression d’un commentaire négatif, mais justifié. Si l’internaute répand la capture écran qu’il aura faite au préalable sur les réseaux sociaux, et appelle à la réaction, cela peut être fortement préjudiciable et entacher l’image de l’entreprise.

 

La modération des comportements 

Pour quelle raison parle-t-on de modération des comportements ? Un propos déplacé, un commentaire négatif etc. pouvant faire suite à un excès de colère de la part d’un internaute, pourrait bien faire état du comportement. Cependant il s’agit bien d’une modération différente ici, car par comportement on pense à des gestes corporels ou une mauvaise attitude se traduisant par des actes répréhensibles. Et où cela peut-il arriver ?

C’est dans les mois et années à venir que la modération des comportements deviendra indispensable et qu’elle se vérifiera, notamment au sein des Metavers. Le Metaverse c’est un univers virtuel qui déconnecte totalement l’utilisateur de la réalité, même si certains domaines d’applications demeurent professionnels.

La modération des comportements 

En se connectant à des mondes recréés après avoir enfilé un casque de réalité virtuelle, l’internaute se coupe de son environnement. On laisse ainsi place à une représentation de l’internaute par le biais d’un avatar, qui peut être plus ou moins représentatif de ce à quoi il ressemble ou pas !

Néanmoins un avatar tel qu’on le percevra, sera rattaché à une vraie personne normalement identifiée. On peut toutefois imaginer que des règles seront malheureusement outrepassées.

Le community management au sein des Metavers sera donc un axe sérieux à envisager et rapidement si les community managers doivent être à jour.

Psychologie et comportement

Dans un monde virtuel et/ou imaginaire, il serait facile de penser que n’importe quelle personne, pourrait faire état de comportement différent de celui qu’elle aurait dans la vie réelle. Un faible peut devenir fort, un timide enjoué, un pauvre devenir riche etc. C’est alors que peu à peu s’immisce la création d’un double et où certains phantasmes peuvent prendre place. Ce qui pourrait paraitre anodin et sans danger jusqu’ici !

Le bémol, c’est la fréquence à laquelle est joué ce rôle et l’addiction qui peut s’en suivre. L’internaute peut alors se désinhiber peu à peu de ses freins, et ne plus faire la différence entre le virtuel et la réalité. La réalité virtuelle porte malheureusement bien son nom, car bien que virtuelle, une grande part de réalité demeure.

Psychologie et comportement au sein des Metavers

La peur y est bien présente, les émotions peuvent être ressenties et les environnements deviendront très certainement photo-réaliste d’ici quelques années. Ce qui augmentera les troubles psychologiques des individus à n’en pas douter.

____________

Revenons à la modération des comportements dans les sphères du community management. Elle sera sans doute très subtile et entrainera des règles à mettre en place. On parle déjà des distances de sécurité à établir comme on a pu l’entendre récemment sur un cas avéré. Si on peut effacer un contenu qui s’oppose à une charte, devra t-on être juge des individus et les interdire d’accéder à des univers ?

Sans doute, car ça reviendrait juste à bloquer un membre sur un espace communautaire, mais comment cela sera vécu quand on a affaire à des personnes qui sont représentées sous formes d’avatars ? Il y aura un contact visuel et donc une possible haine plus forte que sur les réseaux sociaux qui pourrait s’en suivre.

Tout ça pour dire que personne ne semble vraiment préparé, ni le community manager, ni même l’entreprise qui souhaiterait expérimenter les Metavers. Aujourd’hui il demeure des zones d’ombre, mais il y a tout de même une réalité de la modération des comportements, car ce ne seront pas que des mots, mais des gestes, des attitudes visibles et des actuels qui seront à modérer.

Si des entreprises y travaillent et que c’est un vrai sujet, il est recommandé de bien réfléchir à tout ce que terrain fera émerger dans les futures années.

Wait and See !

   

Laurent Bour

Fondateur du Journal du Community Manager et vrai Geek ! je suis passionné par l'univers social media et particulièrement par les nouveaux leviers marketing. J'arpente Internet et les médias sociaux depuis leurs débuts. J'ai assuré mes débuts en informatique sur un Oric Atmos, et j'ai été un vrai fan de l'Amiga. Expert ! Je ne le suis pas. Je continue d'apprendre.

Articles similaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *


The reCAPTCHA verification period has expired. Please reload the page.

Bouton retour en haut de la page
Index