1. Accueil
  2. Articles
  3. Algospeak et les conséquences de la modération du contenu sur la réduction des méfaits

Algospeak et les conséquences de la modération du contenu sur la réduction des méfaits

Dans le paysage dynamique et en constante évolution des médias sociaux, un curieux phénomène linguistique est apparu : «langage algo.» Cette langue numériquement native utilise des mots codés avec des significations alternatives pour discuter de sujets trop modérés sur les réseaux sociaux, évitant ainsi la détection par les algorithmes. La croissance de ce langage reflète une bataille continue entre les utilisateurs et les grandes entreprises technologiques. Sur TikTok, il est courant de trouver des gens qui remplacent le terme « suicide » par des expressions telles que «non (vivant)"; emojis ou mots étrangement orthographiés sont également fréquemment utilisés. L'algospeak s'est imprégné de toutes les formes de discours politique sur nos plateformes de médias sociaux, mais le concept n'est pas nouveau et ressemble plus à une version modernisée de Argot des rimes cockney.

Mais Algospeak est bien plus qu’un simple jeu de mots créatif ; c'est la navigation intentionnelle et habile dans le labyrinthe complexe de la modération du contenu qui peut faire taire les discussions sur des sujets sanctionnés. Dans un monde où la légalité des drogues évolue constamment, les plateformes ont le défi de trouver un équilibre entre l'application des directives communautaires et la promotion d'un dialogue ouvert. Alors que les interprétations restrictives des politiques de modération des contenus étouffent souvent les discussions nuancées, les conséquences involontaires de la modération des contenus sur les discussions cruciales sur des sujets liés à la drogue deviennent tout à fait évidentes.

Comment fonctionne la modération du contenu

La plupart des grandes plateformes de médias sociaux comme Meta ou TikTok adoptent une approche quelque peu floue en matière de modération du contenu. TikTok emploie modération de contenu en temps réel grâce à des algorithmes avancés qui analysent et analysent en permanence le contenu généré par les utilisateurs pour identifier et traiter rapidement les violations de la communauté. Ces systèmes signalent le contenu en fonction d'une variété de signaux, notamment des mots-clés, des images, des titres, des descriptions et de l'audio.

Ce qui façonne différemment le contenu sur TikTok, cependant, c'est la façon dont la plateforme régule la visibilité du contenu. Contrairement à la modération de contenu traditionnelle qui se concentre principalement sur la suppression ou le filtrage, la modération de visibilité consiste à promouvoir, amplifier ou hiérarchiser intentionnellement le contenu jugé plus pertinent et approprié. Il s’agit d’une tendance importante en matière de modération de contenu au-delà de TikTok : Human Rights Watch a découvert comment le contenu lié à la Palestine sur Instagram et Facebook, propriété de Meta, a été systématiquement censuré. La suppression des contenus liés à la politique, aux communautés marginalisées, à la drogue ou à la criminalité, quel que soit le contexte et le public qu'il tente d'atteindre, soulève des questions sur la façon dont un réseau soi-disant « social » est davantage guidé par ceux qui dirigent les plateformes que par les membres réels qui les composent. .

 

Différentes plateformes, différents contrôles

Autrefois, les changements d'algorithme sur YouTube ont suscité des inquiétudes parmi les créateurs de chaînes d'éducation sur la drogue. Des créateurs comme PsychedSubstance et The Drug Classroom, qui proposent du contenu informatif sur la sécurité des drogues et la réduction des risques, ont vu leurs revenus publicitaires et leur nombre de vues significativement impacté par les changements d'algorithme de Youtube. Ces changements, mis en œuvre après le retrait des annonceurs craignant que des publicités soient diffusées contre des contenus extrémistes, ont conduit à une monétisation limitée de certaines vidéos, affectant la capacité des chaînes à survivre et à atteindre un public plus large. Dans certains cas, ils ont même complètement supprimé les chaînes promouvant la réduction des risques.

Des dynamiques similaires peuvent être observées sur toutes les plateformes. Instagram a des défis constamment posés pour le contenu lié au cannabis et aux entreprises de cannabis, par exemple. Ce qui était autrefois une rareté pour l’industrie basée aux États-Unis et au Canada, la suppression des comptes d’entreprises de cannabis est désormais devenue un problème récurrent. Des défis similaires se retrouvent dans les cliniques et les entreprises liées à la kétamine, qui doivent se conformer aux réglementations pharmaceutiques en promouvant les produits de manière équilibrée. S'il est valable de veiller à ce que les annonceurs respectent les réglementations existantes en matière de promotion des produits médicaux, il existe une pratique de consommation récréative de ces substances qui doit être abordée. Empêcher la diffusion d’informations sur la réduction des risques signifie que les contenus liés aux drogues sont donc contrôlés par des règles publicitaires – qui constituent un une part substantielle des revenus de la plateforme – ou des directives de sécurité communautaires restrictives.

Ces décisions des plateformes suscitent un débat plus large sur à qui s'adresse Internet et sur la manière de trouver l'équilibre approprié entre les mesures réglementaires et la préservation des canaux ouverts, en particulier dans les espaces où un discours responsable est crucial.

 

Modération du contenu vs modération contextuelle

Alors que TikTok modère le contenu en temps réel grâce à des algorithmes, modération contextuelle prend en compte les circonstances environnantes et les significations nuancées du contenu. Dans le passé, des plateformes comme Facebook, Twitter (X) et YouTube employaient des dizaines de milliers de travailleurs au cas par cas, en tenant compte de facteurs tels que l'intention, le comportement historique et la conversation plus large lors de l'évaluation d'un contenu potentiellement problématique. Avoir un certain niveau de surveillance humaine sur la modération peut aider à adopter une approche plus équilibrée de la modération du contenu, en préservant la sécurité de la marque des plateformes tout en permettant des discussions nuancées. Mais s'appuyer sur des algorithmes est bien plus rentable que d'employer des milliers de modérateurs (même s'ils sont payé presque rien).

Il n’est pas étonnant que l’attrait des algorithmes soit devenu irrésistible pour les plateformes. La rentabilité et l'efficacité qu'ils promettent en font un choix tentant – et, contrairement aux modérateurs humains, ils ne deviennent pas un choix tentant. traumatisé par le contenu qu'ils modèrent. Mais la dépendance excessive des plateformes à leur égard est en fin de compte à leurs frais. Même si l’automatisation apporte rapidité et évolutivité, elle manque souvent de la compréhension nuancée et des connaissances contextuelles que seule la surveillance humaine peut fournir. La nécessité d’une modération nuancée des contenus est amplifiée par le paysage changeant de la réforme des politiques en matière de drogues. Comme la légalité de substances comme le cannabis et les psychédéliques a été modifié au fil du temps, les contextes juridiques et culturels qui les entourent évoluent également. Malheureusement, les structures de modération actuelles manquent souvent la flexibilité pour répondre à ces changements. La réduction des méfaits, avec l’accent spécifique au contexte sur l’atténuation des risques, nécessite une approche tout aussi sensible au contexte qui affrontements avec les directives rigides et le filtrage automatisé actuellement utilisés par de nombreuses plates-formes.

 

Un équilibre peut-il être trouvé ?

Trouver un équilibre entre l’efficacité des algorithmes automatisés et la profondeur de la compréhension humaine n’est pas seulement un choix pour les plateformes mais une nécessité, en particulier lorsqu’il s’agit de naviguer dans les complexités du discours et de l’éducation sur les drogues. D’une certaine manière, l’algospeak est protégé par la modération algorithmique du contenu, car il peut dépasser les contrôles pour atteindre un public plus large. Compte tenu de l'externalisation mondiale de la modération du contenu, les modérateurs manquent souvent de contextuel informations sur une publication et restreindre le contenu lié à la drogue sur la base de l'interdiction mondiale des drogues, même si elles sont décriminalisées ou légales dans le lieu où la publication a été initialement publiée.

Et même si les politiques internationales facilitent leur application – en particulier avec l’essor de l’intelligence artificielle – elles aboutissent souvent à une approche universelle qui ne tient pas compte des nuances nationales ou régionales. Développer des pratiques de modération de contenu à ce niveau sera essentiel pour refléter l’évolution des lois et des comportements, qu’il s’agisse de drogues ou de toute autre pratique ou produit. Cette limitation est reconnue par Reddit qui a un axé sur la communauté approche de la modération. Cette plate-forme met en évidence le fonctionnement de la modération spécifique au contexte, où les personnes les plus investies dans la communauté ont leur mot à dire dans la modération de son contenu tout en respectant les valeurs de Reddit. Mais les grandes plateformes d’intérêt général comme Twitter (X) pourraient avoir du mal à reproduire à grande échelle le modèle de modération des micro-communautés de Reddit.

En fin de compte, la meilleure solution à la modération du contenu nécessite du temps et des investissements sérieux, deux choses qu'une industrie a bâties sur la base de non réglementée, la croissance exponentielle méprise. Ce n’est que grâce à l’organisation communautaire ou à la réglementation gouvernementale que les entreprises de médias sociaux changeront leurs habitudes. Et jusqu’à ce qu’ils soient obligés de collaborer avec des experts en la matière – comme organisations de réduction des méfaits – Pour développer des politiques de modération de contenu adaptées au contexte, nous ne pouvons pas nous attendre à un changement systémique. Qu'il s'agisse d'une ignorance volontaire ou délibérée, pour l'instant, les sociétés de médias sociaux choisiront de modérer leurs immenses communautés en interne et avec peu ou pas de responsabilité communautaire.

Article précédent
Trouver la normale : amplificateurs cognitifs et hyperproductivité
PRO SUIVANT
Au Canada, la lutte pour les clubs de compassion fait rage devant les tribunaux

contenu connexe