1. Casa
  2. Articoli
  3. Algospeak e le conseguenze della riduzione del danno della moderazione dei contenuti

Algospeak e le conseguenze della riduzione del danno della moderazione dei contenuti

Nel panorama dinamico e in continua evoluzione dei social media, è emerso un curioso fenomeno linguistico: “algospeak.” Questo linguaggio nativo digitale utilizza parole codificate con significati alternativi per discutere argomenti eccessivamente moderati sui social media, evitando così il rilevamento da parte degli algoritmi. La crescita di tale linguaggio riflette una battaglia continua tra gli utenti e le aziende Big Tech. Su TikTok è comune trovare persone che scambiano il termine “suicidio” con espressioni come “non (vivo)"; emoji o parole scritte in modo strano sono anche frequentemente utilizzati. Algospeak ha permeato tutte le forme di discorso politico sulle nostre piattaforme di social media, tranne il concetto non è nuovo e sembra più una versione modernizzata di Cockney slang in rima.

Ma Algospeak è molto più che un semplice gioco di parole creativo; è la navigazione intenzionale e abile nell'intricato labirinto della moderazione dei contenuti che può farlo discussioni silenziose su argomenti sanzionati. In un mondo in cui la legalità delle droghe è in continua evoluzione, le piattaforme devono affrontare la sfida di trovare l’equilibrio tra l’applicazione delle linee guida comunitarie e la promozione del dialogo aperto. Poiché le interpretazioni restrittive delle politiche di moderazione dei contenuti spesso soffocano le discussioni sfumate, le conseguenze indesiderate della moderazione dei contenuti su discussioni cruciali su argomenti legati alla droga diventano chiaramente evidenti.

Come funziona la moderazione dei contenuti

La maggior parte delle principali piattaforme di social media come Meta o TikTok adottano un approccio piuttosto generalizzato alla moderazione dei contenuti. TikTok impiega moderazione dei contenuti in tempo reale attraverso algoritmi avanzati che scansionano e analizzano continuamente i contenuti generati dagli utenti per identificare e affrontare rapidamente le violazioni della comunità. Questi sistemi contrassegnano i contenuti in base a una varietà di segnali, tra cui parole chiave, immagini, titoli, descrizioni e audio.

Ciò che modella i contenuti in modo diverso su TikTok, tuttavia, è il modo in cui la piattaforma regola la visibilità dei contenuti. A differenza della tradizionale moderazione dei contenuti che si concentra principalmente sulla rimozione o sul filtraggio, la moderazione della visibilità consiste nel promuovere, amplificare o dare priorità intenzionalmente ai contenuti ritenuti più pertinenti e appropriati. Questa è stata una tendenza importante nella moderazione dei contenuti oltre TikTok: Human Rights Watch ha scoperto come i contenuti relativi alla Palestina su Instagram e Facebook di proprietà di Meta siano stati sistematicamente censurato. La soppressione dei contenuti relativi alla politica, alle comunità emarginate, alla droga o alla criminalità, indipendentemente dal contesto e dal pubblico che sta cercando di raggiungere, solleva interrogativi su come un presunto “social” network sia guidato più da coloro che gestiscono le piattaforme che dai membri effettivi che le compongono .

 

Piattaforme diverse, controlli diversi

Nel passato, le modifiche all'algoritmo su YouTube hanno suscitato preoccupazioni tra i creatori di canali di informazione sulla droga. Creatori come PsychedSubstance e The Drug Classroom, che offrono contenuti informativi sulla sicurezza dei farmaci e sulla riduzione dei danni, hanno visto le loro entrate pubblicitarie e il numero di visualizzazioni significativamente influenzato dalle modifiche dell'algoritmo di Youtube. Questi cambiamenti, implementati dopo che gli inserzionisti si sono ritirati per paura che gli annunci venissero mostrati contro contenuti estremisti, hanno portato a una monetizzazione limitata per alcuni video, influenzando la capacità dei canali di sopravvivere e raggiungere un pubblico più ampio. In alcuni casi, hanno addirittura cancellato completamente i canali che promuovono la riduzione del danno.

Dinamiche simili possono essere viste su tutte le piattaforme. Instagram ha poneva costantemente sfide per contenuti relativi alla cannabis e alle attività commerciali legate alla cannabis, ad esempio. Quella che una volta era una rarità per l’industria con sede negli Stati Uniti e in Canada, la cancellazione dei conti aziendali della cannabis è ora diventata un problema ricorrente. Sfide simili si riscontrano con le cliniche e le aziende legate alla ketamina, che devono rispettare le normative mediche nel promuovere i prodotti in modo equilibrato. Sebbene sia legittimo garantire che gli inserzionisti rispettino le normative esistenti sulla promozione dei prodotti medici, esiste una pratica di consumo ricreativo di queste sostanze che deve essere affrontata. Prevenire la diffusione di informazioni sulla riduzione del danno significa che i contenuti correlati alla droga sono quindi controllati dalle norme pubblicitarie – che costituiscono a parte sostanziale delle entrate della piattaforma – o linee guida restrittive sulla sicurezza della comunità.

Queste decisioni da parte delle piattaforme innescano un dibattito più ampio su a chi è destinata Internet e su come trovare il giusto equilibrio tra le misure normative e la preservazione dei canali aperti, in particolare negli spazi in cui il discorso responsabile è cruciale.

 

Moderazione dei contenuti vs moderazione del contesto

Mentre TikTok modera i contenuti in tempo reale attraverso algoritmi, moderazione del contesto considera le circostanze circostanti e i significati sfumati del contenuto. In passato, piattaforme come Facebook, Twitter (X) e YouTube impiegavano decine di migliaia di lavoratori caso per caso, considerando fattori come l'intenzione, il comportamento storico e la conversazione più ampia nel valutare i contenuti potenzialmente problematici. Avere un certo livello di supervisione umana sulla moderazione può aiutare a trovare un approccio più equilibrato alla moderazione dei contenuti, mantenendo il marchio delle piattaforme sicuro e consentendo comunque discussioni sfumate. Ma fare affidamento su un algoritmo è molto più conveniente che impiegare migliaia di moderatori (anche se lo sono pagato quasi niente).

Non c'è da meravigliarsi che il fascino degli algoritmi sia diventato irresistibile per le piattaforme. Il rapporto costo-efficacia e l'efficienza che promettono li rendono una scelta allettante e, a differenza dei moderatori umani, non diventano Traumatizzato dal contenuto che stanno moderando. Ma l’eccessivo affidamento delle piattaforme su di essi è in definitiva a proprie spese. Sebbene l’automazione offra velocità e scalabilità, spesso manca della comprensione sfumata e della conoscenza contestuale che solo la supervisione umana può fornire. La necessità di una moderazione dei contenuti sfumata è amplificata dal panorama mutevole della riforma della politica sulla droga. Come lo è la legalità di sostanze come la cannabis e le sostanze psichedeliche cambiato nel corso del tempo, così come fanno anche i contesti giuridici e culturali che li circondano. Sfortunatamente, le attuali strutture di moderazione spesso non dispongono di tale funzionalità flessibilità per rispondere a questi cambiamenti. La riduzione del danno, con la sua enfasi specifica sul contesto sulla mitigazione dei rischi, richiede un approccio altrettanto sensibile al contesto scontri con le rigide linee guida e i filtri automatizzati attualmente utilizzati da molte piattaforme.

 

È possibile trovare un equilibrio?

Trovare un equilibrio tra l’efficienza degli algoritmi automatizzati e la profondità della comprensione umana non è solo una scelta per le piattaforme, ma una necessità, soprattutto quando si tratta di navigare nelle complessità del discorso e dell’educazione sulla droga. In un certo senso, algospeak è protetto dalla moderazione algoritmica dei contenuti poiché può superare i controlli per raggiungere un pubblico più ampio. Considerata l'esternalizzazione globale della moderazione dei contenuti, spesso i moderatori possono non avere il compito completo contestuale informazioni su un post e limitare i contenuti correlati alla droga in base al divieto globale delle droghe, anche se sono depenalizzate o legali nel luogo in cui è stato originariamente pubblicato il post.

E mentre le politiche internazionali offrono un’applicazione più semplice – in particolare con l’avvento dell’intelligenza artificiale – spesso si traducono in un approccio unico per tutti che non riesce a considerare le sfumature nazionali o regionali. Lo sviluppo di pratiche di moderazione dei contenuti a questo livello sarà fondamentale per riflettere l’evoluzione delle leggi e dei comportamenti, sia che si tratti di farmaci o di qualsiasi altra pratica o prodotto. Questa limitazione è riconosciuta da Reddit che ha a guidato dalla comunità approccio alla moderazione. Questa piattaforma evidenzia come può funzionare la moderazione specifica del contesto, in cui coloro che sono più coinvolti nella comunità hanno voce in capitolo nella moderazione dei suoi contenuti pur continuando a sostenere i valori a livello di Reddit. Ma le piattaforme di interesse generale più grandi come Twitter (X) potrebbero avere difficoltà a replicare il modello di moderazione della micro-comunità di Reddit su vasta scala.

In definitiva, la migliore soluzione per la moderazione dei contenuti richiede tempo e investimenti seri, due cose su cui un settore si è costruito sulle spalle non regolamentata, la crescita esponenziale disprezza. Solo attraverso l’organizzazione della comunità o la regolamentazione del governo le società di social media cambieranno il loro modo di agire. E fino a quando non saranno costretti a collaborare con esperti in materia – come organizzazioni per la riduzione del danno – Per sviluppare politiche di moderazione dei contenuti adeguate al contesto, non possiamo aspettarci un cambiamento sistemico. Che si tratti di ignoranza intenzionale o deliberata, per ora le società di social media sceglieranno di moderare le loro enormi comunità internamente e con poca o nessuna responsabilità comunitaria.

Articoli precedenti
Trovare la normalità: potenziatori cognitivi e iperproduttività
pagina successiva
In Canada, la lotta per i club di compassione infuria in tribunale

Contenuti correlati