#compito5
Explore tagged Tumblr posts
ergnculturedigitali25 · 15 days ago
Text
Gruppo 9 - Non solo contenuti rimossi ma anche emozioni
Il dialogo che segue è frutto della discussione avvenuta nel nostro gruppo, composto da Mattia, Vincenzo, Giulio, Luca e Roberto. Abbiamo letto e analizzato il testo “La moderazione di contenuti è strutturalmente terribile” e da lì abbiamo scelto i temi che ci hanno colpito di più: le condizioni spesso invisibili e traumatiche dei moderatori, le incoerenze culturali nella censura digitale, i paradossi delle piattaforme come Twitch. La conversazione che ne è nata raccoglie punti di vista differenti e personali, mettendo in luce le complessità, le contraddizioni e gli effetti spesso ignorati della moderazione dei contenuti online.
Tumblr media
Mattia: Avete letto il testo sulla moderazione dei contenuti!? È agghiacciante. Gente che guarda stupri, violenze e suicidi tutti i giorni. E poi ci si chiede perché sviluppano traumi.
Giulio: Sì, è praticamente una tortura legalizzata. E il paradosso è che la maggior parte dei moderatori nemmeno lavora per le piattaforme poiché come detto nel testo sono in outsourcing, sottopagati e non considerati come vittime del proprio lavoro.
Vincenzo: Tipo i moderatori in Kenya per Facebook, pagati 1,5 dollari l’ora. Poi appena hanno provato a sindacalizzarsi, Meta ha cambiato fornitore e ha trovato qualcuno ancora più economico.
Luca: E non solo. Molti di loro nemmeno parlano la lingua o capiscono il contesto culturale dei contenuti che moderano. È lì che nasce una delle peggiori fallacie del sistema.
Roberto: Parli di quando le regole sono pensate solo in inglese e applicate al mondo intero?
Luca: Esatto. Prendiamo Twitch che banna la parola “nigga” anche se usata tra afroamericani in un contesto informale, ma non interviene quando in una live italiana vengono pronunciate bestemmie. Questo perché le regole sono pensate da e per un pubblico americano, dove la bestemmia nemmeno esiste come categoria offensiva. Come dice il testo è una forma di colonialismo digitale: la cultura dominante impone i suoi codici morali al resto del mondo, ignorando sensibilità locali, lingue e contesti culturali completamente diversi.
Mattia: È la stessa cosa con le immagini, infatti, se una streamer sta in bikini nella sua stanza viene segnalata per nudità. Ma se c’è una piscina gonfiabile dietro, allora è percepito dalla piattaforma come un abbigliamento consono per fare il bagno e non parte lo strike. Le regole sembrano scritte per tutelare l'apparenza, non la sostanza.
Giulio: Sì, e l’esempio dell’allattamento è clamoroso. Alcune donne sono state bannate per allattare davvero, perché si è visto il capezzolo, ma poi ce ne sono altre che lo simulano in modo sessualizzato per guadagnarci e nessuno interviene.
Vincenzo: Questo succede anche nei videogiochi. Su League of Legends, se ti insultano e rispondi, vieni segnalato tu. Il sistema punisce chi viene provocato perché reagisce. La moderazione automatica non capisce il contesto.
Roberto: E qui torniamo al problema di base: l’IA non capisce le sfumature. Le piattaforme dicono che vogliono tutelare gli utenti, ma in realtà proteggono sé stesse. L’algoritmo serve solo a risparmiare sui moderatori umani.
Luca: Ma poi quelli che restano vengono usati solo per i casi peggiori. L’IA filtra lo spam, e ai moderatori tocca il peggio: pornografia infantile, suicidi in diretta, tortura. È ovvio che sviluppino disturbi.
Mattia: Sì poi testo dice chiaramente che un terzo soffre di depressione, e molti vivono incubi, paranoie e burnout. E i pochi supporti psicologici messi a disposizione non bastano o non sono affidabili.
Giulio: C’è anche la questione degli NDA. Non possono parlare del loro lavoro. Se denunci lo stress o quello che vedi, rischi il licenziamento. È un lavoro tossico sotto ogni punto di vista.
Vincenzo: E le aziende lo sanno. Per questo appaltano tutto in paesi dove i diritti dei lavoratori sono più deboli. Così, se qualcosa va storto, possono dire: “Non era nostro dipendente”.
Roberto: Questa catena di esternalizzazioni serve solo a nascondere le responsabilità. Ma sono loro a stabilire le regole, loro a decidere quanto tempo ha un moderatore per guardare un video, quanto può prendersi una pausa.
Luca: Il sistema dei KPI è disumano. Se ti fermi troppo dopo aver visto un contenuto traumatico, quel tempo viene considerato “non produttivo”. Ma non siamo macchine.
Mattia: E a proposito di macchine, anche l’intelligenza artificiale amplifica gli errori, una regola sbagliata viene applicata su scala globale in pochi secondi…
Giulio: Tipo quando bloccano foto d’arte o immagini mediche, mentre contenuti davvero pericolosi, ma ben camuffati, sfuggono ai radar e restano sulle piattaforme.
Vincenzo: O come i Community Notes su Twitter. Buona idea, ma anche lì il problema resta: chi decide cosa è vero o falso? E che succede se la community stessa ha pregiudizi?
Roberto: Non esiste una soluzione perfetta, ma almeno serve riconoscere che le regole attuali sono incoerenti, culturalmente sbilanciate e spesso più ipocrite che efficaci.
Luca: Il fatto è che chi modera i contenuti è invisibile, sfruttato, traumatizzato… e chi scrive le regole non ne paga mai le conseguenze.
Tumblr media
Mattia: E poi, non so voi, ma io personalmente non ho mai visto contenuti che trattano la condizione dei moderatori. Noi utenti non ne sappiamo niente e pensiamo che il web sia “spontaneo”, ma dietro c’è una macchina che filtra tutto, e per giunta male.
Giulio: Forse il primo passo è proprio parlarne. Come stiamo facendo adesso.
Riflessione finale di gruppo:
Ma soprattutto… come si può davvero continuare a moderare contenuti così estremi giorno dopo giorno senza perdere il contatto con la realtà? Se sei costantemente esposto a violenza, odio, abusi e perversioni, prima o poi il tuo cervello inizia a normalizzarli. Ti dissoci, ti distacchi emotivamente.
Quel distacco può sembrare una difesa, ma rischia di diventare una lente deformante: se tutto ciò che vedi è mostruoso, come puoi ancora distinguere il “limite”? Come puoi essere obiettivo?
Alla lunga, chi modera può non riuscire più a capire cosa è davvero offensivo, pericoloso o accettabile. E così, paradossalmente, il sistema finisce per logorare proprio le persone da cui dipende il confine tra ciò che resta online e ciò che viene rimosso.
Una macchina malata, che brucia chi la tiene in funzione.
Tumblr media
Alcune delle immagini presenti nel post sono state generate con l'IA.
0 notes