In questi giorni è esploso uno scandalo attorno al chatbot della piattaforma X, Grok, a seguito dell’introduzione di un aggiornamento al sistema di modifica delle immagini che permette di creare con estrema facilità deepfake in cui le persone ritratte vengono spogliate e messe in bikini. La funzione è stata immediatamente impiegata in modo non consensuale, coinvolgendo anche VIP e minorenni. Tuttavia, questo “incidente” rappresenta solo la punta dell’iceberg, è semplicemente un episodio particolarmente visibile e pop che evidenzia l’atteggiamento complessivo di un social che da tempo offre terreno fertile per abusi e contenuti pedopornografici.
Il nuovo strumento di editing introdotto su Grok è stato progettato senza espressi fini erotici, ma per modificare con estrema rapidità qualsiasi immagine caricata sulla piattaforma. Questi però non richiede alcuna autorizzazione preventiva e gli utenti non hanno la possibilità di disattivarlo per proteggere le proprie foto. L’obiettivo è evidente: spingere le persone a effettuare le modifiche direttamente all’interno di X, evitando che si rivolgano a servizi di intelligenza artificiale concorrenti. Come spesso accade con gli strumenti di IA generativa facilmente accessibili e privi di controlli adeguati, un simile potere sull’informazioni visiva è defluito rapidamente in trend in cui vengono fatti circolare contenuti sviluppati senza il consenso dei soggetti coinvolti. Nel giro di pochi giorni sono dunque emersi post goliardici, di propaganda politica e moltissime immagini di natura sessuale.
Il contesto non è nuovo. Da mesi diverse organizzazioni civili chiedono che X venga indagata per violazioni delle norme sui contenuti non consensuali, quest’ultimo episodio si limita a riportare l’attenzione sulle già note criticità strutturali della piattaforma, in particolare sulla gestione dei suoi sforzi di moderazione. Non bisogna fraintendere, X non è un territorio digitale anarchico: pur avendo drasticamente ridotto i suoi sforzi di controllo, continua a esercitare un forte potere decisionale ed è spesso accusata di manipolare i propri algoritmi per amplificare la visibilità di determinati utenti, se non addirittura per oscurare interi argomenti poco graditi al proprietario, Elon Musk. Nonostante sia dunque presente una forma di censura, la violenza sessuale e la pedopornografia continuano a trovare spazio su questa piattaforma di massa.

Essendo X il social d’alto profilo più permissivo nei confronti dei contenuti di natura sessuale, non sorprende che sia diventato una vetrina per la vendita di materiale erotico alimentata da modelle‑influencer e da gruppi tematici. Si tratta di un sottobosco totalmente legittimo, che tuttavia rappresenta una complessità manageriale che richiede da parte dei fornitori estrema cautela: consentire la presenza di un mercato del sesso sul proprio portale va a rendere impossibile l’eliminazione automatica di ogni contenuto rappresentante scene di nudo, con il risultato che diventa più che mai necessario vigilare attivamente perché non si verifichino abusi. X, evidentemente, si dimostra lassista.
La piattaforma ospita infatti una quantità notevole di profili effimeri che rimangono attivi per pochi giorni e che promettono accesso a foto e video di adolescenti e bambini tramite canali criptati o servizi di hosting esterni. Non è da escludere che molti di questi account siano semplici truffe rivolte a predatori sessuali, ma resta il fatto che X consenta la circolazione di anteprime di tali materiali, le quali sono spesso già di per sé estremamente esplicite. Vengono messe in bella mostra preview di cartelle e di file, nonché brevi clip che offrono un “assaggio” del prodotto umano che viene mercificato.

La tendenza di spogliare persone inconsapevoli e bambini su X non rappresenta dunque un’eccezione, bensì accomuna molteplici fenomeni che non sono altro che la conseguenza di scelte deliberate. Fughe di informazioni e ricerche accademiche indicano infatti che i principali modelli di IA sono stati addestrati impiegando anche ampi archivi pornografici, alcuni dei quali includevano migliaia di scatti di minori. A questo si somma la decisione di Musk di compromettere l’infrastruttura di moderazione del fu-Twitter per favorire, almeno ufficialmente, la “libertà di parola”; una decisione che ha ridotto i costi di gestione del servizio e gli ha consentito di determinare con maggiore agilità quali fossero le informazioni da divulgare, ma che ha minato la possibilità di tutelare le vittime di violenza. Digitale e non. Questi scandali non sono pertanto il sottoprodotto imprevedibile di un servizio, ma la conseguenza di una progettazione consapevole che, deresponsabilizzata, si può permettere di fare ciò che vuole.










