Sempre più portali di notizie stanno delegando la produzione di articoli alle cosiddette intelligenze artificiali con l’obiettivo di poter produrre articoli in gran numero e a poco costo, così da poter sviluppare una presenza abbacinante sulla Rete. Anteporre la quantità alla qualità non è però una scelta sempre vincente, soprattutto quando la definizione dei contenuti è affidata integralmente a una macchina. Consapevoli dei limiti di tali strumenti, le comunità di videogiocatori hanno dato vita al “Glorbo“, una creatura fittizia che è stata pensata per umiliare e sabotare i portali meno scrupolosi.
In uno sketch comico del 1958 di Carlo Campanini e Walter Chiari i pendolari di un treno discutevano animatamente delle fattezze di un “sarchiapone americano” che nessuno aveva visto, ma che alla fine si scopriva essere una creatura completamente fittizia e inesistente. Il Glorbo potrebbe essere considerato il pronipote digitale e contemporaneo del sarchiapone. Stanchi di vedere siti privi di scrupoli intasare il web con contenuti di scarso valore, i gruppi social dei videogame World of Warcraft e Destiny 2 hanno deliberatamente creato false storie riguardanti l’altrettanto fasullo Glorbo, ben sapendo che queste sarebbero state inghiottite acriticamente da intelligenze artificiali che avrebbero poi diffuso quanto scritto sui social senza apportare nessun tipo di verifica.
Il Glorbo, vale la pena reiterarlo ancora, non è mai esistito. Questi episodi hanno messo quindi in luce come il desiderio di generare notizie virali a tutti i costi abbia trovato alleati nelle intelligenze artificiali, accelerando la diffusione sul web di testi non verificati. Anche se l’atto dei videogiocatori è stato tutto sommato bonario, il loro agire ha evidenziato la mancanza di supervisione, interesse e consapevolezza all’interno di certi portali di notizie.
In un sistema dove l’obiettivo principale è la produzione in massa di articoli generalisti e automatizzati, si aprono delle preoccupazioni riguardo alla possibilità che malintenzionati possano sfruttare le carenze di comprendonio dell’IA per diffondere fake news e ottenere guadagni di vario tipo. Sebbene sia difficile pensare che un simile stratagemma possa essere direttamente replicato nel contesto politico – le notizie di categoria sono poco remunerative e mal si prestano a simili automatismi –, non è inverosimile la definizione di un panorama in cui aziende e personaggi possano essere assoggettate da campagne di disinformazione portate avanti grazie alle carenze dell’IA e rinforzate dalla bassezza di una certa tipologia di siti di notizie.
Per capire come l’uso delle intelligenze artificiali da parte di aziende scriteriate possa causare danni è sufficiente guardare a ciò che è successo quando X – al secolo Twitter – ha ospitato i post di profili che millantavano di essere portavoce della Lockheed Martin e dell’azienda farmaceutica Eli Lilly. In un solo pomeriggio miliardi di dollari sono andati in fumo.
[di Walter Ferri]