Riconoscimento facciale, controllo sociale, tracciamenti biometrici, analisi delle abitudini di consumo, personalizzazione dei prezzi di vendita, strumento di guerra: l’applicazione delle intelligenze artificiali (IA) e degli strumenti di machine learning (ML) è certamente degna di massima attenzione, se non altro perché ci racconta di un futuro che – ogni giorno di più – è già tra noi e perché risulta ancora oggi drammaticamente poco normato. È opportuno e doveroso prestare attenzione alla situazione, mettere in discussione i meccanismi del capitalismo della sorveglianza, sapendo che le insidie del settore vanno ben oltre al mero monitoraggio dei nostri smartphone.
La portata deleteria delle pubblicità mirate e dell’invasione della privacy, elementi logoranti a cui tutti noi siamo ormai assuefatti, impallidisce quando ci si rende conto di quanto le analisi biometriche siano già parte integrante delle strategie di controllo dei poteri di tutto il mondo. La cosa sembrava lampante nel 2019, quando avevano fatto clamore le immagini drammatiche dei contestatori di Hong Kong che sradicavano i lampioni dalle strade per paura che al loro interno vi fossero meccanismi di sorveglianza dell’establishment.
Al di là del fatto che i loro timori fossero fondati o meno, resta il fatto che i sofisticati apparati di controllo cinesi siano riusciti a sviluppare in poco tempo nei cittadini la sensazione di una sorveglianza costante, di un panopticon ingigantito su scala urbana e nazionale. Si tratta di una distopia alienante per l’essere umano che, all’epoca, aveva fatto indignare l’Occidente intero. Eppure, mentre i notiziari erano impegnati a sottolineare quanto fosse deplorevole l’atteggiamento della polizia di Hong Kong nei confronti della tecnologia, gli States si stavano già preparando a seguire la medesima rotta, introducendo già dal 2018 sistemi di riconoscimento facciale all’interno della Casa Bianca, nonché in alcuni scali aeroportuali, con lo scopo di costruire un archivio di tutti i dati biometrici dei visitatori provenienti dall’estero.
Nel 2021, il concetto di sorveglianza delle IA è ormai sdoganato al punto di essere considerato normale, basti vedere quanto è successo in occasione dei fatti di Capitol Hill del 6 gennaio. Alcuni hacker hanno approfittato di una fuga di dati dal social preferito dalla destra alternativa, Parler, quindi hanno isolato attraverso il riconoscimento facciale i volti dei riottosi e hanno dato vita a una catalogo web attraverso il quale assistere le indagini dell’FBI. Il sito – mai oscurato dalle autorità nonostante la sua palese illegalità – non è che la punta dell’iceberg: le tecnologie di riconoscimento facciale sono deliberatamente usate anche dalle autorità federali, lo dimostra il fatto che uno dei suddetti contestatori sia stato recentemente arrestato dopo che un’intelligenza artificiale ha riconosciuto i suoi tratti somatici da alcune foto caricate sul profilo Instagram della sua fidanzata.
I meccanismi di sorveglianza non hanno mancato di colpire anche gli attivisti del movimento Black Lives Matters e i comuni criminali. Anche normali civili non immischiati in nessun movimento di protesta né in fatti criminali non ne sono usciti illesi, a farne le spese gli afroamericani per il fatto che le dinamiche di machine learning non sono state addestrate per i volti non caucasici e le minoranze hanno finito con il trovarsi vittime di sciagurati fraintendimenti.
Il panorama statunitense è grottesco, ma l’Unione Europea, da sempre attenta alla privacy dei suoi cittadini, si sarà tutelata adeguatamente per evitare queste forme di abusi tecnologici, vero? No, non proprio. L’UE ha proposto la sua prima traccia normativa sulle applicazioni delle IA ad “alto rischio” solamente una manciata di giorni fa e i contenuti del testo pubblicato sono tutto meno che utili a contenere la sorveglianza delle forze dell’ordine. In pratica, l’unica sorveglianza che verrebbe totalmente proibita è quella in “tempo reale”. Ciò vuol dire che un qualsiasi corpo di polizia potrà – previa l’autorizzazione del tribunale – analizzare immagini di repertorio attraverso l’applicazione dei sistemi di riconoscimento facciale, esattamente la stessa cosa che fanno già Cina e Stati Uniti. Gli eserciti, invece, vantano praticamente carta bianca, possono agire come preferiscono. “I sistemi di IA esclusivamente sviluppati o adoperati per uso militari sono esclusi dallo scopo di questa Regolamentazione”, recita infatti la bozza proposta dalla Commissione Europea.
La cosa non deve sorprendere: mentre le nostre ansie si direzionano sulle esperienze vicine alla nostra quotidianità, nascosti al di fuori dei riflettori pubblici, proseguono i dibattiti internazionali sulla gestione degli armamenti automatizzati guidati dalle intelligenze artificiali, altrimenti detti “killer robot”. Carri armati e blindati manovrati dalle IA sembrano infatti essere il futuro della tecnologia militare, un futuro che andrà a sostituire gli attuali droni con macchine che non necessiteranno neppure di essere teleguidate per riuscire a portare a compimento la propria missione distruttiva.
Per decidere se fosse opportuno o meno investire su una simile militarizzazione, gli USA hanno istituito una Commissione Nazionale sulla Sicurezza sulle Intelligenze Artificiali presieduta dall’ex CEO di Google, Eric Schmidt. Ne è venuto fuori che la ricerca bellica statunitense sul machine learning non solo non sia disdicevole, ma che sia addirittura un “imperativo morale”. Asserendo che Cina e Russia stiano investendo sui killer robot, la Commissione ha infatti sostenuto al Senato che sia necessario sviluppare IA capaci di dominare il campo di battaglia, almeno sul “piano ipotetico”, come deterrente. Una linea di pensiero che ricalca in tutto e per tutto come le grandi potenze stiano gestendo ancora oggi le testate nucleari, armi che buona parte del mondo ha reso illegali, ma che i big mondiali si ostinano a preservare con deliri di onnipotenza che rasentano la paranoia.
Quale che sia la decisione dell’Amministrazione Biden in merito, il Consiglio chiede alla Casa Bianca di predisporre almeno 32 miliardi di dollari di budget annuo per la creazione e la formazione delle “Digital Corps”, un corrispettivo informatico del corpi sanitari normalmente presenti negli eserciti di ogni nazione. L’unica consolazione è che, almeno per ora, i “killer robot” sembrano ancora lungi dal poter dimostrarsi efficaci sul campo di battaglia. Volendo ipotizzare uno spaccato sul futuro, possiamo tuttavia intuirne la direzione che sta prendendo il settore guardando all’azienda estone Milrem Robotics, più nello specifico al suo blindato senza equipaggio Type-X Robotic Combat Vehicle. L’azienda ha infatti reso ben noti i suoi piani per Type-X, spiegando in occasione delle fiere del settore come un sofisticato sistema di IA permetterà al mezzo di muoversi autonomamente: basterà impostare le coordinate e il cingolato procederà verso la destinazione prestabilita, aggirando – o distruggendo – qualsiasi ostacolo gli blocchi la strada.
[di Walter Ferri]
Son sempre più convinto che saremo noi stessi a decretare la fine per la nostra specie!!!
Inquietante! E avvilente come i popoli siano incoscienti di quello che sta accadendo, del futuro distopico di film e romanzi di fantascienza che si avvera e, forse, della fine dell’umanità.
Ma, per la maggior parte delle persone, è più importante un bel acquisto su Amazon o postare un video sul proprio social preferito per un briciolo di notorietà!
Tutto ciò è poco rassicurante! Il bene potrà prevalere sul male?
Peccato ! Veramente peccato che il progresso della tecnologia stia prendendo questo indirizzo orwelliano, perché costituisce anche ciò che storicamente ha dato all’umanità vita più lunga, sempre maggiori agi e comodità tutt’altro che disprezzabili
Beh, che dire? La fantascienza che diventa realtà. Da anni sostengo che la tecnologia sarebbe stata la rovina dell’umanità ed ecco che tutto ciò puntualmente si avvera. Nessuno potrà fermare o regolamentare questo “progresso”, su questo non vi è alcun dubbio, la tecnologia sarà il nuovo diktak mondiale, in ogni settore.