Mercoledì 28 settembre 2022, l’Unione Europea ha lanciato una proposta legislativa che, qualora fosse accolta, andrà ad alterare profondamente le prospettive delle imprese tecnologiche. Stiamo parlando della AI Liability Directive, una parentesi amministrativa che dovrebbe muoversi parallelamente all’attuale bozza dell’AI Act al fine di creare un’infrastruttura utile a imporre alle aziende del settore una responsabilità giuridica per i danni causati dalle loro intelligenze artificiali.
La nuova direttiva introdurrebbe in sostanza due elementi fondamentali: la presunzione di causalità e il diritto a richiedere alle aziende delle prove del loro operato, qualora si sviluppino degli incidenti adoperando quelle IA che l’AI Act riconosce come ad “alto rischio”. Se le norme discusse fino a oggi erano orientate a prevenire gli abusi, dunque, l’AI Liability Directive ha lo scopo di tutelare consumatori e aziende una volta che il danno è ormai fatto alleggerendo l’iter burocratico utile per chiedere un risarcimento. Le complicazioni per combattere i produttori di algoritmi rimarranno titaniche, tuttavia questa soluzione potrebbe perlomeno offrire alle parti lese un numero maggiore di armi con cui difendersi dall’opacità imprenditoriale che troppo spesso aleggia in questi contesti.
L’AI Liability Directive non è però una soluzione perfetta, anzi rappresenta un passo indietro rispetto alla direzione più severa che il Parlamento europeo aveva suggerito nel non troppo lontano 2020. «Abbiamo optato per il livello più basso di intervento. Dobbiamo vedere se i nuovi sviluppi giustificheranno in futuro l’adozione di regole più rigide» ha ammesso Didier Reynders, Commissario alla giustizia dell’UE. La direttiva proposta imbocca dunque il percorso del compromesso, suggerendo un’impostazione normativa che faccia da ponte tra la necessità di difendersi dal potere delle corporazioni e il desiderio di lasciare margine di crescita per sviluppare una delle tecnologie che più rappresenta il futuro del settore.
«Desideriamo che le tecnologie IA prosperino in UE», ha cercato di spiegare Věra Jourová, vicepresidentessa dei valori e della trasparenza della Commissione europea. «Perché questo accada, le persone devono fidarsi dell’innovazione digitale. Con la proposta sulla responsabilità civile delle IA forniamo ai consumatori gli strumenti per rimediare ai danni causati dalle IA […] e ci assicuriamo una certezza legale per il nostro Mercato interno». In altre parole, secondo la Commissione, la direttiva non si tradurrebbe nella frustrazione della ricerca, ma in uno sviluppo maggiormente trasparente e giusto.
Si tratta di un presupposto valido sul piano ideologico, ma che potrebbe traballare se confrontato con il mondo reale. Diversi dei dirigenti tech hanno in passato dato voce al disprezzo da loro provato nei confronti della legge suggerendo che il frangente giuridico non sia altro che un opulento orpello del passato, un qualcosa che è semplicemente loro d’ostacolo nel portare a compimento ciò che etichettano come progresso. Questi soggetti potrebbero interpretare l’AI Liability Directive come una mezza sconfitta, se non addirittura come un pericoloso precedente, cosa che potrebbe spingerli ad imbastire campagne di lobbying o, perlomeno, a ridurre sensibilmente gli investimenti sul frangente della ricerca europea.
Che ci sia bisogno di intervenire in qualche modo sul piano legislativo è comunque evidente: algoritmi e intelligenze artificiali sono già stati usati nel mondo per portare avanti programmi di polizia predittiva, di analisi dei migranti alla frontiera, di assegnazione di crediti sociali e di molti altri compiti critici che hanno dimostrato molteplici volte di essere vulnerabili a inquietanti errori.
[di Walter Ferri]