I difetti presenti all’interno dei modelli d’intelligenza artificiale sono ormai noti da tempo. Le “allucinazioni” delle macchine sono frutto di una raccolta coatta e massiva di dati, i quali finiscono con il mescolarsi tra di loro ed emergere nelle maniere più inopportune. Senza aver ancora risolto questa storica criticità, Google ha deciso di pubblicare negli Stati Uniti la nuova funzione AI Overviews, un sistema tanto difettato che gli utenti del web si stanno divertendo a raccogliere esempi eclatanti in cui l’IA suggerisce una serie di raccomandazioni ridicole, se non addirittura pericolose.
L’idea alla base di AI Overviews è semplice, brillante e, in alcuni aspetti, leggermente inquietante. Il progetto di Google mira a fornire agli utenti risposte rapide alle loro domande, affidando a un’intelligenza artificiale il compito di sintetizzare i vari risultati ottenuti tramite il tradizionale motore di ricerca. Un’iniziativa che, a prima vista, sembra lodevole, ma che potrebbe profondamente rivoluzionare i sistemi di monetizzazione delle inserzioni su internet e che, d’altra parte, evidenzia nuovamente il limite che deriva dall’utilizzare archivi di riferimento senza poterne comprendere appieno il contenuto.
Lo strumento è entrato in fase di sperimentazione pubblica nel maggio 2023 con il nome di Search Generative Experience. Durante i mesi di collaudo, secondo il CEO Sundar Pichai, è stato possibile ridurre dell’80% i costi energetici associati a questa applicazione dell’IA, da sempre considerata antieconomica. Questa fase di sviluppo non è però stata evidentemente in grado di appianare le carenze contenutistiche, le quali sono ora sotto l’occhio critico di osservatori, giornalisti e analisti americani. In pochi giorni, AI Overviews ha svelato che il sistema ha generato affermazioni assurde, come la possibilità di incrociare gatti sulla Luna, la raccomandazione di assumere minerali mangiando almeno una roccia al giorno e la proposta di aggiungere colla atossica nel sugo di pomodoro per evitare che la mozzarella scivoli dalla pizza.
Alcune di queste esternazioni sono tanto assurde che gli analisti sono riusciti a risalire con una certa facilità a quali fossero le probabili fonti di simili strafalcioni. Nel generare contenuti, l’IA adoperata da Google avrebbe pertanto attinto ad alcuni post ironici presenti su Reddit e da testate satiriche quali The Onion, fraintendendo le loro facezie per informazioni affidabili. Per semplificare il processo di addestramento delle macchine, molte aziende hanno infatti progettato i loro strumenti perché identifico come affidabile tutto ciò che è popolare sulla Rete. La logica adottata è che i canali che registrano traffico e click sono quelli che hanno il maggior supporto del consenso pubblico, dettaglio che garantirebbe la loro serietà. Si tratta di una goffa scorciatoia che non tiene pienamente in considerazione le dinamiche reali che alimentano internet.
Google ha passato anni a sostenere pubblicamente che il suo approccio al progresso e alla ricerca sia orientato alla prudenza, tuttavia l’avvento di Open AI ha stravolto le aspettative del mondo della finanza, scuotendo gli equilibri del Mercato. Giusto per avere un metro di paragone, si pensi che nel solo 2023 la ricerca sull’IA si è accattivata investimenti da 154 miliardi di dollari, divenendo una miniera d’oro per chiunque operi nel settore tech. Pur avendo a loro volta in mano dei prodotti imperfetti, Open AI e Microsoft si sono lanciate con prepotenza nel ramo dei motori di ricerca nella speranza di logorare il monopolio di Google sfruttando la novità rappresentata dalle intelligenze artificiali, quindi è facile credere che una simile condizione di competitività abbia spinto Pichai a mettere da parte la cautela in favore del sempreverde Dogma del “move fast and break things”.
[Nota 02/06/2024: giovedì 30 maggio, Google ha fornito sul suo blog un riscontro sui difetti emersi, prendendo atto della situazione. La Vicepresidente Liz Reid ha approfittato del post per lamentare che alcuni degli esempi riportati sulla Rete siano stati creati artificialmente al fine di fomentare l’attenzione. Vale la pena rimarcare che, vista la natura stessa dei sistemi di machine learning, non sempre è possibile riprodurre quanto viene generato dalle IA, cosa che a sua volta rende molto difficile verificare le fonti.]
[di Walter Ferri]
Non penso si possa dire “ fraintendendo le loro facezie per informazioni affidabili” in italiano.