Intelligenza artificiale: quali limiti?
DA GAZZETTA FILOSOFICA (Di Emma Pivato)
I sistemi di intelligenza artificiale sono prossimi a sostituire l’essere umano? Questo interrogativo si impone all’attenzione ogni qualvolta le notizie di cronaca descrivono, con dosi variabili di entusiasmo e allarmismo, un nuovo progresso compiuto dall’IA. L’intelligenza artificiale è dunque a un passo dall’eguagliare, o addirittura dal superare, le capacità umane? Il proposito delle seguenti righe è quello di offrire un piccolo contributo allo sviluppo di una consapevolezza collettiva riguardo al rapporto tra persona e intelligenza artificiale.
L’intelligenza artificiale (IA) rappresenta, ad oggi, uno dei massimi catalizzatori d’interesse dell’opinione pubblica, dei media e degli attori politici. Si pensi, ad esempio, allo spazio che verrà dedicato al tema nel corso del prossimo Vertice dei leader del G7, in programma per il mese di giugno. A tal proposito, per esempio, è di pochi giorni fa l’annuncio che anche Papa Francesco prenderà parte ai lavori della sessione “Outreach”, dedicata all’IA.
Anche il Parlamento europeo è recentemente intervenuto in tema di Intelligenza Artificiale, approvando il cd. Artificial Intelligence Act (AI Act) in data 13 marzo 2024. Data quindi la grande rilevanza che il tema ricopre si desidera sottoporre all’attenzione di chi legge alcune riflessioni.
La capacità di apprendimento dei sistemi di intelligenza artificiale dipende da due principali fattori: la disponibilità di enormi quantità di dati e la possibilità, grazie all’aumentata potenza di calcolo degli elaboratori, di eseguire algoritmi sempre più complessi. Per raggiungere lo scopo desiderato dall’uomo i sistemi di IA necessitano di un iniziale periodo di addestramento. Un esempio permetterà di cogliere chiaramente a cosa ci si riferisca. Si immagini che un sistema di IA sia stato creato allo scopo di riconoscere se in una foto sia presente o meno un cane. In tal caso, durante lo step di addestramento verranno forniti al sistema degli esempi sia di foto in cui compaiono cani sia di immagini in cui non compaiono. Sulla base di tale “allenamento”, l’algoritmo sarà in grado di “calibrare” la propria capacità di previsione. In termini atecnici, ogni volta che il sistema riceve un nuovo input (nel nostro esempio, una foto) vaglia se vi sia una correlazione statistica con i dati di addestramento e, in base a quella, inferisce un output (cane o non cane). Pertanto, la correttezza della previsione del sistema è direttamente proporzionale alla quantità e all’accuratezza degli input forniti durante l’allenamento iniziale. È possibile, quindi, che qualora l’algoritmo individui correlazioni “sbagliate” tra il nuovo input fornito e i dati già immagazzinati, l’inferenza dell’IA si rilevi errata. Ciò avviene, ad esempio, quando si verifica il fenomeno del cd. overfitting. Ancora una volta, si consenta di ricorrere a un caso esemplificativo tratto dal libro L’Intelligenza Artificiale. Una guida per esseri umani pensanti di Melanie Mitchell, edito da Einaudi. L’autrice narra l’esperienza di un ricercatore del proprio gruppo, il quale aveva addestrato un sistema di IA affinché riconoscesse la presenza di animali all’interno di una fotografia. I risultati ottenuti erano piuttosto soddisfacenti. Tuttavia, dopo uno studio approfondo, il ricercatore giunse a una conclusione inattesa: l’IA non aveva imparato a riconoscere gli animali nelle foto. Il sistema aveva appreso, invece, che le foto classificate dal ricercatore con l’etichetta “contiene un animale” avevano sfondi sfocati (poiché, in effetti, quando si fotografa un soggetto lo si mette a fuoco e il paesaggio risulta meno nitido). Pertanto, l’algoritmo avrebbe fornito lo stesso output a prescindere dal fatto che il soggetto inquadrato fosse stato o meno un animale. In questo caso, il sistema si era “sovra-adattato” (overfitted), cogliendo negli input forniti in addestramento correlazioni diverse da quelle desiderate dal ricercatore (Mitchell, op.cit., pp. 99-101).
È utile trarre dal brillante testo di Mitchell anche un ulteriore esempio che dimostra come i sistemi di IA possano presentare dei cd. bias. Qualche anno fa Google lanciò una funzione che permetteva l’etichettatura automatica di foto. L’algoritmo utilizzato a tal fine etichettò come “gorilla” il selfie di due ragazzi afroamericani. Perché? La risposta è presto fornita da Mitchell: uno dei dataset ampiamente impiegati per addestrare i sistemi di riconoscimento facciale contiene il 77,5 % di volti maschili e l’85% di persone bianche (Mitchell, op.cit., p. 102). Gli episodi riportati dimostrano come l’insieme dei dati con cui è allenato un sistema di IA ne influenzi profondamente il funzionamento. Pertanto, almeno allo stato attuale, l’essere umano sembra avere ancora un ruolo fondamentale nello sviluppo e nella valutazione dei risultati dei sistemi di IA.
Vi sono anche molte situazioni in cui i sistemi di IA si sono rivelati molto più efficienti e precisi dell’uomo nello svolgere il compito loro assegnato. Nel 1997 Deep Blue, un programma dell’International Business Machines (IBM), sconfisse il campione del mondo di scacchi Garry Kasparov. Nel 2016 il sistema AlphaGo sconfisse Lee Sedol, tra i migliori giocatori mondiali di Go. Per completezza, si ricordi che il Go è un gioco da tavolo che prevede combinazioni di mosse molto più complicate rispetto a quelle degli scacchi. I sistemi di IA, quindi, hanno raggiunto livelli molto superiori rispetto alla capacità umana, almeno in specifici ambiti.
Si potrebbe allora interrogarsi sul perché, in relazione a determinati compiti, l’IA sia altamente efficiente e avanzata mentre, riguardo ad altre attività, i sistemi di IA continuino a essere imprecisi e a commettere errori che appaiono grossolani ai nostri occhi (nessun essere umano avrebbe scambiato due ragazzi afroamericani per gorilla, pur non disponendo di tutti gli esempi immagazzinati di cui dispone un sistema di riconoscimento di immagini). Lo scopo di questo scritto non è quello rispondere a tale quesito sul piano tecnico o informatico, quanto quello di riflettere su ciò che gli esempi descritti finora possono rivelare sul rapporto tra uomo e Intelligenza Artificiale.
Per comodità espositiva, proseguiamo la trattazione considerando ancora una volta il gioco degli scacchi. Al fine di comprendere la ragione che rende i sistemi di IA molto efficienti in quest’ambito, si offre una rapida spiegazione del loro funzionamento. Il fulcro del loro successo consiste nella capacità di predire le possibili mosse vincenti in modo più efficace di quanto faccia un giocatore umano. Per ogni pedina spostata, il sistema di IA calcola una serie di possibili mosse conseguenti e indica come output quella che, stando ai dati di allenamento, garantisce la maggior probabilità che la partita finisca con una vittoria. Il sistema non calcola ogni mossa possibile nella partita poiché, date le migliaia e migliaia di combinazioni di pedine possibili, ciò richiederebbe un tempo veramente molto lungo. Tuttavia, il numero di configurazioni vincenti che il sistema riesce a prevedere in pochi attimi è comunque decisamente superiore a quelle che riesce a prevedere un giocatore umano.
In altri termini, si potrebbe affermare che un sistema di IA è in grado di essere più efficiente di un essere umano quando gioca a scacchi (o a dama, o a Go) perché in quel contesto riesce ad esplicitare e tenere presenti più determinazioni di quanto possa fare una persona.
Pensiamo ora a un’ulteriore situazione, sempre legata al gioco degli scacchi. Poniamo il caso in cui un genitore stia insegnando a giocare al figlioletto e sia disposto a perdere appositamente la partita con l’obiettivo di dimostrare al bimbo le conseguenze di determinate mosse sbagliate. Sembra di poter dire che, in tal caso, l’IA programmata per vincere non sarebbe “migliore” dell’uomo. Sarebbero infatti mutate le relazioni da esplicitare e tenere presenti nel contesto, che non potrebbero essere ridotte a quelle riguardanti ciò che accade sulla scacchiera. In una simile circostanza, sarebbe fondamentale considerare, ad esempio, il valore che la sconfitta potrebbe avere nel rafforzare le abilità scacchistiche del figlio.
Considerando i brevi esempi appena descritti, si potrebbe sostenere che il sistema “è migliore” dell’umano nella misura in cui, rispetto al caso particolare considerato, permette di esplicitare maggiori relazioni di quanto riesca a fare l’individuo. A ben vedere, però, ciò potrebbe avvenire raramente, se non mai. La possibilità di cogliere ed affermare relazioni, infatti, non può che dipendere dalla consapevolezza di essere costantemente in relazione. Almeno per il momento, questa consapevolezza è estranea all’intelligenza artificiale. Un individuo è in grado di cogliere l’universale nel particolare: comprende come l’esperienza concreta che gli si manifesta si inserisca in un più ampio e complesso insieme di determinazioni che lo rendono singolarità in relazione con l’altro da sé. Nella situazione riportata poco sopra, il padre comprende che l’esperienza particolare di quella sconfitta è inevitabilmente connessa a un piano più ampio, che tende all’universalità delle relazioni, e gli fa cogliere l’importanza di valorizzare l’apprendimento del figlio. I sistemi di IA, invece, limitano la loro conoscenza ai dati già immagazzinati e non colgono in essi altre relazioni se non quelle suggerite dalla correlazione statistica.
Quanto detto potrebbe fornire una spiegazione anche all’errata classificazione della foto raffigurante i due ragazzi afroamericani. È opportuno ricordare, inoltre, che mentre i giochi da tavolo hanno regole ben precise, che si ripresentano uguali a sé stesse in ogni partita, la realtà non gode della stessa caratteristica. Pertanto, il numero di determinazioni che un sistema di IA deve conoscere per giocare bene a scacchi, per quanto possa essere elevato, è comunque ben gestibile grazie alla correlazione statistica. È questo ciò che consente che ci possano essere casi in cui si ritiene l’IA “migliore” dell’uomo a scacchi. Si è tuttavia appena evidenziato come, anche in queste situazioni, l’esplicitarsi di relazioni non calcolabili dal sistema mostri i limiti insiti nella non consapevolezza dell’universale che caratterizza l’IA.
L’esempio dei due ragazzi afroamericani non fa altro che mettere in luce in modo ancora più limpido come i sistemi di IA basino il loro funzionamento nel cogliere il particolare, astraendolo dal tutto. Nell’etichettare i soggetti come “gorilla”, l’algoritmo ha correlato tra loro un numero ridotto di relazioni (quelle rilevate nella foto e nei dati di addestramento) ma, data l’impossibilità di comprenderne altre, ha considerato quelle in suo possesso come l’universalità cui fare riferimento. Poiché, in questo caso, la correlazione statistica risulta meno efficace per approssimare l’universale di quanto non lo risulti negli scacchi, l’errore si manifesta con maggior forza ed è più facilmente ravvisabile.
Il fatto che le relazioni conoscibili grazie alla correlazione statistica non siano sufficienti ad approssimare la complessità del reale emerge anche, ad esempio, quando viene richiesto a un sistema di IA di tradurre un lungo brano da una lingua ad un’altra. Si notano spesso, infatti, errori che un soggetto umano abbastanza versato in entrambe le lingue in questione non commetterebbe. Mentre nel tradurre una singola parola la percentuale di successo del sistema è molto alta, quando aumenta il numero di determinazioni da gestire, il funzionamento basato sulla correlazione statistica palesa i propri limiti.
Quanto finora evidenziato sembra potersi accordare con quanto esposto da Luciano Floridi in Etica dell’intelligenza artificiale. Sviluppi, opportunità, sfide, di Raffaello Cortina Editore. Egli, infatti, definisce l’IA non come nuova forma di intelligenza ma come «una riserva di capacità di agire a portata di mano» (Floridi, op.cit., p.53). Tale capacità di agire, peraltro, funzionerebbe nella misura in cui si realizzi un fenomeno di avvolgimento, ossia si strutturi l’ambiente esterno attorno alle capacità dell’IA. Per esemplificare:
« Quando parliamo di città smart, facciamo riferimento anche al fatto che stiamo trasformando gli habitat sociali in luoghi in cui i robot possono operare con successo. Da decenni avvolgiamo il mondo intorno alle tecnologie digitali in modo invisibile e senza rendercene interamente conto. » (Floridi, op.cit., p. 56)
Per riportare la proposta di Floridi nei termini finora impiegati in queste righe, si potrebbe affermare che l’uomo, per ottenere sistemi di IA efficienti, ha avviato un processo di avvolgimento che consiste nel ridurre le determinazioni con cui l’IA entra in contatto, al punto tale che la correlazione statistica diviene sufficiente per gestirle utilmente.
Considerando ciò che è emerso in queste pagine, tuttavia, pare potersi concludere che, almeno allo stato attuale (e probabilmente per molto tempo), nessun grado di avvolgimento sarà tale da permettere che i sistemi di IA sostituiscano, eguaglino o superino la consapevolezza umana. L’esistenza, infatti, è proprio il continuo instaurarsi e manifestarsi delle relazioni che legano un soggetto all’altro da sé, che non sono riconducibili al solo calcolo statistico. Per ricorrere a una similitudine, non sembra esistere la possibilità che un’IA come Hal 9000 di 2001: Odissea nello spazio compaia a breve.
FONTE: https://www.gazzettafilosofica.net/2024-1/maggio/intelligenza-artificiale-quali-limiti/
Commenti recenti