Lo scorso 30 marzo il Garante della Privacy Italiano ha disposto la limitazione del trattamento dei dati degli utenti italiani da parte di Chat GPT. Al provvedimento del Garante la società statunitense Open-AI, proprietaria dell’Intelligenza Artificiale, rispondeva prontamente sospendendo l’accesso a Chat GPT da parte degli indirizzi IP italiani. Ma nonostante questo inizio piuttosto burrascoso, nel giro di pochi giorni, tra istituzione e azienda si creava in realtà un dialogo collaborativo: già il 3 Aprile Open AI si rendeva disponibile nei confronti dell’Autorità italiana a trovare una soluzione condivisa «in grado di risolvere i profili critici sollevati […] in merito al trattamento dei dati dei cittadini italiani». Nei giorni seguenti si sono susseguiti diversi incontri tra i membri del Collegio del Garante e i responsabili di Open AI, tra cui Sam Altman, CEO dell’azienda, che aveva condiviso su Twitter questo commento:
“We of course defer to the Italian government and have ceased offering ChatGPT in Italy (though we think we are following all privacy laws).”
Nel suo tweet Sam Altman sembrava fare una certa confusione tra l’attività di governo e quella di una istituzione indipendente come il Garante, ma, in buona sostanza, dimostrava anche una gestione apparentemente amichevole del “problema” ChatGPT da parte dei diretti interessati. Altrettanto non si può affermare sul modo in cui la notizia sia stata trattata nel dibattito pubblico. Qui l’impatto del provvedimento del Garante è stato dirompente: la notizia si è diffusa sin da subito a macchia d’olio in diverse bolle sociali italiane provocando accesi dibattiti e innumerevoli scambi di opinioni tra esperti, dimostrando che il software di Open-AI era riuscito a diventare in pochissimo tempo utile — se non indispensabile — in diversi ambiti professionali e in disparate mansioni.
Ma quali sono le criticità contestate ad Open AI? Nello specifico, il Garante italiano ha individuato nel suo primo provvedimento quattro punti problematici, poi approfonditi successivamente:
A seguito dei tavoli di lavoro con Open AI, l’11 aprile il Garante italiano emette un altro provvedimento in cui approfondisce i punti critici precedentemente rilevati. Il documento elenca in tutto 9 punti, che Open AI deve implementare affinché ChatGPT possa dirsi conforme alle norme del GDPR. Molte di queste misure sono legate ai 4 punti precedentemente illustrati, ma particolarmente interessante è il nono, che rappresenta una novità. Il Garante richiede infatti
«[…] la promozione, entro il 15 maggio 2023 di una campagna di informazione, di natura non promozionale, su tutti i principali mezzi di comunicazione di massa italiani (radio, televisione, giornali e Internet) i cui contenuti andranno concordati con il Garante allo scopo di informare le persone dell’avvenuta probabile raccolta dei loro dati personali ai fini dell’addestramento degli algoritmi, dell’avvenuta pubblicazione sul sito internet della società di un’apposita informativa di dettaglio e della messa a disposizione, sempre sul sito internet della società, di uno strumento attraverso il quale tutti gli interessati potranno chiedere e ottenere la cancellazione dei propri dati personali..»
Quindi, il Garante impone ad Open AI di promuovere una vera e propria campagna di sensibilizzazione nei confronti della generalità sui rischi derivanti dall’uso di strumenti come ChatGPT e a rendere consapevoli gli interessati dei propri diritti. Ancora una volta si assiste all’irruzione di un fattore umano all’interno della tecnologia: il codice si confonde con il linguaggio naturale e diventa dirimente guidare l’innovazione verso un’intersezione etica e responsabile con la società. La regolamentazione del fenomeno tech non può limitarsi alla gestione dei suoi aspetti funzionali (software e hardware) ma deve prendere in considerazione come essi si innestano nella società e valutare in maniera critica i valori che una tecnologia può introdurre all’interno della collettività. Questa considerazione è necessaria: non solo perché difficilmente gli obiettivi finali che la tecnologia persegue possono essere ottenuti in modo ottimale senza comprendere il fattore umano, ma anche perché, in assenza di questa riflessione, si possono involontariamente raggiungere risultati o “prodotti” non etici o non rispettosi dei diritti fondamentali.
Tornando al caso in esame, certamente l’obbligo di promuovere una campagna informativa che il Garante prescrive ad Open AI ha tutte le caratteristiche di una misura straordinaria. Infatti, lo scopo ultimo è quello di “informare le persone dell’avvenuta probabile raccolta dei loro dati personali ai fini dell’addestramento degli algoritmi” da parte di ChatGPT. Se da una parte il provvedimento riconosce la necessità di interagire con il pubblico per poter raggiungere gli obiettivi della legislazione europea in tema di privacy (i.e. GPDR), allo stesso tempo essa rimane ancorata al caso specifico.
Questo tipo di approccio verso l’Intelligenza Artificiale sembra essere stato confermato anche in sede europea: nella bozza dell’AI Act – che al momento sembra essere prossimo alla fase dei triloghi – l’Art. 55 sancisce che gli Stati Membri devono “organizzare specifiche attività di sensibilizzazione” tarate sulle esigenze “dei fornitori di piccole dimensioni e degli utenti”. Senza questa cura i risultati dell’AI Act potrebbero essere modesti e non avere un impatto effettivo sulla società. Tali attività sono infatti da considerare non solo nel contesto del valore legale dei sistemi Large Language Models (LLM), come ChatGPT, ma anche in relazione al suo impatto sociale.
Se si prende in considerazione il ruolo che i modelli di Machine Learning ricoprono nella diffusione della conoscenza all’interno della società attuale, e ancor di più di quelle future, emerge chiaramente l’importanza non solo di tutelare l’integrità dei dati personali da un punto di vista legale, così come previsto dal GDPR, ma anche di assicurarsi della correttezza delle informazioni che vengono diffuse da tali sistemi nel contesto sociale. Se ciò non fosse possibile, andrebbe quanto meno tutelato il diritto dei cittadini di essere a conoscenza della reale attendibilità dei sistemi che forniscono informazioni.
I Large Language Models (LMM) come ChatGPT sono infatti sistemi che inferiscono quali siano i termini che plausibilmente si avvicinano maggiormente a ciò che viene richiesto dall’utente tramite l’input inserito. Essi non hanno alcuna consapevolezza del contenuto dell’informazione che riportano, ma solo del suo valore probabilistico. Nonostante stia raggiungendo risultati sempre più impressionanti, questo modello è caratterizzato intrinsecamente da una percentuale di errore che non dipende dal grado di sviluppo del modello, ma dalla sua tipologia (in questo caso il LLM). Ciò significa che a prescindere da quanto AI come ChatGPT si svilupperanno, esisterà sempre la possibilità — propria del modello probabilistico —che il sistema riporti informazioni scorrette. Gli errori possono coinvolgere le informazioni più complesse così come i dati più semplici e triviali, rimanendo di fatto ineliminabili. Questo è un elemento che le attività di sensibilizzazione richieste dal Garante italiano per il caso ChatGPT e previste dall’Art. 55 della bozza dell’AI Act dovrebbero assolutamente evidenziare. L’alto livello di plausibilità degli output forniti dai LLM può facilmente portare gli utenti a considerare affidabili le informazioni che ricevono da questi sistemi. Ma esiste una netta differenza tra plausibilità ed affidabilità: quando un utente riceve informazioni affidabili è consapevole che queste possano contenere errori, sebbene lievi e che concernono perlopiù elementi non fondamentali rispetto al contenuto dell’informazione richiesta. Le informazioni plausibili invece possono contenere errori, anche se pochi, ma riguardanti qualsiasi aspetto dell’informazione, anche quelli più rilevanti. Pertanto, occorre che gli utenti siano consapevoli che tramite sistemi LLM esiste sempre la possibilità di incorrere in informazioni fortemente sbagliate.
Oltre alla natura probabilistica che regola gli output dei sistemi LLM, e la loro conseguente intrinseca fallibilità, a ben vedere, è possibile individuare un’altra questione ad essa strettamente intrecciata, su cui è necessaria una ulteriore riflessione: si tratta della scarsa trasparenza rilevata dal provvedimento del Garante sulle modalità e i fini per i quali vengono raccolti e trattati i dati degli utenti. ChatGPT è infatti un LLM che impara sia sotto supervisione attraverso pre-training con specifiche istruzioni da parte dei programmatori, sia per reinforcement learning from human feedback, cioè attraverso le valutazioni positive o negative fornite dagli utenti sulle frasi e i testi in risposta a prompt e domande poste. Le aziende che sviluppano strumenti di questo genere, tra cui anche i motori di ricerca, non hanno solo il ruolo di fornire informazioni agli utenti, ma hanno anche bisogno di “fornire utenti” agli algoritmi che producono, affinché questi vengano costantemente riadattati ed implementati. Il dato personale, in questo modo, non rimane più solo nelle mani della persona, ma si mescola per condensarsi nei dati di training dell’algoritmo, portando con sé valori epistemologici, sociali e politici. Ciò significa che strumenti come ChatGPT, oltre a restituire informazioni semplicemente errate, non sono imparziali come in realtà si vogliono mostrare, poiché reimmettono nelle informazioni che producono giudizi che potrebbero contenere bias introdotti dai programmatori o dagli utenti stessi. L’idea di imparzialità rende infatti questi sistemi di Intelligenza Artificiale attori socio-tecnici affidabili e credibili, nonché legittimi mediatori di conoscenze, e ciò è dovuto in larga parte dal modo in cui vengono fornite le risposte: un unico testo senza indicizzazione di pagine, chiaro e diretto, un giudizio che — piaccia o meno — va preso così com’è, in grado di disintermediare l’utente e la scelta delle informazioni. La fiducia verso questi strumenti rappresenta un presupposto fondamentale per il loro utilizzo e rafforza il bias di automazione, il pregiudizio cioè che risposte e suggerimenti di sistemi informativi automatizzati vengano accettati più favorevolmente e siano più affidabili dell’esperienza umana, anche se non corretti o fuorvianti.
Se, alla luce di tutto ciò, non si volesse bandire completamente l’utilizzo dei LLM (operazione tanto improbabile e anacronistica quanto poco auspicabile), l’unica alternativa per rispettare il diritto dei cittadini a ricevere informazioni corrette è quella di renderli consapevoli del grado reale di attendibilità degli output di tali modelli. Questo può avvenire, come descritto, attraverso una necessaria ed estensiva campagna di sensibilizzazione. Solo una società ben informata e consapevole dei rischi in cui si incorre quando si traggono informazioni dai sistemi LLM può sfruttare al meglio le possibilità che questi forniscono.
Emerge però un’ulteriore questione problematica: il fatto che queste attività di sensibilizzazione siano affidate alle stesse aziende che producono le AI in questione. Tali aziende traggono il proprio profitto dall’uso dei sistemi che vendono: maggiore è l’utilizzo che gli utenti ne fanno, maggiore il guadagno che le aziende ricavano. Per tale motivo sembra poco plausibile che esse siano in grado di comunicare in maniera completamente onesta e disinteressata i limiti e le criticità dei loro stessi LLM e quanto sia irresponsabile utilizzare tali sistemi in modo estensivo. Si rischia, infatti, di ridurre ciò che dovrebbe essere un programma sociale volto all’utilizzo consapevole di una delle tecnologie più dirompenti del XXI secolo ad una mera compensazione o “punizione” per la comunicazione poco trasparente delle aziende che la producono. Ci si augura, quindi, che il fine di una tale campagna non sia solo quello di far scontare ad OpenAI un pegno per non aver rispettato i principi del GDPR, imponendo l’onore della comunicazione su un tema così rilevante come compensazione per gli errori commessi.
Ridurre il valore sociale della creazione di consapevolezza dei rischi dei LLM e delle AI in generale ad una questione strettamente compensativa è un errore che non ci si può permettere, poiché il costo sarebbe altissimo: ogni società, infatti, che si affida ciecamente a sistemi che potrebbero fallire in modo tanto grave quanto inaspettato è a sua volta destinata a fallire. Il ruolo di chi si occupa di etica della tecnologia, nonché del suo impatto sociale, dovrebbe essere anche quello di delineare i contenuti, i modi e i tempi in cui la campagna di sensibilizzazione sarà condotta. È necessario riflettere su quali responsabilità si vogliono affidare agli enti privati che producono le AI, e sul ruolo che dovranno assumere gli enti pubblici per compensare i limiti delle aziende nella comunicazione dei rischi delle tecnologie che loro stesse producono. Solo la collaborazione tra tutti gli attori sociali responsabili dell’uso dell’Intelligenza Artificiale può garantire una concreta consapevolezza su questa realtà tanto decisiva quanto complessa. In questo senso, è molto più consapevole l’approccio che si sta delineando nell’AI Act, che prevede che specifiche attività di sensibilizzazione siano organizzate non solo dagli Stati Membri, ma anche da uno specifico AI Office.
La vicenda sul blocco dell’accesso a ChatGPT sta andando lentamente verso il suo epilogo. Sono molte le criticità che sono state sollevate dal Garante italiano sul prodotto di Open AI. Per la soluzione di alcune di esse dovremo aspettare ancora qualche mese, ma già si possono tirare delle somme su altri aspetti che invece sono stati affrontati. Il Garante ha rilevato come ChatGPT possa portare a risposte plausibili, ma non affidabili: una caratteristica comune a tutti i LLM. Va precisato però che questo aspetto non era stato nascosto da Open AI; tuttavia, il lecito dubbio sulla consapevolezza dei limiti di questa tecnologia rimane. Come si è visto, senza un adeguato training gli utenti possono comunque essere spinti dal bias di automazione a fidarsi ciecamente delle risposte di ChatGPT.
Le misure di sensibilizzazione dovrebbero far riflettere sulla consapevolezza degli utenti riguardo tecnologie emergenti e ancora parzialmente sconosciute come i LLM. Va sottolineato come l’intrinseco valore di queste campagne di sensibilizzazione può essere raggiunto solo se queste vengono eseguite in maniera sistematica e proattiva, e cioè prima che i rischi connessi all’uso della tecnologia si manifestino. Ciò apre certamente ad una riflessione sul ruolo che il settore pubblico può avere in queste campagne d’informazione, facendosi portatore di conoscenze e consapevolezza, non relegando la comunicazione a mera avvertenza d’uso. La campagna di sensibilizzazione prescritta dal Garante, infatti, è limitata al caso specifico di Open AI. Ciononostante, il tema dovrebbe essere trattato più approfonditamente, come gli organi politici dell’Unione Europea hanno beninteso e posto già in fase valutativa. Nel breve termine, sarà sempre più importante prendere in considerazione la necessità che la conoscenza delle tecnologie emergenti sia divulgata al pubblico in maniera tempestiva, poiché il fattore sociale non sempre viene adeguatamente rappresentato nella comprensione dei rischi derivanti dall’AI, passando in secondo piano rispetto alla novità della tecnologia stessa.