report

A chi serve ChatGPT?

Pubblicato in Intelligenza Artificiale da

AA

Le intelligenze artificiali generative possono definirsi come algoritmi di deep learning in grado di produrre e creare nuovi contenuti, che siano testi, immagini o video. Queste intelligenze artificiali si presentano come tecnologie disruptive in grado di cambiare la società e il modo in cui vediamo la realtà. Il recente fenomeno di ChatGPT, intelligenza artificiale in grado di produrre testi, ha suscitato pareri contrastanti sull’utilizzo di queste nuove tecnologie e sulla loro effettiva utilità.

Dal suo lancio sono emerse rapidamente opinioni secondo cui con il diffondersi di questo genere di AI diminuiranno le capacità intellettive degli esseri umani. Questo perché tramite ChatGPT si possono generare rapidamente e senza sforzi testi abbastanza elaborati, con analisi più o meno approfondite su svariati argomenti. Per questo, molti dicono che le persone smetteranno di scrivere, di leggere e di informarsi, perché basterà chiedere all’assistente virtuale di fare ognuna di queste azioni.

Ma c’è qualcosa che i sostenitori di questa opinione dimenticano, o forse sottovalutano: ChatGPT sbaglia. Sbaglia spesso e anche di molto. Volendo fare un esempio concreto, se si chiedesse a ChatGPT di elencare degli articoli scientifici su un determinato argomento con relativi riferimenti attraverso cui poterli consultare (DOI, riviste, etc.), riceveremmo titoli e link completamente inventati. Non se la cava tanto bene nemmeno nella comparazione di fonti simili, evidenziando termini o concetti non rilevanti al fine della discussione, che in ultima analisi risultano fuorvianti. Anche nella traduzione di contenuti ha le sue pecche, non cogliendo spesso la sfumatura esatta di una parola in uno specifico contesto e alterando il senso della frase. La sua capacità di creare si limita a istruzioni molto dettagliate su quello che deve fare, un input preciso che allontani il più possibile le inesattezze e le falsità in cui spesso si incorre.

Ciò però contrasta con la voglia degli utenti di avere risposte rapide, immediate e rilevanti pur fornendo un input generico, come si fa con Google e qualsiasi altro motore di ricerca. ChatGPT segna un passo differente nel modo di ricevere informazioni: aggrega più fonti per produrre un testo coerente su un argomento o una richiesta eliminando l’indicizzazione delle pagine, le fonti, e quindi, l’elemento di verificazione. Questa opacità è dovuta anche alle limitazioni che sono state immesse appositamente dagli sviluppatori per rendere la loro intelligenza artificiale uno strumento imparziale, che rifletta un’informazione pulita e non negativa, oggettiva e acritica.

Se da una parte si può interpretare ciò in maniera positiva (permettere all’utente di sviluppare un proprio pensiero critico), dall’altra si perdono i chiaroscuri e le contraddizioni di un’argomentazione o di una discussione che invece è possibile reperire su Wikipedia o sui vari dizionari enciclopedici. La pluralità delle fonti si condensa fino a non essere più individuabile e definibile, per dare spazio al potere oracolare dell’intelligenza artificiale, in grado di guardare nelle viscere del web e della conoscenza umana ed esprimere un giudizio sintetico, spesso banale e ripetitivo, su un quesito. Ovviamente dipende da ciò che si chiede, ma ChatGPT commette numerosi errori dovuti inerentemente al suo sistema. È lo stesso ChatGPT ad elencare i tre motivi per cui il modo in cui è progettato lo porti a commettere errori:

  1. Limitazioni delle mie conoscenze: Anche se il mio addestramento si basa su una vasta quantità di informazioni, potrei non avere familiarità con alcuni argomenti specifici o con informazioni aggiornate a meno che non siano state incluse nelle mie conoscenze.
  2. Ambiguità nella domanda: A volte le domande potrebbero essere formulate in modo ambiguo o con informazioni incomplete, il che potrebbe portarmi a fornire risposte incomplete o errate.
  3. Errori di elaborazione del linguaggio naturale: Potrei commettere errori di elaborazione del linguaggio naturale a causa di ambiguità sintattiche o semantiche, di errori di trascrizione, di frasi non complete o di altri problemi tecnici.

Questi punti sono piuttosto noti e oggetto di discussione, poiché l’uso di programmi simili può assecondare la diffusione di disinformazione. Ciò è assolutamente vero, ma si dimentica di dire che quando qualcuno genera un testo tramite un AI lo fa per poi diffonderlo e farlo leggere ad altri. Se chi ha diffuso il testo non è stato in grado di notare gli errori fatti da ChatGPT, sarà qualche lettore a farlo. Questo significa una cosa molto importante: se non si ha competenza e conoscenza in materia, usando ChatGPT verranno generati testi imprecisi che gli altri potranno facilmente giudicare come non originali. Se invece si posseggono le competenze per notare eventuali errori o misinterpretazioni da parte dell’AI, allora si avrà modo di poterla utilizzare in modo fruttuoso. E allora l’intelligenza, la capacità di analisi, l’abilità di trovare errori o dati inesatti non saranno cancellati dall’avvento dei sistemi di generazione dei testi, ma al contrario saranno la base necessaria per poterli utilizzare correttamente.

Prendiamo un esempio concreto che sta alimentando una buona parte del dibattito su ChatGPT: l’uso di questa tecnologia da parte degli studenti per scrivere paper e testi d’esame. Molti professori si sentono già umiliati dall’idea di dover valutare degli studenti sulla base di testi scritti da un’AI, e invocano l’utilizzo di sistemi che rilevino tracce di questa pratica. Eppure, ciò che non si dice è che uno studente che non ha studiato non è in grado di riconoscere se all’interno del testo generato da ChatGPT per il suo compito ci siano errori, anche marchiani. Ne consegue con molta probabilità che il risultato dell’esame sarebbe certamente inferiore ad uno studente che ha studiato e che non solo è in grado di scrivere lui stesso il testo, ma che potrebbe anche utilizzare ChatGPT, stavolta correggendo il testo sulla base delle sue conoscenze e competenze. Qualcuno potrebbe dire che anche questo utilizzo consapevole dell’intelligenza artificiale sia comunque una scorciatoia per gli studenti, spingendoli a disimparare a scrivere un testo da soli. Su questo si può dibattere, ma resta il fatto che essi non potrebbero prescindere dallo studio e dall’utilizzo di spirito critico, necessari per valutare i testi generati dall’AI.

A chi serve quindi ChatGPT? Come ha affermato il CEO di OpenAI Sam Altman in un tweet, “ChatGPT is incredibly limited, but good enough at some things to create a misleading impression of greatness. it’s a mistake to be relying on it for anything important right now.” Questo significa che esso serve solo a chi è in grado di non farsi ingannare dall’impressione di oggettività e affidabilità che ChatGPT trasmette. A chi, cioè, non si affida mai allo strumento, ma lo usa con sapienza, come occasione di riflessione o come fonte di stimoli nuovi su un argomento che conosce in profondità e nel quale sa individuare gli errori. Allo stesso tempo, ChatGPT è utile solo per coloro che hanno dimestichezza con le AI generative e hanno una buona padronanza del linguaggio, che sanno porre le domande corrette e nel modo corretto, evitando le continue interpretazioni errate. Inoltre, ChatGPT ha bisogno di questo rapporto costante di correzioni da parte umana per imparare dagli errori che fa. Ciò apre la porta ad una riflessione più ampia: se chi usa questo strumento non è in grado di capirlo, allora lo strumento non sarà in grado di capire nemmeno l’umano.

Servizi coinvolti

Valutazione dell'impatto etico della tecnologia
Aiutiamo i nostri clienti e i nostri partner nel processo di analisi critica con lo scopo di esaminare gli effetti che l'introduzione e l'uso di una tecnologia possono avere sui diritti umani, sulla società, sull'ambiente. Un processo complesso che richiede una visione e una considerazione sistematica di come la tecnologia potrebbe influire sulle persone e sulla società in generale a breve e a lungo termine. L'impatto etico della tecnologia è quindi cruciale quando si sviluppano e si utilizzano nuove tecnologie, affinché si possano mitigare gli effetti negativi e massimizzare i benefici, e per consentire agli sviluppatori, alle organizzazioni e ai decisori politici di prendere decisioni informate. In tale valutazione accompagniamo i nostri clienti e partner alla considerazione di tutti i fattori pertinenti; ci sono diverse metodologie e approcci utilizzati per valutare l'impatto etico delle tecnologie, tra cui:
  • Analisi di impatto sulla privacy: questo tipo di analisi valuta gli effetti della tecnologia sulla privacy degli individui e sulle loro informazioni personali. Si considerano i rischi di monitoraggio e di tracciamento, le conseguenze di eventuali violazioni dei dati e le misure di sicurezza necessarie per proteggere la privacy degli utenti.
  • Valutazione dell'impatto sociale: questo tipo di analisi valuta gli effetti della tecnologia sulla società e sull'economia in generale, considerando gli impatti sulla disoccupazione, sull'uguaglianza sociale, sull'accesso all'istruzione e alla salute, sulla qualità della vita e sulla sostenibilità ambientale.
  • Valutazione dell'impatto etico: questo tipo di analisi valuta gli effetti della tecnologia sulla morale e sui valori della società, considerando gli impatti sulla giustizia sociale, sulla responsabilità, sulla trasparenza, sulla dignità umana e sulla libertà individuale.
  • Analisi del ciclo di vita: Questo tipo di analisi valuta gli impatti ambientali della tecnologia lungo tutto il suo ciclo di vita, dalla produzione all'uso e alla fine della vita.
La valutazione dell'impatto etico delle tecnologie richiede quindi una valutazione multidisciplinare che coinvolge esperti di tecnologia, esperti di etica, esperti di diritto, di ambiente e altre parti interessate.
Ricerca e innovazione responsabile
Ammettiamo di essere tremendamente curiosi e appassionati di ricerca ed innovazione. Siamo incredibilmente attenti ai potenziali effetti e impatti dell’innovazione sull'etica, sulla privacy e sulla protezione dei dati. Lavoriamo insieme ai nostri partner per creare soluzioni efficienti che risolvano questioni etiche, legali e di sicurezza informatica sia sul processo di ricerca, che sul progetto e sui risultati.  Abbiamo esperienze e competenze complementari! Siamo un team multidisciplinare capace di osservare ogni tipo di scenario da angolazioni diverse:
  • etico per il coinvolgimento degli esseri umani nelle attività di ricerca;
  • legale per l'analisi del quadro giuridico internazionale UE e italiano applicabile alla tecnologia e alle raccomandazioni per lo sviluppo sicuro e conforme della tecnologia;
  • tecnologico per la creazione di soluzioni innovative che rispettino sempre i reggenti paradigmi di sicurezza.
Promuoviamo l'inclusione delle questioni legali ed etiche nella progettazione della tecnologia e la creazione delle pratiche migliori per l'adozione della tecnologia in modo consapevole e trasparente.