report

Dinamiche Uomo-Macchina nel Machine Learning: Implicazioni Etiche, Gestione dei Bias e Dilemmi della Personalizzazione

Pubblicato in Etica da

AA

Nel secondo episodio del podcastLet’s Talk emerging technologies” di FORGING, Lorena Volpini risponde a 4 domande sull’interazione degli umani con il machine learning. Riportiamo qui di seguito la trascrizione dell’intervista in italiano.

 

FORGING: In che modo il machine learning ha influenzato il modo in cui gli esseri umani interagiscono con la tecnologia negli ultimi anni e quali sono alcuni esempi significativi di questo impatto?

 

LV: Il machine learning ha trasformato l’uso della tecnologia nella vita quotidiana, sia quantitativamente, sia qualitativamente. Oggi, si interagisce con la tecnologia non solo più spesso e ma anche ad un livello più intimo, e questo sta cambiando il modo in cui comunichiamo ed entriamo in relazione tra noi.  Influenza il modo in cui impariamo, lavoriamo, ci curiamo e in generale, viviamo.

L’esempio probabilmente più noto è la personalizzazione dei contenuti: gli algoritmi analizzano il nostro comportamento passato online e le nostre preferenze per personalizzare le raccomandazioni e i contenuti che ci vengono proposti e ciò si applica alle pubblicità mirate (praticamente ovunque), ai suggerimenti sui prodotti nelle piattaforme di e-commerce, ai feed di notizie personalizzati sui social media. 

Un altro esempio è l’interazione in linguaggio naturale con i dispositivi: grazie agli avanzamenti nel Natural Language Processing, il machine learning alimenta oggi assistenti virtuali e chatbot. Queste applicazioni sono in grado di comprendere i comandi vocali, rispondere alle domande ed eseguire compiti. Anche le applicazioni di IA generativa, come chat GPT e Bard, stanno cambiando il modo in cui creiamo contenuti o semplicemente il modo in cui vengono effettuate le ricerche sul web. 

Il machine learning alimenta i sistemi predittivi, che sempre più vengono utilizzati con l’obiettivo di prendere decisioni informate e ottimizzare i processi. Sulla base di dati storici, gli algoritmi sono in grado di prevedere – o meglio di stimare probabilità di – tendenze future e di scoprire patterns. Gli usi sono molteplici: dalla manutenzione predittiva dei macchinari nell’industria, alla previsione del comportamento dei clienti, all’anticipazione della congestione del traffico. I sistemi predittivi sono attualmente adottati in molti settori, come le assunzioni, l’erogazione di prestiti, l’istruzione…

Poi si possono menzionare le immagini e il riconoscimento vocale: conosciamo tutti l’etichettatura automatica nelle app che immagazzinano e gestiscono le nostre foto, i sistemi di riconoscimento facciale per la sicurezza o l’autenticazione in servizi digitali. Il riconoscimento vocale poi consente trascrizioni automatiche da voce a testo e traduzioni in tempo reale.

Un settore che si sta rivoluzionando è quello della sanità: il machine learning viene utilizzato nell’analisi delle immagini mediche per rilevare le anomalie e assistere nella diagnosi. Inoltre, contribuisce alla scoperta di farmaci e a trattamenti personalizzati, adattando l’assistenza sanitaria alle esigenze individuali. 

Con la continua evoluzione del ML, possiamo aspettarci trasformazioni ancora più profonde nel modo in cui interagiamo attivamente o passivamente con il mondo digitale.

FORGING: Quali considerazioni etiche devono essere tenute presenti quando si progettano sistemi di machine learning che interagiscono con gli esseri umani e come possono essere integrate nel processo di progettazione?

 

LV: I sistemi di intelligenza artificiale hanno la capacità di interagire autonomamente con l’ambiente e di adattarsi. Negli ultimi anni diverse organizzazioni hanno prodotto dei quadri di riferimento per l’etica dei sistemi di intelligenza artificiale, tra cui l’Unione Europea. Le attuali linee guida etiche europee si basano su quattro principi: il rispetto dell’autonomia umana, la prevenzione del danno, l’equità e la spiegabilità. Tali principi sono stati tratti dai diritti fondamentali della Carta dell’UE e sono tradotti in requisiti di sistema per garantire che questi valori siano incorporati in un determinato sistema di apprendimento automatico. 

Ma questo non è un compito facile, per molte ragioni. Prendiamo l’esempio di un algoritmo di machine learning per ausiliare diagnosi mediche. Esiste in primo luogo un lavoro tecnico di progettazione e formazione dell’algoritmo necessario per identificare con precisione gli schemi nei dati medici, come i sintomi dei pazienti, i risultati di laboratorio e le immagini, e ciò richiede evidentemente oltre a conoscenza di dominio, competenze in informatica, data science e tecniche di apprendimento automatico. C’è poi un lavoro filosofico per identificare i valori rilevanti che l’algoritmo dovrebbe promuovere. In questo caso, la sicurezza del paziente, l’accuratezza diagnostica, l’equità e la non discriminazione sono fondamentali. Gli sviluppatori devono considerare come incorporare questi valori nella progettazione dell’algoritmo, assicurandosi che esso non perpetui pregiudizi o porti a risultati discriminatori. 

Ma, anche ammettendo che si siano ben concettualizzati i valori, si sia fatto tutto il possibile per incorporarli nella tecnologia in fase di progettazione, può comunque accadere che, anche se apparentemente tutto funziona nel modo giusto, gli utenti trovino la soluzione tecnologica troppo onerosa, o che non vi ripongano fiducia. 

Qui entra in gioco l’indagine empirica – per cui le competenze necessarie sono da ricercare nelle scienze sociali – per capire se i tentativi di promuovere determinati valori, lo facciano con esito. Potrebbero essere necessari test di usabilità, studi sul campo, sondaggi, interviste e persino una ri-progettazione… Qui l’interdisciplinarità è fondamentale, perché i risultati di un’area influenzano le altre aree.

 

FORGING: I bias sono problemi critici nell’apprendimento automatico. Come possiamo affrontare i bias negli algoritmi che hanno a che fare con l’interazione umana e quali misure possono essere adottate per garantire equità e imparzialità?

 

LV: Questa è un’ottima domanda. La parzialità è un aspetto critico nell’attuale economia dei Big Data, in cui gli algoritmi influenzano le raccomandazioni sui prodotti che acquistiamo, le notizie che leggiamo, ma anche i posti di lavoro per i quali veniamo assunti, le diagnosi mediche o l’idoneità a ricevere prestiti o servizi sociali. 

I sistemi di machine learning si sono diffusi in molti settori sensibili che prendono decisioni capaci di cambiare la nostra vita, quindi dobbiamo assicurarci che queste decisioni non riflettano un comportamento discriminatorio nei confronti di determinati gruppi o popolazioni.

In sostanza, i bias nell’apprendimento automatico portano a risultati distorti. Ma il problema dei bias non riguarda solo gli algoritmi. Si può sostenere che anche le persone abbiano dei pregiudizi e che ci siano dei vantaggi nel processo decisionale algoritmico; a differenza degli esseri umani, ad esempio, le macchine non si stancano né si annoiano…  

In maggior parte, i sistemi di apprendimento automatico sono basati su dati e quindi necessitano di dati per essere addestrati. Il fatto è che molte volte non sappiamo quali siano questi dati né come noi veniamo etichettati in questi dati. Ma questo è molto importante perché nell’apprendimento automatico, in un certo senso, i dati diventano il nostro destino. Ed ecco qui qualcosa su cui soffermarci, di interessante: I sistemi di machine learning sono orientati al futuro, mirano a fare previsioni per il futuro, predizioni, ma si basano su enormi quantità di dati storici… e sono altamente suscettibili ai pregiudizi.

 

FORGING: L’uso dell’apprendimento automatico si basa sui sistemi di personalizzazione. In che modo ciò può avere un impatto sulla privacy e sull’autonomia delle persone e quali misure possono essere adottate per garantire un equilibrio tra personalizzazione e privacy?

 

LV: Voglio soffermarmi un attimo sul punto di vista dell’utente. Siamo in una situazione tale per cui ci troviamo dinanzi a scelte importanti e difficili, nel barattare la nostra privacy con la comodità della personalizzazione di cui dicevo prima. Credo che non esista un giusto equilibrio identificabile a priori tra personalizzazione e privacy, perché ci troviamo in un contesto dinamico, che si evolve con il mutare delle aspettative degli utenti, l’evolversi della tecnologia e delle normative. 

La questione richiede quindi sicuramente vigilanza continua, ma anche trasparenza, una progettazione incentrata sull’utente e un impegno permanente a favore di pratiche etiche in materia di dati. 

Le priorità sono pertanto: la trasparenza, il consenso granulare, l’anonimizzazione, il controllo da parte degli utenti e la minimizzazione dei dati. Sono inoltre essenziali verifiche regolari della privacy, della sicurezza dei dati e della conformità alle normative. Tuttavia la sfida rimane: dove dobbiamo tracciare la linea di demarcazione tra personalizzazione, sorveglianza e diritti delle persone in un mondo online sempre più personalizzato, in cui le nostre attività possono essere tracciate, memorizzate, analizzate e utilizzate da fornitori e amministrazioni pubbliche, e ancora vendute. 

Ci troviamo quindi dinanzi ad un dilemma: quanto dovremmo cedere e cosa dovremmo ottenere in cambio? 

A questo proposito, vorrei soffermarmi su due punti: 

Il primo è la necessità di consapevolezza. Gli utenti devono avere la possibilità di fare scelte informate. La portabilità dei dati e le tecnologie innovative per la privacy sono fondamentali. Ma… sappiamo quali sono i criteri utilizzati per personalizzare i nostri risultati? Siamo consapevoli che questo viene fatto? E soprattutto: possiamo disattivare questa opzione se vogliamo?

L’altro punto è la necessità di superare la percezione che l’impatto della nostra attività di condivisione sia su noi stessi, come individui, perché in realtà ha un impatto collettivo. Esiste un importante aspetto relazionale nella raccolta dei dati, che a volte facciamo fatica a considerare, perché i dati personali identificano non solo gli individui ma anche le relazioni tra di essi.

Questo può apparire più chiaro se pensiamo ai diritti dei bambini riguardo all’esposizione online e allo sharenting, come esempio. L’idea da tener presente è che la propria privacy è intrinsecamente interdipendente dalle scelte fatte da altri. È quindi necessario un cambiamento nel modo in cui inquadriamo questo compromesso tra privacy e personalizzazione.

Servizi coinvolti