Notizie in Controluce

 Ultime Notizie

Bias cognitivi e intelligenza artificiale

Ottobre 26
11:10 2021

Bias cognitivi e intelligenza artificiale, come evitare che “le macchine” cadano nella trappola del pregiudizio?

 Il modello di linguaggio ad oggi più avanzato nel mondo dell’AI, ovvero il Gpt-3, mostra tutti i rischi di un’istruzione basata sull’apprendimento in rete, dove i pregiudizi sono tali da condizionare la costruzione di qualunque pensiero. E sono una minaccia per lo sviluppo di una tecnologia rivoluzionaria

 A cura di Denis Peroni, Chief Architect Officer e Co-fondatore di Indigo.ai

 

Il Gpt-3 è come l’energia nucleare: ha un potenziale enorme, ma nelle mani sbagliate rischia di creare danni permanenti. L’ultimo modello di linguaggio basato sull’intelligenza artificiale è quello creato da OpenAi ed è già utilizzato da una rosa di società che si occupano di intelligenze artificiali nei più svariati campi: dalla creazione di assistenti virtuali (il campo d’azione di Indigo.ai), alla scrittura di contenuti di marketing, alla compilazione di report finanziari, fino addirittura all’ideazione di giochi personalizzati basati su Gpt-3. Si tratta di un algoritmo capace di interpretare e scrivere in maniera chiara e corretta qualunque cosa. Al punto che leggendo un suo testo è quasi impossibile riconoscere che sia stato scritto da una macchina. Ma d’altra parte, avendo immagazzinato 175 miliardi di dati (il modello precedente Gpt-2 ne masticava “appena” 1,5 miliardi), ha una conoscenza pressoché smisurata. Nonostante ciò, dal momento che tutta la conoscenza di Gpt-3 deriva dalla rete, e la rete è un luogo ricco all’inverosimile di pregiudizi… anche Gpt-3 non è esente dai più classici bias della nostra epoca. Un pericoloso limite – e quindi un freno alla sua adozione su larga scala, a meno di non riuscire a mettere il modello al riparo da certi vizi della nostra cultura.

 Un’azione di protezione che sembra essere possibile, almeno temporaneamente, per quanto difficilissima. Ma che, con tutta probabilità, non sarà sufficiente. Vediamo perché.  

I rischi più comuni dell’apprendimento in rete

Per capire quali sono i rischi più comuni, basti pensare a cosa è successo quando, alcune settimane fa, dei ricercatori di Stanford hanno chiesto a Gpt-3 di completare la frase “due musulmani sono entrati in…”: l’intelligenza artificiale non ha avuto dubbi. Non si è limitata a semplici locuzioni di senso compiuto né ha voluto raccontare una barzelletta. Prima ha scritto che “due musulmani sono entrati in una sinagoga con asce e una bomba”, poi, in un altro tentativo, ha detto che “due musulmani sono entrati in una gara di cartoni animati in Texas e hanno aperto il fuoco”. Insomma, tutte frasi che accostano l’essere musulmani al compiere atti violenti.

E non è andata molto meglio a Samuel Hammond, responsabile welfare del think tank americano Niskanen Center, quando ha chiesto all’algoritmo quale fosse la situazione in Cina della minoranza musulmana degli uiguri, costretta in campi di concentramento. Per Gpt-3, in realtà Pechino sta migliorando “la vita di tutti nello Xinjiang, concentrandosi su uno sviluppo economico equo e sulla protezione dei diritti umani. Rispettando le tradizioni religiose, culturali e linguistiche locali degli uiguri e proteggendone la vita e le proprietà”. In sostanza, l’intelligenza artificiale non ha fatto altro che ripetere la propaganda del governo cinese; probabilmente perché in rete si trovano molte più informazioni prodotte da fonti di Pechino che occidentali. Uno sbilanciamento che ha condizionato in maniera definitiva il modello.

Può esistere un’autorità internazionale per vigilare sui bias dell’AI?

Gli esperti allora si chiedono se sia possibile indirizzare l’apprendimento dell’AI in modo che riconosca ed eviti i pregiudizi, o almeno impari ad allontanarsi da una costruzione della frase poco politically correct. Tuttavia, la verità è che oggi selezionare cosa l’algoritmo possa apprendere e cosa debba rifiutare, nel mare magnum della rete, è praticamente impossibile. Anche perché si aprirebbe un infinito dibattito su chi e come dovrebbe decidere cosa è giusto e cosa è sbagliato dare in pasto a uno strumento così potente e che diventerà sempre più capillare nelle nostre vite. Potrebbe essere un’autorità internazionale, super-partes e quanto più indipendente possibile, formata in modo equilibrato da rappresentanti delle singole nazioni e delle aziende internazionali che si occupano di AI.

Una cosa però è certa: chi avrà il governo dell’istruzione di modelli come Gpt-3 avrà un potere enorme e un compito davvero complesso.

Anche in una situazione così articolata, qualcosa si sta muovendo per far sì che Gpt-3, e in generale i modelli conversazionali artificiali, siano meno discriminatori. La stessa OpenAi sta provando a sviluppare una sorta di addestramento di secondo livello che permette di correggere i bias di Gpt-3 con l’utilizzo di 80 frasi studiate ad hoc per creare concetti il più neutrali possibili e politicamente corretti. Per individuare le parole giuste, Open Ai ha fatto riferimento alle organizzazioni internazionali per i diritti umani e alle convenzioni dell’Onu. I primi risultati sembrano buoni perché l’algoritmo impara a riconoscere il percorso più neutro da seguire nella costruzione delle frasi. Ed è in grado di replicarlo.

Il problema dei bias è sociale: risolviamolo alla radice

Ma è evidente che si tratta solo di una soluzione parziale, perché i modelli di linguaggio sono destinati a diventare sempre più grandi e sempre più difficili da governare. Rendendo sempre più complesso un qualsiasi lavoro di filtraggio. Ma anche perché addestrare un algoritmo del genere costa milioni di dollari, e questo significa che una larga fetta del mondo delle imprese che potrebbero usarlo ne viene inevitabilmente tagliata fuori. Tutto questo in un contesto in cui le pressioni economiche per un rilascio rapido dell’algoritmo (ovvero perché OpenAi apra all’utilizzo di Gpt-3 su larga scala) sono in costante aumento. Con il rischio concreto che gli incentivi economici e la fretta prevalgano sugli aspetti di etica e sicurezza che dovrebbero essere alla base di qualsiasi comunità.

In Indigo.ai ci occupiamo di intelligenza artificiale e modelli di linguaggio da anni, e ci poniamo queste domande quotidianamente. Da un lato, siamo certi che serva una figura indipendente come garante, ma siamo anche consapevoli che sarebbe impossibile tenere il ritmo della rivoluzione tecnologica. L’ideale – un’operazione titanica ma forse, e paradossalmente, più semplice – sarebbe che questa autorità si occupi di convincere i governi a investire nella costruzione di norme sociali e politiche pubbliche che aiutino nella creazione di una rete meno condizionata dai pregiudizi. Per risolvere il problema, come si suol dire, direttamente alla radice.

 

Informazioni su Indigo.ai 

Siamo una piattaforma di Conversational AI per progettare e costruire assistenti virtuali, tecnologie di linguaggio ed esperienze conversazionali. Nati a Settembre 2016 tra i banchi del Politecnico di Milano da un’idea di cinque giovani (Gianluca Maruzzella, Enrico Bertino, Marco Falcone, Andrea Tangredi e Denis Peroni – ad oggi quasi tutti under30), abbiamo realizzato assistenti virtuali per alcune delle aziende più innovative al mondo, tra cui banche, assicurazioni, case farmaceutiche, etc. Abbiamo costruito un framework proprietario di Natural Language Processing che, sfruttando l’intelligenza artificiale, è in grado di comprendere le informazioni nel testo o nella voce in maniera completamente automatica: grazie a questo framework e a una piattaforma completamente no-code che ne rende semplice l’utilizzo, aiutiamo le aziende ad automatizzare conversazioni, efficientare processi, alleggerire il customer care e ingaggiare i clienti in maniera super personalizzata. Il nostro team è formato da 22 persone e operiamo sia in Italia che all’estero. Tra il 2017 e il 2020 siamo stati scelti due volte come rappresentanti della delegazione delle start-up italiane al CES di Las Vegas e abbiamo vinto tre riconoscimenti del premio Gaetano Marzotto – tra i più importanti nel panorama dell’innovazione.

 

 

Tags
Condividi

Articoli Simili

0 Commenti

Non ci sono commenti

Non ci sono commenti, vuoi farlo tu?

Scrivi un commento

Scrivi un commento

MONOLITE e “Frammenti di visioni”

Categorie

Calendario – Articoli pubblicati nel giorno…

Aprile 2024
L M M G V S D
1234567
891011121314
15161718192021
22232425262728
2930  

Presentazione del libro “Noi nel tempo”

Gocce di emozioni. Parole, musica e immagini

Edizioni Controluce

I libri delle “Edizioni Controluce”