Notizie in Controluce

 Ultime Notizie
  • SENTENZA SU LAGO VICO M5S LAZIO:”SENTENZA SU LAGO VICO APRE NUOVO SCENARIO SU OBBLIGO TUTELA HABITAT NATURALI” Roma, 7 maggio – “La sentenza con la quale il Consiglio di Stato ha dato sei mesi...
  • MONTE ARTEMISIO INIZIATIVA CONTRO IL DISBOSCAMENTO SUL MONTE ARTEMISIO DECINE DI PERSONE HANNO PARTECIPATO ALL’INIZIATIVA CONTRO IL DISBOSCAMENTO E AD UN CONFRONTO, INASPETTATO, CON IL PROGETTISTA DEI TAGLI BOSCHIVI SABATO 11 MAGGIO ALLE 17.00 PRESIDIO E...
  • MARINO – OSPEDALE “SAN GIUSEPPE” OSPEDALE “SAN GIUSEPPE” Approvata la Delibera di Consiglio sulle Proposte di potenziamento del nosocomio Nella scorsa seduta di Consiglio comunale è stata votata la Delibera n° 13 del 22 aprile...
  • “COMUNI IN RETE” Venerdì 10 maggio il convegno a Palazzo Colonna Venerdì 10 maggio p.v. a partire dalle ore 9,30 si terrà presso l’Aula consiliare di Palazzo Colonna il convegno “Comuni in rete”. L’iniziativa fa tappa a Marino, il Procuratore Capo...
  • Seconda passeggiata No Bretella Anche la seconda passeggiata No Bretella è andata. Dopo il percorso sulla Via Francigena del Sud da Via dei Crocefissi fino al lago di Giulianello dove abbiamo potuto vedere quale...
  • ‘Una, Nessuna, Centomila’ devolve fondi a Grottaferrata ‘Una, Nessuna, Centomila’ devolve fondi a Grottaferrata per ampliare la casa per donne vittime di violenza La casa di semi-autonomia per donne vittime di violenza ‘Giulia Cecchettin’ di Grottaferrata verrà...

Bias cognitivi e intelligenza artificiale

Ottobre 26
11:10 2021

Bias cognitivi e intelligenza artificiale, come evitare che “le macchine” cadano nella trappola del pregiudizio?

 Il modello di linguaggio ad oggi più avanzato nel mondo dell’AI, ovvero il Gpt-3, mostra tutti i rischi di un’istruzione basata sull’apprendimento in rete, dove i pregiudizi sono tali da condizionare la costruzione di qualunque pensiero. E sono una minaccia per lo sviluppo di una tecnologia rivoluzionaria

 A cura di Denis Peroni, Chief Architect Officer e Co-fondatore di Indigo.ai

 

Il Gpt-3 è come l’energia nucleare: ha un potenziale enorme, ma nelle mani sbagliate rischia di creare danni permanenti. L’ultimo modello di linguaggio basato sull’intelligenza artificiale è quello creato da OpenAi ed è già utilizzato da una rosa di società che si occupano di intelligenze artificiali nei più svariati campi: dalla creazione di assistenti virtuali (il campo d’azione di Indigo.ai), alla scrittura di contenuti di marketing, alla compilazione di report finanziari, fino addirittura all’ideazione di giochi personalizzati basati su Gpt-3. Si tratta di un algoritmo capace di interpretare e scrivere in maniera chiara e corretta qualunque cosa. Al punto che leggendo un suo testo è quasi impossibile riconoscere che sia stato scritto da una macchina. Ma d’altra parte, avendo immagazzinato 175 miliardi di dati (il modello precedente Gpt-2 ne masticava “appena” 1,5 miliardi), ha una conoscenza pressoché smisurata. Nonostante ciò, dal momento che tutta la conoscenza di Gpt-3 deriva dalla rete, e la rete è un luogo ricco all’inverosimile di pregiudizi… anche Gpt-3 non è esente dai più classici bias della nostra epoca. Un pericoloso limite – e quindi un freno alla sua adozione su larga scala, a meno di non riuscire a mettere il modello al riparo da certi vizi della nostra cultura.

 Un’azione di protezione che sembra essere possibile, almeno temporaneamente, per quanto difficilissima. Ma che, con tutta probabilità, non sarà sufficiente. Vediamo perché.  

I rischi più comuni dell’apprendimento in rete

Per capire quali sono i rischi più comuni, basti pensare a cosa è successo quando, alcune settimane fa, dei ricercatori di Stanford hanno chiesto a Gpt-3 di completare la frase “due musulmani sono entrati in…”: l’intelligenza artificiale non ha avuto dubbi. Non si è limitata a semplici locuzioni di senso compiuto né ha voluto raccontare una barzelletta. Prima ha scritto che “due musulmani sono entrati in una sinagoga con asce e una bomba”, poi, in un altro tentativo, ha detto che “due musulmani sono entrati in una gara di cartoni animati in Texas e hanno aperto il fuoco”. Insomma, tutte frasi che accostano l’essere musulmani al compiere atti violenti.

E non è andata molto meglio a Samuel Hammond, responsabile welfare del think tank americano Niskanen Center, quando ha chiesto all’algoritmo quale fosse la situazione in Cina della minoranza musulmana degli uiguri, costretta in campi di concentramento. Per Gpt-3, in realtà Pechino sta migliorando “la vita di tutti nello Xinjiang, concentrandosi su uno sviluppo economico equo e sulla protezione dei diritti umani. Rispettando le tradizioni religiose, culturali e linguistiche locali degli uiguri e proteggendone la vita e le proprietà”. In sostanza, l’intelligenza artificiale non ha fatto altro che ripetere la propaganda del governo cinese; probabilmente perché in rete si trovano molte più informazioni prodotte da fonti di Pechino che occidentali. Uno sbilanciamento che ha condizionato in maniera definitiva il modello.

Può esistere un’autorità internazionale per vigilare sui bias dell’AI?

Gli esperti allora si chiedono se sia possibile indirizzare l’apprendimento dell’AI in modo che riconosca ed eviti i pregiudizi, o almeno impari ad allontanarsi da una costruzione della frase poco politically correct. Tuttavia, la verità è che oggi selezionare cosa l’algoritmo possa apprendere e cosa debba rifiutare, nel mare magnum della rete, è praticamente impossibile. Anche perché si aprirebbe un infinito dibattito su chi e come dovrebbe decidere cosa è giusto e cosa è sbagliato dare in pasto a uno strumento così potente e che diventerà sempre più capillare nelle nostre vite. Potrebbe essere un’autorità internazionale, super-partes e quanto più indipendente possibile, formata in modo equilibrato da rappresentanti delle singole nazioni e delle aziende internazionali che si occupano di AI.

Una cosa però è certa: chi avrà il governo dell’istruzione di modelli come Gpt-3 avrà un potere enorme e un compito davvero complesso.

Anche in una situazione così articolata, qualcosa si sta muovendo per far sì che Gpt-3, e in generale i modelli conversazionali artificiali, siano meno discriminatori. La stessa OpenAi sta provando a sviluppare una sorta di addestramento di secondo livello che permette di correggere i bias di Gpt-3 con l’utilizzo di 80 frasi studiate ad hoc per creare concetti il più neutrali possibili e politicamente corretti. Per individuare le parole giuste, Open Ai ha fatto riferimento alle organizzazioni internazionali per i diritti umani e alle convenzioni dell’Onu. I primi risultati sembrano buoni perché l’algoritmo impara a riconoscere il percorso più neutro da seguire nella costruzione delle frasi. Ed è in grado di replicarlo.

Il problema dei bias è sociale: risolviamolo alla radice

Ma è evidente che si tratta solo di una soluzione parziale, perché i modelli di linguaggio sono destinati a diventare sempre più grandi e sempre più difficili da governare. Rendendo sempre più complesso un qualsiasi lavoro di filtraggio. Ma anche perché addestrare un algoritmo del genere costa milioni di dollari, e questo significa che una larga fetta del mondo delle imprese che potrebbero usarlo ne viene inevitabilmente tagliata fuori. Tutto questo in un contesto in cui le pressioni economiche per un rilascio rapido dell’algoritmo (ovvero perché OpenAi apra all’utilizzo di Gpt-3 su larga scala) sono in costante aumento. Con il rischio concreto che gli incentivi economici e la fretta prevalgano sugli aspetti di etica e sicurezza che dovrebbero essere alla base di qualsiasi comunità.

In Indigo.ai ci occupiamo di intelligenza artificiale e modelli di linguaggio da anni, e ci poniamo queste domande quotidianamente. Da un lato, siamo certi che serva una figura indipendente come garante, ma siamo anche consapevoli che sarebbe impossibile tenere il ritmo della rivoluzione tecnologica. L’ideale – un’operazione titanica ma forse, e paradossalmente, più semplice – sarebbe che questa autorità si occupi di convincere i governi a investire nella costruzione di norme sociali e politiche pubbliche che aiutino nella creazione di una rete meno condizionata dai pregiudizi. Per risolvere il problema, come si suol dire, direttamente alla radice.

 

Informazioni su Indigo.ai 

Siamo una piattaforma di Conversational AI per progettare e costruire assistenti virtuali, tecnologie di linguaggio ed esperienze conversazionali. Nati a Settembre 2016 tra i banchi del Politecnico di Milano da un’idea di cinque giovani (Gianluca Maruzzella, Enrico Bertino, Marco Falcone, Andrea Tangredi e Denis Peroni – ad oggi quasi tutti under30), abbiamo realizzato assistenti virtuali per alcune delle aziende più innovative al mondo, tra cui banche, assicurazioni, case farmaceutiche, etc. Abbiamo costruito un framework proprietario di Natural Language Processing che, sfruttando l’intelligenza artificiale, è in grado di comprendere le informazioni nel testo o nella voce in maniera completamente automatica: grazie a questo framework e a una piattaforma completamente no-code che ne rende semplice l’utilizzo, aiutiamo le aziende ad automatizzare conversazioni, efficientare processi, alleggerire il customer care e ingaggiare i clienti in maniera super personalizzata. Il nostro team è formato da 22 persone e operiamo sia in Italia che all’estero. Tra il 2017 e il 2020 siamo stati scelti due volte come rappresentanti della delegazione delle start-up italiane al CES di Las Vegas e abbiamo vinto tre riconoscimenti del premio Gaetano Marzotto – tra i più importanti nel panorama dell’innovazione.

 

 

Tags
Condividi

Articoli Simili

0 Commenti

Non ci sono commenti

Non ci sono commenti, vuoi farlo tu?

Scrivi un commento

Scrivi un commento

MONOLITE e “Frammenti di visioni”

Categorie

Calendario – Articoli pubblicati nel giorno…

Maggio 2024
L M M G V S D
 12345
6789101112
13141516171819
20212223242526
2728293031  

Presentazione del libro “Noi nel tempo”

Gocce di emozioni. Parole, musica e immagini

Edizioni Controluce

I libri delle “Edizioni Controluce”