HomeTecnologiaAprire la scatola nera: come l'AI spiegabile può aiutarci a capire come...

Aprire la scatola nera: come l’AI spiegabile può aiutarci a capire come funzionano gli algoritmi

L’uso di numerosi sistemi di intelligenza artificiale è rischioso, poiché non possono spiegare come raggiungono le loro decisioni.

Autori

David Martens e Sofie Goethals sono i co-autori dell’articolo, entrambi affiliati all’ Università di Anversa .

Informazioni su David Martens

David Martens è un professore in AI Responsabile presso l’Università di Anversa.

Informazioni su Sofie Goethals

Sofie Goethals è una ricercatrice post-dottorato presso l’Università di Anversa.

Dichiarazione di divulgazione

David Martens ha ricevuto finanziamenti da AXA JRI . Sofie Goethals ha ricevuto finanziamenti dalla Fondazione di Ricerca Fiamminga .

Partner

L’articolo menziona la possibilità di visualizzare tutti i partner coinvolti. Per ulteriori dettagli, è possibile visitare il link dedicato ai partner .

Lingue

L’articolo è disponibile in diverse lingue , tra cui:

  1. Francese.
  2. Inglese.

AI e machine learning: cosa c’è in un nome?

Con l’attuale tendenza all’integrazione dell’ AI nelle organizzazioni e la sua ampia mediatisation del potenziale, è facile confondersi, specialmente con i numerosi termini utilizzati per designare i sistemi di AI , tra cui machine learning , deep learning e large language models , solo per citarne alcuni. In termini semplici, l’ AI si riferisce allo sviluppo di sistemi informatici che svolgono compiti che richiedono intelligenza umana , come la risoluzione di problemi , il processo decisionale e la comprensione del linguaggio . Essa comprende vari sotto-campi come la robotica , la visione artificiale e la comprensione del linguaggio naturale . Un’importante sotto-categoria dell’ AI è il machine learning , che consente ai computer di apprendere dai dati anziché essere programmati esplicitamente per ogni compito. Fondamentalmente, la macchina analizza i modelli nei dati e utilizza tali modelli per fare previsioni o decisioni.

Ad esempio, si pensi a un filtro antispam per le e-mail. Il sistema viene addestrato con migliaia di esempi di e-mail sia spam che non spam. Col tempo, apprende modelli come parole specifiche, frasi o dettagli del mittente che sono comuni nello spam. Il deep learning , un ulteriore sottoinsieme del machine learning , utilizza reti neurali complesse con più strati per apprendere modelli ancora più sofisticati. Il deep learning ha dimostrato di essere di eccezionale valore quando si lavora con dati immagine o testuali ed è la tecnologia fondamentale alla base di vari strumenti di riconoscimento delle immagini o modelli di linguaggio di grandi dimensioni come ChatGPT .

Regolamentare l’AI

L’uso di sistemi di intelligenza artificiale (AI) è ampio e variegato, con applicazioni che spaziano da suggerimenti di film su Netflix a diagnosi mediche. Tuttavia, alcune di queste applicazioni possono avere un impatto significativo sulla vita delle persone, rendendo fondamentale che siano gestite in modo etico e responsabile.

Regolamentazione dell’AI

L’Unione Europea ha proposto l’ AI Act , approvato dal suo parlamento a marzo, che stabilisce un quadro normativo per le applicazioni di AI. Questo atto categoriza le applicazioni di AI in quattro livelli di rischio:

  1. Rischio inaccettabile: sistemi come quelli utilizzati per il social scoring o la polizia predittiva sono vietati nell’UE, poiché rappresentano minacce significative ai diritti umani.
  2. Rischio elevato: sistemi di AI ad alto rischio sono consentiti, ma soggetti a regolamentazioni rigorose, poiché possono causare danni significativi se falliscono o vengono abusati, in contesti come la giustizia, il reclutamento e l’istruzione.
  3. Rischio limitato: sistemi come chatbot o sistemi di riconoscimento delle emozioni presentano alcuni rischi di manipolazione o inganno. È importante che gli utenti siano informati riguardo alla loro interazione con il sistema di AI.
  4. Rischio minimo: include tutti gli altri sistemi di AI, come i filtri anti-spam, che possono essere utilizzati senza restrizioni aggiuntive.

La necessità di spiegabilità

Molti consumatori non sono più disposti ad accettare che le aziende giustifichino le loro decisioni con algoritmi opachi . Un esempio emblematico è l’incidente della Apple Card , dove un uomo ha ricevuto un limite di credito significativamente più alto rispetto a sua moglie, nonostante avessero beni condivisi. Questo ha suscitato indignazione pubblica, poiché Apple non è stata in grado di spiegare il ragionamento dietro la decisione del suo algoritmo. Questo esempio evidenzia la crescente necessità di spiegabilità nelle decisioni guidate dall’AI, non solo per garantire la soddisfazione del cliente, ma anche per prevenire una percezione negativa da parte del pubblico. Per i sistemi AI ad alto rischio, l’ Articolo 86 dell’AI Act stabilisce il diritto di richiedere una spiegazione delle decisioni prese dai sistemi AI, rappresentando un passo significativo verso la trasparenza algoritmica.

Tuttavia, oltre alla conformità legale, i sistemi AI trasparenti offrono diversi altri vantaggi sia per i proprietari dei modelli che per coloro che sono influenzati dalle decisioni dei sistemi.

AI trasparente

La trasparenza nei sistemi di intelligenza artificiale è fondamentale per costruire fiducia tra gli utenti. Quando gli utenti comprendono come funziona un sistema AI, sono più propensi a interagire con esso. Inoltre, la trasparenza può prevenire risultati distorti , consentendo ai regolatori di verificare se un modello favorisce ingiustamente determinati gruppi. Infine, la trasparenza permette il miglioramento continuo dei sistemi AI, rivelando errori o schemi inaspettati.

Modalità per raggiungere la trasparenza

Per ottenere la trasparenza nei modelli AI, ci sono due approcci principali:

  1. Utilizzare modelli semplici come alberi decisionali o modelli lineari per fare previsioni. Questi modelli sono facili da comprendere poiché il loro processo decisionale è chiaro.
  2. Utilizzare modelli avanzati, noti come modelli black-box, come le reti neurali profonde, che possono gestire dati complessi ma sono difficili da interpretare.

Intelligenza artificiale spiegabile

Un’altra opzione è utilizzare questi potenti modelli black-box insieme a un algoritmo di spiegazione separato per chiarire il modello o le sue decisioni. Questo approccio, noto come intelligenza artificiale spiegabile , consente di beneficiare della potenza di modelli complessi offrendo al contempo un certo livello di trasparenza . Un metodo ben noto è la spiegazione controfattuale , che chiarisce la decisione di un modello identificando le modifiche minime alle caratteristiche di input che porterebbero a una decisione diversa. Ad esempio, se un sistema AI nega un prestito a qualcuno, una spiegazione controfattuale potrebbe informare il richiedente: “Se il tuo reddito fosse stato di $5.000 più alto, il tuo prestito sarebbe stato approvato”. Questo rende la decisione più comprensibile, mentre il modello di machine learning utilizzato può rimanere molto complesso.

AI spiegabile

L’ AI spiegabile consente di beneficiare di modelli complessi offrendo al contempo un certo livello di trasparenza . Questa trasparenza è fondamentale per costruire fiducia tra gli utenti e garantire che le decisioni prese dai sistemi di intelligenza artificiale siano comprese e accettate. Un approccio comune per raggiungere questo obiettivo è l’uso di algoritmi di spiegazione separati che chiariscono le decisioni del modello. Questo metodo permette di sfruttare la potenza dei modelli complessi, mantenendo al contempo un certo grado di comprensibilità. Un esempio noto di questo approccio è la spiegazione controfattuale , che illustra la decisione di un modello identificando le modifiche minime alle caratteristiche di input che porterebbero a una decisione diversa.

Ad esempio, se un sistema di intelligenza artificiale nega un prestito a una persona, una spiegazione controfattuale potrebbe informare il richiedente: “Se il tuo reddito fosse stato di 5.000 dollari più alto, il tuo prestito sarebbe stato approvato”. Questo rende la decisione più comprensibile, mentre il modello di machine learning utilizzato può rimanere molto complesso. Tuttavia, è importante notare che queste spiegazioni sono approssimazioni, il che significa che potrebbero esserci più modi per spiegare la stessa decisione.

La strada da percorrere

La trasparenza è fondamentale per costruire fiducia e garantire equità nei sistemi di intelligenza artificiale. Con l’aumento della complessità dei modelli di AI, cresce anche il loro potenziale di impatto trasformativo, ma aumenta anche la possibilità di errori. Perché l’AI sia veramente efficace e affidabile, è essenziale che gli utenti comprendano come questi modelli prendono le loro decisioni. La trasparenza non è solo una questione di costruzione della fiducia, ma è anche cruciale per rilevare errori e garantire giustizia. Ad esempio, nei veicoli a guida autonoma , l’AI spiegabile può aiutare gli ingegneri a capire perché un’auto ha frainteso un segnale di stop o non ha riconosciuto un pedone.

Allo stesso modo, nella selezione del personale, comprendere come un sistema di AI classifica i candidati può aiutare i datori di lavoro a evitare selezioni parziali e promuovere la diversità . Concentrandosi su sistemi di AI trasparenti ed etici , possiamo garantire che la tecnologia serva sia gli individui che la società in modo positivo ed equo.

Fonte: TheConversationEU

Articoli correlati

Ultime notizie