Comprensione dell'AI spiegabile centrata sull'uomo (XAI)
Che cos'è l'intelligenza artificiale esplicabile centrata sull'uomo (XAI)?
Explainable AI (XAI) o Interpretable AI, è l'intelligenza artificiale (AI) le cui decisioni e previsioni possono essere comprese dagli esseri umani. Contrasta con il concetto di "scatola nera" nell'apprendimento automatico in cui persino i suoi progettisti non possono spiegare perché un'intelligenza artificiale sia arrivata a una decisione specifica. L'IA può essere ampiamente suddivisa in due categorie: AI oggettiva e AI soggettiva. XAI, il mio argomento di discussione, appartiene a quest'ultimo. È una versione dell'intelligenza artificiale molto più avanzata rispetto all'intelligenza artificiale oggettiva, anch'essa un'importante tecnologia chiave nella mia opera d'arte multimediale "eXplainable Human".
L'IA soggettiva richiede spiegabilità.
Man mano che la nostra società è diventata più complicata, abbiamo iniziato a trattare informazioni personali e beni basati sulla fiducia dei clienti nei settori della finanza, delle assicurazioni e dell'assistenza medica. Oltre a classificare semplicemente le immagini o prevedere i numeri, l'intelligenza artificiale viene ora creata per "dare giudizi chiari". Di conseguenza, è necessario sviluppare intelligenza artificiale e algoritmi per garantire equità, affidabilità e accuratezza. In altre parole, è necessario confermare la base per derivare i risultati generati dai loro sistemi di intelligenza artificiale e la validità dei processi derivati.
eSplainable Human con XAI
Sintesi del progetto
L'intelligenza artificiale viene introdotta in molti campi specializzati come la finanza, l'assistenza medica e l'istruzione, ma sembra che l'intelligenza artificiale non abbia ancora raggiunto le nostre menti interiori e la comprensione della nostra immagine di sé. L'intelligenza artificiale può spiegare l'ego umano? Con questa domanda in mente, io e il mio team abbiamo progettato un'installazione di opere d'arte multimediali interattive.
L'ego può essere spiegato? La mostra è iniziata con questa semplice domanda. Sembra impossibile descrivere "il sé" in una frase. L'incertezza inspiegabile ha influenzato anche il campo dell'IA e per risolvere questo problema è emerso il concetto di eXplainable AI (explicable artificial intelligence). Ciò mostra la volontà umana di perseguire una maggiore affidabilità spiegando le ragioni e i processi che l'IA utilizza per produrre risultati.
Ecco un'altra domanda. Quindi, tutto ciò che può essere spiegato è affidabile? Abbiamo scelto un argomento molto difficile del "sé" come spiegazione del nostro oggetto e abbiamo cercato di vedere se potesse essere compreso meglio attraverso il dialogo con l'IA. Vogliamo anche sperimentare la coincidenza e il conflitto che si verifica tra il "sé" descritto dall'IA e il "sé" descritto dai membri del pubblico.
Costruire blocchi di linguaggio naturale; Intento ed entità
L'intelligenza artificiale implementata in questa mostra pone domande affinché il pubblico si presenti, raccoglie le risposte del pubblico ed estrae e interpreta le parole chiave. Successivamente, l'intelligenza artificiale deduce l'ego collettivo del pubblico ricostruendo frasi basate sul contenuto interpretato.
Per costruire questa intelligenza artificiale, in qualità di architetto di dati e designer IxD, sono stato il primo corridore in questa maratona di un progetto. Ho costruito un sistema di domande in tre fasi che la nostra intelligenza artificiale potrebbe usare per capire le persone.
Il primo stadio sono le domande demografiche come "sesso" ed "età". Il secondo sono le domande sociologiche sull'amicizia e l'odio in questo mondo. È più radicale del primo stadio. La terza fase prevede domande più riservate. La nostra intelligenza artificiale chiede al pubblico quali segreti custodiscono e si fidano dell'intelligenza artificiale. Le risposte a queste domande sono incorporate nella nostra matrice basata su regole e ne deriva una riga di frasi che esprimono l'immagine di sé di ciascuna persona.
Il viaggio di Open AI GPT-3
Al centro di questo progetto, utilizziamo il modello linguistico "GPT-3" per estendere questa semplice riga di frasi estratte. Generative Pre-addestrato Transformer 3 (GPT-3; GPT·3 stilizzato) è un modello di linguaggio autoregressivo che utilizza il deep learning per produrre testo simile a quello umano. Dato un testo iniziale come prompt, produrrà testo che continua il prompt. Abbiamo mirato a fornire ai membri del nostro pubblico risposte "ragionevoli" utilizzando 172,5 miliardi di parametri. Gli esempi che abbiamo usato sono i seguenti.
Il nostro risultato originale (matrice basata su regole)
Sei una persona che ha vissuto molte difficoltà ed è interessata a tutto nel mondo, ma è sola.
Risultato esteso (GPT-3)
Hai vissuto molte difficoltà nella tua vita e di conseguenza sei interessato a tutto ciò che sta accadendo nel mondo, tuttavia, nonostante il tuo vivo interesse per il mondo che ti circonda, senti una profonda solitudine interiore. Questa solitudine interiore è qualcosa che hai sempre sentito ed è qualcosa che senti ancora più fortemente ora. Desideri relazioni strette con gli altri ma trovi difficile entrare in contatto con le persone a un livello più profondo, di conseguenza ti senti spesso isolato e solo.
Il pubblico riceverà una risposta come se stesse ascoltando una spiegazione perfetta per se stesso in un negozio di chiromanzia, o con una leggera sgradevole sensazione di perturbante. L'intelligenza artificiale può davvero spiegarci? Rispondere a quella domanda inspiegabile era l'unico scopo della nostra mostra.