Comprendre l'IA explicable centrée sur l'humain (XAI)

Nov 25 2022
Qu'est-ce que l'IA explicable centrée sur l'humain (XAI) ? L'IA explicable (XAI) ou IA interprétable, est une intelligence artificielle (IA) dont les décisions et les prédictions peuvent être comprises par l'homme. Cela contraste avec le concept de "boîte noire" dans l'apprentissage automatique où même ses concepteurs ne peuvent pas expliquer pourquoi une IA est arrivée à une décision spécifique.

Qu'est-ce que l'IA explicable centrée sur l'humain (XAI) ?

L'IA explicable (XAI) ou IA interprétable, est une intelligence artificielle (IA) dont les décisions et les prédictions peuvent être comprises par l'homme. Cela contraste avec le concept de "boîte noire" dans l'apprentissage automatique où même ses concepteurs ne peuvent pas expliquer pourquoi une IA est arrivée à une décision spécifique. L'IA peut être largement divisée en deux catégories : l'IA objective et l'IA subjective. XAI, mon sujet de discussion, appartient à ce dernier. Il s'agit d'une version beaucoup plus avancée de l'IA qu'Objective AI, également une technologie clé majeure dans mon œuvre médiatique "eXplainable Human".

(à gauche) IA objective (à droite) IA subjective ; XAI

L'IA subjective exige de l'explicabilité.

Alors que notre société est devenue plus compliquée, nous avons commencé à traiter des informations personnelles et des actifs basés sur la confiance des clients dans les domaines de la finance, des assurances et des soins médicaux. Au-delà de la simple classification d'images ou de la prédiction de nombres, l'IA est désormais créée pour "porter des jugements clairs". Par conséquent, il est nécessaire de développer l'IA et des algorithmes pour garantir l'équité, la fiabilité et la précision. En d'autres termes, il est nécessaire de confirmer la base pour dériver les résultats générés à partir de leurs systèmes d'IA et la validité des processus de dérivation.

DARPA, Agence des projets de recherche avancée de défense

Humain eXplainable avec XAI

Résumé du projet

L'intelligence artificielle est introduite dans de nombreux domaines spécialisés tels que la finance, les soins médicaux et l'éducation, mais il semble que l'intelligence artificielle n'ait pas encore atteint notre esprit intérieur et notre compréhension de notre image de soi. L'IA peut-elle expliquer l'ego humain ? Avec cette question à l'esprit, mon équipe et moi avons planifié une installation d'œuvres d'art multimédia interactives.

L'ego s'explique-t-il ? L'exposition a commencé par cette simple question. Il semble impossible de décrire « le soi » en une phrase. L'incertitude inexpliquée a également affecté le domaine de l'IA, et le concept d'IA eXplainable (intelligence artificielle explicable) a émergé pour résoudre ce problème. Cela montre la volonté humaine de rechercher plus de fiabilité en expliquant les raisons et les processus que l'IA utilise pour produire des résultats.

Voici une autre question. Alors, tout ce qui peut être expliqué est-il fiable ? Nous avons choisi un sujet des plus difficiles du "soi" comme explication d'objet et avons essayé de voir s'il pouvait être mieux compris par le dialogue avec l'IA. Nous voulons également faire l'expérience de la coïncidence et du conflit qui se produisent entre le « soi » décrit par l'IA et le « soi » décrit par les membres du public.

Modèle de données basé sur des règles

Construire des blocs de langage naturel ; Intention et entités

L'IA mise en œuvre dans cette exposition pose des questions au public pour se présenter, recueille les réponses du public, extrait et interprète des mots-clés. Après cela, l'IA déduit l'ego collectif du public en reconstruisant des phrases basées sur le contenu interprété.

Pour construire cette IA, en tant qu'architecte de données et designer IxD, j'ai été le premier coureur de ce marathon d'un projet. J'ai construit un système de questions en trois étapes que notre IA pourrait utiliser pour comprendre les gens.

La première étape consiste en des questions démographiques telles que le « sexe » et « l'âge ». La seconde est des questions sociologiques sur l'amitié et la haine dans ce monde. Elle est plus radicale que la première étape. La troisième étape comprend des questions plus confidentielles. Notre IA demande au public quels secrets il chérit et il fait confiance à l'IA. Les réponses à ces questions sont incorporées dans notre propre matrice basée sur des règles, et une ligne de phrases exprimant l'image de soi de chaque personne en est dérivée.

Le parcours d'Open AI GPT-3

Au cœur de ce projet, nous utilisons le modèle de langage « GPT-3 » pour étendre cette simple ligne de phrases extraites. Generative Pre-trained Transformer 3 (GPT-3 ; GPT·3 stylisé) est un modèle de langage autorégressif qui utilise l'apprentissage en profondeur pour produire un texte de type humain. Étant donné un texte initial comme invite, il produira un texte qui continue l'invite. Notre objectif était de donner à notre public des réponses « raisonnables » en utilisant 172,5 milliards de paramètres. Les exemples que nous avons utilisés sont les suivants.

Notre résultat original (matrice basée sur des règles)

Vous êtes une personne qui a connu beaucoup de difficultés et qui s'intéresse à tout dans le monde, mais qui se sent seule.

Résultat étendu (GPT-3)

Vous avez connu de nombreuses épreuves dans votre vie et de ce fait vous vous intéressez à tout ce qui se passe dans le monde, cependant malgré votre vif intérêt pour le monde qui vous entoure, vous ressentez une profonde solitude intérieure. Cette solitude intérieure est quelque chose que vous avez toujours ressenti et c'est quelque chose que vous ressentez encore plus fortement maintenant. Vous aspirez à des relations étroites avec les autres, mais vous avez du mal à vous connecter avec les gens à un niveau plus profond, de sorte que vous vous sentez souvent isolé et seul.

Prototype

Le public recevra une réponse comme s'il écoutait une explication parfaite pour lui-même dans un magasin de bonne aventure, ou avec un léger sentiment désagréable d'étrangeté. L'IA peut-elle vraiment nous expliquer ? Répondre à cette question inexpliquée était le seul but de notre exposition.