Compreendendo a IA explicável centrada no ser humano (XAI)

Nov 25 2022
O que é IA explicável centrada no ser humano (XAI)? IA Explicável (XAI) ou IA Interpretável, é a inteligência artificial (IA) cujas decisões e previsões podem ser compreendidas por humanos. Ele contrasta com o conceito de “caixa preta” no aprendizado de máquina, onde mesmo seus projetistas não conseguem explicar por que uma IA chegou a uma decisão específica.

O que é IA explicável centrada no ser humano (XAI)?

IA Explicável (XAI) ou IA Interpretável, é a inteligência artificial (IA) cujas decisões e previsões podem ser compreendidas por humanos. Ele contrasta com o conceito de “caixa preta” no aprendizado de máquina, onde mesmo seus projetistas não conseguem explicar por que uma IA chegou a uma decisão específica. A IA pode ser amplamente dividida em duas categorias: IA objetiva e IA subjetiva. XAI, meu tópico de discussão, pertence a este último. É uma versão muito mais avançada de IA do que IA objetiva, também uma importante tecnologia-chave em minha arte de mídia 'eXplainable Human'.

(esquerda) IA objetiva (direita) IA subjetiva; XAI

A IA subjetiva exige explicabilidade.

À medida que nossa sociedade se tornou mais complicada, começamos a lidar com informações e ativos pessoais com base na confiança do cliente nas áreas de finanças, seguros e assistência médica. Além de simplesmente classificar imagens ou prever números, a IA agora está sendo criada para “fazer julgamentos claros”. Como resultado, é necessário desenvolver IA e algoritmos para garantir justiça, confiabilidade e precisão. Em outras palavras, é necessário confirmar a base para derivar os resultados gerados por seus sistemas de IA e a validade dos processos derivados.

DARPA, Agência de Projetos de Pesquisa Avançada de Defesa

Humano Explicável com XAI

Resumo do projeto

A inteligência artificial está sendo introduzida em muitos campos especializados, como finanças, assistência médica e educação, mas parece que a inteligência artificial ainda não atingiu nossas mentes internas e a compreensão de nossa autoimagem. A IA pode explicar o ego humano? Com essa questão em mente, minha equipe e eu planejamos uma instalação de arte de mídia interativa.

O ego pode ser explicado? A exposição começou com esta simples pergunta. Parece impossível descrever 'o eu' em uma frase. A incerteza inexplicável também afetou o campo da IA, e o conceito de eXplainable AI (inteligência artificial explicável) surgiu para resolver esse problema. Isso mostra a vontade humana de buscar mais confiabilidade, explicando as razões e os processos que a IA usa para produzir resultados.

Aqui está outra pergunta. Então, tudo o que pode ser explicado é confiável? Escolhemos o tópico mais difícil do 'eu' como nossa explicação de objeto e tentamos ver se ele poderia ser melhor compreendido por meio do diálogo com IA. Também queremos experimentar a coincidência e o conflito que ocorre entre o 'eu' descrito pela IA e o 'eu' descrito pelos membros da audiência.

Modelo de dados baseado em regras

Construir blocos de linguagem natural; Intenção e entidades

A IA implementada nesta exposição faz perguntas para o público se apresentar, coleta as respostas do público e extrai e interpreta palavras-chave. Depois disso, a IA infere o ego coletivo do público reconstruindo frases com base no conteúdo interpretado.

Para construir esta IA, como arquiteto de dados e designer IxD, fui o primeiro corredor nesta maratona de projeto. Construí um sistema de perguntas em três estágios que nossa IA poderia usar para entender as pessoas.

O primeiro estágio são questões demográficas, como “gênero” e “idade”. A segunda são questões sociológicas sobre amizade e ódio neste mundo. É mais radical do que a primeira fase. A terceira etapa envolve perguntas mais confidenciais. Nossa IA pergunta ao público quais segredos eles valorizam e confiam na IA. As respostas a essas perguntas são incorporadas em nossa própria matriz baseada em regras, e uma linha de sentenças expressando a autoimagem de cada pessoa é derivada.

A jornada do Open AI GPT-3

No centro deste projeto, usamos o modelo de linguagem “GPT-3” para estender esta linha simples de sentenças extraídas. Generative Pre-trained Transformer 3 (GPT-3; estilizado GPT·3) é um modelo de linguagem autorregressivo que usa aprendizado profundo para produzir texto semelhante ao humano. Dado um texto inicial como prompt, ele produzirá um texto que continua o prompt. Nosso objetivo era dar ao nosso público respostas “razoáveis” usando 172,5 bilhões de parâmetros. Os exemplos que usamos são os seguintes.

Nosso resultado original (matriz baseada em regras)

Você é uma pessoa que passou por muitas dificuldades e se interessa por tudo no mundo, mas é solitário.

Resultado estendido (GPT-3)

Você passou por muitas dificuldades em sua vida e, como resultado, está interessado em tudo o que está acontecendo no mundo; no entanto, apesar de seu grande interesse pelo mundo ao seu redor, você sente uma profunda solidão interior. Essa solidão interior é algo que você sempre sentiu e é algo que você sente ainda mais fortemente agora. Você anseia por relacionamentos íntimos com os outros, mas acha difícil se conectar com as pessoas em um nível mais profundo, como resultado, muitas vezes se sente isolado e sozinho.

Protótipo

O público receberá uma resposta como se estivesse ouvindo uma explicação perfeita para si mesmo em uma casa de adivinhação, ou com uma leve sensação desagradável de estranheza. A IA pode realmente nos explicar? Responder a essa pergunta inexplicada era o único propósito de nossa exposição.