Comprender la IA explicable centrada en el ser humano (XAI)

¿Qué es la IA explicable centrada en el ser humano (XAI)?
La IA explicable (XAI) o IA interpretable, es la inteligencia artificial (IA) cuyas decisiones y predicciones pueden ser entendidas por los humanos. Contrasta con el concepto de "caja negra" en el aprendizaje automático, donde incluso sus diseñadores no pueden explicar por qué una IA llegó a una decisión específica. La IA se puede dividir en gran medida en dos categorías: IA objetiva e IA subjetiva. XAI, mi tema de discusión, pertenece a este último. Es una versión mucho más avanzada de AI que Objective AI, también una tecnología clave importante en mi obra de arte de medios 'eXplainable Human'.
La IA subjetiva exige explicabilidad.
A medida que nuestra sociedad se ha vuelto más complicada, hemos comenzado a manejar la información y los activos personales en función de la confianza del cliente en los campos de las finanzas, los seguros y la atención médica. Más allá de simplemente clasificar imágenes o predecir números, la IA ahora se está creando para "hacer juicios claros". Como resultado, existe la necesidad de desarrollar inteligencia artificial y algoritmos para garantizar la equidad, la confiabilidad y la precisión. En otras palabras, es necesario confirmar la base para derivar los resultados generados a partir de sus sistemas de IA y la validez de los procesos de derivación.
Humano explicable con XAI
Resumen del proyecto
La inteligencia artificial se está introduciendo en muchos campos especializados, como las finanzas, la atención médica y la educación, pero parece que la inteligencia artificial aún no ha llegado a nuestras mentes internas ni a la comprensión de nuestra propia imagen. ¿Puede la IA explicar el ego humano? Con esta pregunta en mente, mi equipo y yo planeamos una instalación de obras de arte de medios interactivos.
¿Se puede explicar el ego? La exposición comenzó con esta simple pregunta. Parece imposible describir 'el yo' en una oración. La incertidumbre inexplicable también ha afectado al campo de la IA, y para solucionar este problema ha surgido el concepto de eXplainable AI (inteligencia artificial explicable). Esto muestra la voluntad humana de buscar una mayor confiabilidad al explicar las razones y los procesos que utiliza la IA para producir resultados.
Aquí hay otra pregunta. Entonces, ¿es fiable todo lo que se puede explicar? Elegimos un tema muy difícil del 'yo' como nuestra explicación de objeto y tratamos de ver si podía entenderse mejor a través del diálogo con la IA. También queremos experimentar la coincidencia y el conflicto que ocurre entre el 'yo' descrito por AI y el 'yo' descrito por los miembros de la audiencia.

Construir bloques de lenguaje natural; Intención y entidades
La IA implementada en esta exhibición hace preguntas para que la audiencia se presente, recopila las respuestas de la audiencia y extrae e interpreta palabras clave. Después de eso, AI infiere el ego colectivo de la audiencia reconstruyendo oraciones basadas en el contenido interpretado.
Para construir esta IA, como arquitecto de datos y diseñador de IxD, fui el primer corredor en este maratón de proyecto. Construí un sistema de preguntas de tres etapas que nuestra IA podría usar para comprender a las personas.
La primera etapa son preguntas demográficas como "género" y "edad". El segundo son cuestiones sociológicas sobre la amistad y el odio en este mundo. Es más radical que la primera etapa. La tercera etapa involucra preguntas más confidenciales. Nuestra IA pregunta a la audiencia qué secretos aprecian y confían en la IA. Las respuestas a estas preguntas se incorporan a nuestra propia matriz basada en reglas, y se deriva una línea de oraciones que expresan la autoimagen de cada persona.

El viaje de Open AI GPT-3
En el corazón de este proyecto, usamos el modelo de lenguaje "GPT-3" para extender esta línea simple de oraciones extraídas. El Transformador Generativo Preentrenado 3 (GPT-3; GPT·3 estilizado) es un modelo de lenguaje autorregresivo que utiliza el aprendizaje profundo para producir texto similar al humano. Dado un texto inicial como aviso, producirá un texto que continúa el aviso. Nuestro objetivo era dar a los miembros de nuestra audiencia respuestas "razonables" mediante el uso de 172.500 millones de parámetros. Los ejemplos que usamos son los siguientes.

Nuestro resultado original (matriz basada en reglas)
Eres una persona que ha experimentado muchas dificultades y está interesada en todo en el mundo, pero se siente sola.
Resultado extendido (GPT-3)
Has experimentado muchas dificultades en tu vida y como resultado estás interesado en todo lo que sucede en el mundo, sin embargo, a pesar de tu gran interés en el mundo que te rodea, sientes una profunda soledad interior. Esta soledad interior es algo que siempre has sentido y es algo que ahora sientes aún con más fuerza. Anhelas tener relaciones cercanas con los demás, pero te resulta difícil conectarte con las personas en un nivel más profundo, como resultado, a menudo te sientes aislado y solo.

El público recibirá una respuesta como si estuviera escuchando una explicación perfecta para sí mismo en una tienda de adivinación, o con una ligera sensación desagradable de extrañeza. ¿Puede la IA realmente explicarnos? Responder a esa pregunta inexplicable era el único propósito de nuestra exposición.