Понимание ориентированного на человека объяснимого ИИ (XAI)

Nov 25 2022
Что такое человеко-ориентированный объяснимый ИИ (XAI)? Объяснимый ИИ (XAI) или Интерпретируемый ИИ — это искусственный интеллект (ИИ), чьи решения и прогнозы могут быть понятны людям. Это контрастирует с концепцией «черного ящика» в машинном обучении, где даже его разработчики не могут объяснить, почему ИИ пришел к конкретному решению.

Что такое человеко-ориентированный объяснимый ИИ (XAI)?

Объяснимый ИИ (XAI) или Интерпретируемый ИИ — это искусственный интеллект (ИИ), чьи решения и прогнозы могут быть понятны людям. Это контрастирует с концепцией «черного ящика» в машинном обучении, где даже его разработчики не могут объяснить, почему ИИ пришел к конкретному решению. ИИ можно разделить на две категории: объективный ИИ и субъективный ИИ. XAI, моя тема для обсуждения, относится ко вторым. Это гораздо более продвинутая версия искусственного интеллекта, чем объективный искусственный интеллект, который также является основной ключевой технологией в моей медиа-работе «Объяснимый человек».

(слева) Объективный ИИ (справа) Субъективный ИИ; ХАИ

Субъективный ИИ требует объяснимости.

Поскольку наше общество стало более сложным, мы начали иметь дело с личной информацией и активами на основе доверия клиентов в области финансов, страхования и медицинского обслуживания. Помимо простой классификации изображений или предсказания чисел, ИИ теперь создается для «вынесения четких суждений». В результате необходимо разработать ИИ и алгоритмы для обеспечения справедливости, надежности и точности. Другими словами, необходимо подтвердить основу для получения результатов, полученных из их систем ИИ, и обоснованность процессов получения.

DARPA, Агентство перспективных оборонных исследовательских проектов

объяснимый человек с XAI

Резюме проекта

Искусственный интеллект внедряется во многих специализированных областях, таких как финансы, медицина и образование, но кажется, что искусственный интеллект еще не достиг нашего внутреннего разума и понимания нашего представления о себе. Может ли ИИ объяснить человеческое эго? Имея в виду этот вопрос, мы с моей командой запланировали инсталляцию интерактивных медиа-артов.

Можно ли объяснить эго? Выставка началась с этого простого вопроса. Кажется невозможным описать «я» одним предложением. Необъяснимая неопределенность затронула и область ИИ, и для решения этой проблемы появилась концепция eXplainable AI (объяснимый искусственный интеллект). Это показывает желание человека добиваться большей надежности, объясняя причины и процессы, которые ИИ использует для получения результатов.

Вот еще вопрос. Тогда все ли, что можно объяснить, надежно? Мы выбрали самую сложную тему «я» в качестве объяснения нашего объекта и попытались понять, можно ли ее лучше понять через диалог с ИИ. Мы также хотим испытать совпадение и конфликт между «я», описанным ИИ, и «я», описанным зрителями.

Модель данных на основе правил

Стройте блоки естественного языка; Намерение и сущности

ИИ, реализованный на этой выставке, задает вопросы аудитории, чтобы представиться, собирает ответы аудитории, а также извлекает и интерпретирует ключевые слова. После этого ИИ делает вывод о коллективном эго аудитории, реконструируя предложения на основе интерпретируемого контента.

Чтобы создать этот ИИ, как архитектор данных и дизайнер IxD, я был первым бегуном в этом марафоне проекта. Я построил трехэтапную систему вопросов, с помощью которых наш ИИ мог понимать людей.

Первый этап — это демографические вопросы, такие как «пол» и «возраст». Второй — социологические вопросы о дружбе и ненависти в этом мире. Он более радикален, чем первый этап. Третий этап включает в себя более конфиденциальные вопросы. Наш ИИ спрашивает аудиторию, какие секреты они хранят и доверяют ИИ. Ответы на эти вопросы включаются в нашу собственную матрицу, основанную на правилах, и выводится ряд предложений, выражающих представление каждого человека о самом себе.

Путь Open AI GPT-3

В основе этого проекта мы используем языковую модель «GPT-3», чтобы расширить эту простую строку извлеченных предложений. Generative Pre-trained Transformer 3 (GPT-3; стилизованный GPT·3) — это авторегрессивная языковая модель, которая использует глубокое обучение для создания текста, похожего на человеческий. Учитывая начальный текст в качестве подсказки, он создаст текст, который продолжает подсказку. Мы стремились дать нашим зрителям «разумные» ответы, используя 172,5 миллиарда параметров. Примеры, которые мы использовали, следующие.

Наш исходный результат (матрица на основе правил)

Вы человек, который пережил немало лишений, интересуется всем на свете, но одинок.

Расширенный результат (GPT-3)

Вы пережили много лишений в своей жизни и в результате вам интересно все, что происходит в мире, однако, несмотря на ваш живой интерес к окружающему миру, вы чувствуете глубокое внутреннее одиночество. Это внутреннее одиночество — это то, что вы всегда чувствовали, и это то, что вы чувствуете еще сильнее сейчас. Вы стремитесь к близким отношениям с другими, но вам трудно общаться с людьми на более глубоком уровне, в результате чего вы часто чувствуете себя изолированным и одиноким.

Прототип

Зрители получат ответ, как если бы слушали идеальное для себя объяснение в гадальной лавке, или с легким неприятным ощущением жуткости. Может ли ИИ действительно объяснить нас? Ответить на этот необъяснимый вопрос и было единственной целью нашей выставки.