Zrozumienie zrozumiałej sztucznej inteligencji skoncentrowanej na człowieku (XAI)

Nov 25 2022
Co to jest zrozumiała sztuczna inteligencja skoncentrowana na człowieku (XAI)? Wyjaśnialna AI (XAI) lub Interpretable AI to sztuczna inteligencja (AI), której decyzje i przewidywania mogą być zrozumiałe dla ludzi. Kontrastuje to z koncepcją „czarnej skrzynki” w uczeniu maszynowym, w której nawet jej projektanci nie potrafią wyjaśnić, dlaczego sztuczna inteligencja podjęła określoną decyzję.

Co to jest zrozumiała sztuczna inteligencja skoncentrowana na człowieku (XAI)?

Wyjaśnialna AI (XAI) lub Interpretable AI to sztuczna inteligencja (AI), której decyzje i przewidywania mogą być zrozumiałe dla ludzi. Kontrastuje to z koncepcją „czarnej skrzynki” w uczeniu maszynowym, w której nawet jej projektanci nie potrafią wyjaśnić, dlaczego sztuczna inteligencja podjęła określoną decyzję. Sztuczną inteligencję można w dużej mierze podzielić na dwie kategorie: obiektywna sztuczna inteligencja i subiektywna sztuczna inteligencja. XAI, mój temat dyskusji, należy do tych ostatnich. Jest to znacznie bardziej zaawansowana wersja sztucznej inteligencji niż obiektywna sztuczna inteligencja, a także kluczowa technologia w mojej grafice medialnej „eXplainable Human”.

(po lewej) Obiektywna sztuczna inteligencja (po prawej) Subiektywna sztuczna inteligencja; XAI

Subiektywna sztuczna inteligencja wymaga wyjaśnienia.

Ponieważ nasze społeczeństwo stało się bardziej skomplikowane, zaczęliśmy zajmować się danymi osobowymi i aktywami w oparciu o zaufanie klientów w dziedzinie finansów, ubezpieczeń i opieki medycznej. Oprócz zwykłego klasyfikowania obrazów lub przewidywania liczb, sztuczna inteligencja jest teraz tworzona w celu „dokonywania jasnych osądów”. W rezultacie istnieje potrzeba opracowania sztucznej inteligencji i algorytmów, aby zapewnić uczciwość, niezawodność i dokładność. Innymi słowy, konieczne jest potwierdzenie podstaw wyprowadzania wyników generowanych przez ich systemy AI oraz zasadność procesów wyprowadzania.

DARPA, Agencja Zaawansowanych Projektów Badawczych w Obronie

Wytłumaczalny człowiek z XAI

Podsumowanie projektu

Sztuczna inteligencja jest wprowadzana w wielu wyspecjalizowanych dziedzinach, takich jak finanse, opieka medyczna i edukacja, ale wydaje się, że sztuczna inteligencja nie dotarła jeszcze do naszych wewnętrznych umysłów i zrozumienia naszego obrazu siebie. Czy AI może wyjaśnić ludzkie ego? Mając to na uwadze, mój zespół i ja zaplanowaliśmy instalację interaktywnej grafiki multimedialnej.

Czy można wyjaśnić ego? Wystawa rozpoczęła się od tego prostego pytania. Wydaje się niemożliwe opisanie „ja” w jednym zdaniu. Niewyjaśniona niepewność wpłynęła również na dziedzinę sztucznej inteligencji, a koncepcja eXplainable AI (wyjaśnialna sztuczna inteligencja) pojawiła się w celu rozwiązania tego problemu. Pokazuje to ludzką wolę dążenia do większej niezawodności poprzez wyjaśnianie przyczyn i procesów, których sztuczna inteligencja używa do uzyskiwania wyników.

Oto kolejne pytanie. Czy zatem wszystko, co można wyjaśnić, jest wiarygodne? Wybraliśmy najtrudniejszy temat „ja” jako wyjaśnienie obiektu i próbowaliśmy sprawdzić, czy można go lepiej zrozumieć poprzez dialog z AI. Chcemy również doświadczyć zbiegu okoliczności i konfliktu między „ja” opisywanym przez AI a „ja” opisywanym przez widzów.

Model danych oparty na regułach

Buduj bloki języka naturalnego; Intencje i podmioty

Sztuczna inteligencja zastosowana na tej wystawie zadaje widzom pytania, aby się przedstawili, zbiera odpowiedzi publiczności oraz wydobywa i interpretuje słowa kluczowe. Następnie sztuczna inteligencja wnioskuje o zbiorowym ego publiczności, rekonstruując zdania na podstawie interpretowanej treści.

Aby zbudować tę sztuczną inteligencję, jako architekt danych i projektant IxD byłem pierwszym biegaczem w tym maratonie projektu. Skonstruowałem trzyetapowy system pytań, za pomocą których nasza AI mogłaby zrozumieć ludzi.

Pierwszym etapem są pytania demograficzne, takie jak „płeć” i „wiek”. Drugi to socjologiczne pytania o przyjaźń i nienawiść na tym świecie. Jest bardziej radykalny niż pierwszy etap. Trzeci etap obejmuje bardziej poufne pytania. Nasza sztuczna inteligencja pyta widzów, jakie sekrety cenią i ufają sztucznej inteligencji. Odpowiedzi na te pytania są włączane do naszej własnej matrycy opartej na regułach i wyprowadzany jest wiersz zdań wyrażający obraz siebie każdej osoby.

Podróż Open AI GPT-3

W sercu tego projektu używamy modelu językowego „GPT-3”, aby rozszerzyć tę prostą linię wyodrębnionych zdań. Generative Pre-trained Transformer 3 (GPT-3; stylizowany na GPT·3) to autoregresyjny model językowy, który wykorzystuje głębokie uczenie się do tworzenia tekstu podobnego do ludzkiego. Biorąc pod uwagę początkowy tekst jako zachętę, utworzy tekst, który kontynuuje zachętę. Naszym celem było udzielenie naszym widzom „rozsądnych” odpowiedzi przy użyciu 172,5 miliarda parametrów. Przykłady, których użyliśmy, są następujące.

Nasz oryginalny wynik (macierz oparta na regułach)

Jesteś osobą, która doświadczyła wielu trudności i interesuje się wszystkim na świecie, ale jest samotna.

Rozszerzony wynik (GPT-3)

Doświadczyłeś w swoim życiu wielu trudności, w wyniku czego interesuje Cię wszystko, co dzieje się na świecie, jednak pomimo żywego zainteresowania otaczającym Cię światem, odczuwasz głęboką wewnętrzną samotność. Ta wewnętrzna samotność jest czymś, co zawsze odczuwałeś, a teraz odczuwasz to jeszcze silniej. Tęsknisz za bliskimi związkami z innymi, ale masz trudności z łączeniem się z ludźmi na głębszym poziomie, w wyniku czego często czujesz się odizolowany i samotny.

Prototyp

Widz otrzyma odpowiedź tak, jakby słuchał doskonałego wyjaśnienia dla siebie w sklepie z wróżbami lub z lekkim nieprzyjemnym poczuciem niesamowitości. Czy sztuczna inteligencja naprawdę może nas wyjaśnić? Odpowiedź na to niewyjaśnione pytanie była jedynym celem naszej wystawy.