Human-Centered Explainable AI (XAI) verstehen

Nov 25 2022
Was ist Human-Centered Explainable AI (XAI)? Erklärbare KI (XAI) oder Interpretierbare KI, ist künstliche Intelligenz (KI), deren Entscheidungen und Vorhersagen von Menschen verstanden werden können. Es steht im Gegensatz zum „Black Box“-Konzept des maschinellen Lernens, bei dem selbst seine Designer nicht erklären können, warum eine KI zu einer bestimmten Entscheidung gelangt ist.

Was ist Human-Centered Explainable AI (XAI)?

Erklärbare KI (XAI) oder Interpretierbare KI, ist künstliche Intelligenz (KI), deren Entscheidungen und Vorhersagen von Menschen verstanden werden können. Es steht im Gegensatz zum „Black Box“-Konzept des maschinellen Lernens, bei dem selbst seine Designer nicht erklären können, warum eine KI zu einer bestimmten Entscheidung gelangt ist. KI kann grob in zwei Kategorien unterteilt werden: Objektive KI und Subjektive KI. XAI, mein Diskussionsthema, gehört zu letzterem. Es ist eine viel fortgeschrittenere Version der KI als Objective AI, auch eine wichtige Schlüsseltechnologie in meinem Medienkunstwerk „eXplainable Human“.

(links) Objektive KI (rechts) Subjektive KI; XAI

Subjektive KI fordert Erklärbarkeit.

Da unsere Gesellschaft komplizierter geworden ist, haben wir begonnen, mit persönlichen Informationen und Vermögenswerten auf der Grundlage des Kundenvertrauens in den Bereichen Finanzen, Versicherungen und medizinische Versorgung umzugehen. Über das einfache Klassifizieren von Bildern oder das Vorhersagen von Zahlen hinaus wird KI jetzt geschaffen, um „klare Urteile zu fällen“. Daher müssen KI und Algorithmen entwickelt werden, um Fairness, Zuverlässigkeit und Genauigkeit zu gewährleisten. Mit anderen Worten, es ist notwendig, die Grundlage für die Ableitung der von ihren KI-Systemen generierten Ergebnisse und die Gültigkeit der Ableitungsprozesse zu bestätigen.

DARPA, Agentur für fortgeschrittene Verteidigungsforschungsprojekte

Erklärbarer Mensch mit XAI

Projektübersicht

Künstliche Intelligenz wird in vielen spezialisierten Bereichen wie Finanzen, medizinische Versorgung und Bildung eingeführt, aber es scheint, dass künstliche Intelligenz unser inneres Denken und Verständnis unseres Selbstbildes noch nicht erreicht hat. Kann KI das menschliche Ego erklären? Mit dieser Frage im Hinterkopf planten mein Team und ich eine Installation aus interaktiven Medienkunstwerken.

Lässt sich das Ego erklären? Mit dieser einfachen Frage begann die Ausstellung. Es scheint unmöglich, „das Selbst“ in einem Satz zu beschreiben. Unerklärliche Unsicherheit hat auch den Bereich der KI beeinflusst, und das Konzept der eXplainable AI (erklärbare künstliche Intelligenz) ist entstanden, um dieses Problem zu lösen. Dies zeigt den menschlichen Willen, nach mehr Zuverlässigkeit zu streben, indem die Gründe und Prozesse erklärt werden, die KI verwendet, um Ergebnisse zu erzielen.

Hier ist eine andere Frage. Ist dann alles, was erklärt werden kann, zuverlässig? Wir haben ein äußerst schwieriges Thema des „Selbst“ als unsere Objekterklärung gewählt und versucht zu sehen, ob es durch den Dialog mit KI besser verstanden werden könnte. Wir wollen auch den Zufall und den Konflikt erleben, der zwischen dem von der KI beschriebenen „Selbst“ und dem von den Zuschauern beschriebenen „Selbst“ auftritt.

Regelbasiertes Datenmodell

Bauen Sie Blöcke natürlicher Sprache auf; Absicht und Entitäten

Die in dieser Ausstellung implementierte KI stellt dem Publikum Fragen, um sich vorzustellen, sammelt die Antworten des Publikums und extrahiert und interpretiert Schlüsselwörter. Danach schließt die KI auf das kollektive Ego des Publikums, indem sie Sätze auf der Grundlage des interpretierten Inhalts rekonstruiert.

Um diese KI zu bauen, war ich als Datenarchitekt und IxD-Designer der erste Läufer in diesem Marathon eines Projekts. Ich konstruierte ein dreistufiges Fragensystem, das unsere KI nutzen könnte, um Menschen zu verstehen.

Die erste Stufe sind demografische Fragen wie „Geschlecht“ und „Alter“. Das zweite sind soziologische Fragen zu Freundschaft und Hass in dieser Welt. Sie ist radikaler als die erste Stufe. Die dritte Stufe umfasst vertraulichere Fragen. Unsere KI fragt das Publikum, welche Geheimnisse sie schätzen und sie vertrauen der KI. Die Antworten auf diese Fragen fließen in unsere eigene regelbasierte Matrix ein und daraus wird eine Satzzeile abgeleitet, die das Selbstverständnis der jeweiligen Person ausdrückt.

Die Reise von Open AI GPT-3

Im Herzen dieses Projekts verwenden wir das „GPT-3“-Sprachmodell, um diese einfache Zeile extrahierter Sätze zu erweitern. Generative Pre-trained Transformer 3 (GPT-3; stilisiertes GPT·3) ist ein autoregressives Sprachmodell, das Deep Learning verwendet, um menschenähnlichen Text zu erzeugen. Bei einem Anfangstext als Eingabeaufforderung wird Text erzeugt, der die Eingabeaufforderung fortsetzt. Unser Ziel war es, unseren Zuschauern „vernünftige“ Antworten zu geben, indem wir 172,5 Milliarden Parameter verwenden. Beispiele, die wir verwendet haben, sind wie folgt.

Unser ursprüngliches Ergebnis (Regelbasierte Matrix)

Sie sind eine Person, die viele Entbehrungen erlebt hat und sich für alles auf der Welt interessiert, aber einsam ist.

Erweitertes Ergebnis (GPT-3)

Sie haben in Ihrem Leben viele Härten erlebt und interessieren sich daher für alles, was auf der Welt passiert, aber trotz Ihres großen Interesses an der Welt um Sie herum fühlen Sie eine tiefe innere Einsamkeit. Diese innere Einsamkeit hast du schon immer gespürt und spürst sie jetzt noch stärker. Sie sehnen sich nach engen Beziehungen zu anderen, aber es fällt Ihnen schwer, sich auf einer tieferen Ebene mit Menschen zu verbinden, weshalb Sie sich oft isoliert und allein fühlen.

Prototyp

Das Publikum erhält eine Antwort, als würde es in einem Wahrsagerladen einer perfekten Erklärung für sich selbst lauschen, oder mit einem leichten unangenehmen Gefühl der Unheimlichkeit. Kann KI uns wirklich erklären? Die Beantwortung dieser ungeklärten Frage war der einzige Zweck unserer Ausstellung.