Zum KI-Anthropomorphismus

Apr 27 2023
von Ben Shneiderman (University of Maryland, USA) und Michael Muller (IBM Research, USA) Einleitung Anthropomorphismus ist der Vorgang der Projektion menschenähnlicher Eigenschaften oder Verhaltensweisen auf nichtmenschliche Einheiten, beispielsweise wenn Menschen Tiere, Gegenstände oder Naturphänomene verschenken menschenähnliche Eigenschaften oder Emotionen. Es gibt seit langem Debatten über die Verwendung anthropomorpher Designs für KI-basierte Systeme, die (zumindest) bis zu einem frühen Panel auf der ACM Computer-Human Interaction Conference mit dem Titel „Anthropomorphismus: von ELIZA bis Terminator 2“ (Don et al.

von Ben Shneiderman (University of Maryland, USA) und Michael Muller (IBM Research, USA)

Ist KI eher ein Werkzeug oder ein anthropomorphisierter sozialer Akteur? Quelle: Dreamstudio.

Einführung

Anthropomorphismus ist der Vorgang der Projektion menschenähnlicher Eigenschaften oder Verhaltensweisen auf nichtmenschliche Wesenheiten, etwa wenn Menschen Tieren, Gegenständen oder Naturphänomenen menschenähnliche Eigenschaften oder Emotionen verleihen. Es gibt seit langem Debatten über die Verwendung anthropomorpher Designs für KI-basierte Systeme, die (zumindest) bis zu einem frühen Panel auf der ACM Computer-Human Interaction Conference mit dem Titel „Anthropomorphismus: von ELIZA bis Terminator 2“ (Don et al., 1992).

Zu den Designproblemen im Zusammenhang mit Anthropomorphismus gehört, ob:

  1. Auf einem Bildschirm sollte ein menschlicher, agentenähnlicher Charakter gezeigt werden.
  2. Computer sollten sich als menschenähnliche soziale Akteure mit Text- oder Sprachbenutzeroberflächen präsentieren,
  3. Computeraufforderungen oder -antworten sollten Pronomen der ersten Person verwenden, z. B. „Ich helfe Ihnen gerne“ und
  4. Benutzer bevorzugen alternative, direkte Manipulationsdesigns , die ihnen das Klicken, Ziehen, Zoomen oder Berühren ermöglichen.

Michael und Ben tauschten im März und April 2023 weiterhin Notizen aus, und Eds. Chenhao Tan, Justin Weisz und Werner Geyer schlugen vor, ihre Argumente zu veröffentlichen. Dieser Artikel stellt eine leicht bearbeitete Version des E-Mail-Austauschs dar, unterteilt in vier Teile:

  • Teil I – Über Anthropomorphismus
  • Teil II – Anthropomorphe Computersysteme
  • Teil III – Intelligent, nicht intelligent oder ein Kontinuum?
  • Teil IV – Zur Verwendung von „Ich“

Während des Austauschs wurden weitere Personen in das Gespräch einbezogen, um Kommentare und Perspektiven hinzuzufügen. Wir werden ihre Perspektiven in kommenden Artikeln veröffentlichen ( siehe unten für eine Liste ). Wenn Sie Ihre Stimme in den Mix einbringen möchten, wenden Sie sich bitte an Chenhao Tan .

Die Debatte

Teil I – Über Anthropomorphismus

Ben Shneiderman : Eine besondere Sorge, die ich habe, ist die Art und Weise, wie in der GPT-4-Ausgabe Pronomen der ersten Person verwendet werden, was darauf hindeutet, dass es sich um ein menschliches Pronomen handelt, zum Beispiel: „Es tut mir leid, aber ich kann Ihnen bei dieser Anfrage nicht weiterhelfen.“ Die einfache Alternative „GPT-4 wurde von OpenAI so konzipiert, dass es nicht auf Anfragen wie diese reagiert“ würde die Verantwortlichkeiten klären und die irreführende Verwendung von Ich-Pronomen vermeiden. In meiner Welt sind Maschinen kein „Ich“ und sollten nicht vorgeben, Menschen zu sein.

Michael Müller : Erstens betrachten wir Menschen seit sehr langer Zeit Artefakte und Naturwesen als personenähnliche Wesen. Demetrius von Phelerum schrieb vor 280 v. Chr. über Prosopopoeia (Personifizierung). Der Wikipedia-Eintrag über Prosopopoeia liefert ein Beispiel aus dem Buch Sirach, in dem „die Weisheit ihre eigenen Loblieder singt, / unter ihrem eigenen Volk verkündet sie ihre Herrlichkeit.“ Es gibt viele Berichte über geschaffene Wesen, die eine Form von Bewusstsein oder Handlungsfähigkeit annehmen, vom historischen Golem (nicht dem Tolkien-Golem, genannt „Gollum“) über Mary Wollstonecraft Shelley bis hin zum Mythos von Pygmalion und Galatea.

Daher denke ich, dass es viele Präzedenzfälle dafür gibt, dass wir von gemachten Dingen menschenähnliche Eigenschaften sprechen. Reeves und Nass (1996) verfolgten dieses Konzept als Forschungsprogramm, insbesondere zu Computern als sozialen Akteuren. Siehe auch meine Kritik an ihrer Position in Interacting with Computers (Muller, 2004), in der ich die längere Geschichte der Personifizierung untersucht habe.

Zweitens untersuchen wir gerade, was es für einen Algorithmus bedeutet, ein nichtdeterminierter Gesprächspartner zu sein. Ich stimme zu, dass die LLMs stochastische Papageien und daher „geistlos“ sind. Dennoch verfügen sie über eine überzeugende soziale Präsenz. Wir wissen noch nicht, was wir mit dieser sozialen Präsenz anfangen können. (Ich sage „tun“ im pragmatischen Sinne von „wofür wir es verwenden können“.) Abgesehen von all dem aktuellen irritierenden (und manchmal gefährlichen) KI-Hype gibt es hier Forschungsfragen darüber, welche Art von Einheiten wir aufbauen und worum es geht wie wir mit ihnen umgehen werden. IMHO, wir wissen es noch nicht.

Ich vermute, dass wir unsere Mensch-/Nicht-Mensch-Binärstruktur in eine Dimension oder in mehrere Dimensionen zerlegen müssen. In einer herkömmlichen eurowestlichen Denkweise tun wir dies bereits in unserem Verhältnis zu Tieren. Für die meisten von uns ist ein Stein nur ein Stein (aber beachten Sie, dass einige Philosophien der Ureinwohner und Aborigines diese Aussage in Frage stellen würden). In ähnlicher Weise haben einige Tiere – zum Beispiel Molche – nur in Capeks Werk eine interessante Persönlichkeit (Capek et al., 1996), nicht aber in unseren Interaktionen mit ihnen (und ich erinnere mich, dass Capeks Begleitwerk über schiefgelaufene Beziehungen davon handelte). Roboter (Capek, 2004)). Elizabeth Phillips und Kollegen (2016) haben die tieferen Beziehungen untersucht, die wir zu einigen Tieren haben, wobei Hunde das wichtigste Beispiel für soziale Präsenz sind. Siehe auch Haraways (2003) Konzepte zu Begleitarten, und faszinierend ist Fijns (2011) Arbeit über menschliche Beziehungen zu mongolischen Lassostangenponys. Daher sind Abstufungen zu berücksichtigen und nicht nur eine einfache Unterscheidung zwischen Mensch und Nicht-Mensch im Zusammenhang mit Tieren.

Phillips et al. (2016) nutzten Mensch-Tier-Beziehungen, um über Beziehungen zwischen Mensch und KI nachzudenken. Ich denke, dass es, wie bei Tieren, Grade der Sozialität oder Grade der sozialen Präsenz gibt, die auf rechnerische Dinge anwendbar sein könnten. Ich denke, wir wissen noch nicht genug, um diese Möglichkeiten auszuschließen.

Wenn Sie mich nach den Themen in Ihrem Beitrag zu Betrug und Manipulation fragen, bin ich genau Ihrer Meinung, wenn es um den Schutz von Menschen geht, und ich würde strenge Vorschriften zum Schutz von Menschen vor KIs unterstützen, die Menschlichkeit vortäuschen, um Menschen zu täuschen. Für mich ist das eine andere Gruppe von Bedenken als die Art und Weise, wie wir neue Technologien, neu veröffentlichte Technologien und neu interpretierte Technologien erforschen (die alle zum Nachdenken über mögliche Zukünfte genutzt werden können), solange unsere Erkundungen ehrlich und vollständig sind. offengelegt und ohne Böswilligkeit.

Teil II – Anthropomorphe Computersysteme

Ben Shneiderman: Ja, ich stimme zu, dass die Personlichkeit für Artefakte von Aristoteles verwendet wurde und auch weiterhin verwendet wird. Ich glaube nicht, dass ich diese Zombie-Idee töten kann.

Allerdings können Zombie-Ideen problematische Auswirkungen haben. Für einen gewöhnlichen Artefaktbenutzer ist es eine Sache, menschenähnliche Referenzen für Boote, Autos oder Roombas zu erstellen, aber ich sehe es als Problem an, wenn Designer diese Sprache verwenden, was zu schlechten Produkten führt. Die lange Geschichte gescheiterter anthropomorpher Systeme reicht sogar vor Microsoft BOB und Clippie zurück, hat aber weiterhin milliardenschwere Ausfälle hervorgebracht. Der jüngste schwerwiegende und tödliche Konstruktionsfehler bestand darin, dass Elon Musk darauf beharrte, dass seine Teslas nur Videos verwenden würden, da menschliche Fahrer nur Augen verwenden würden. Indem er trotz der Einwände seiner Ingenieure den Einsatz von Radar oder LIDAR verhinderte, hat er ein suboptimales System entwickelt, das tödliche Ergebnisse liefert.

Für mich sind Metaphern wichtig (Lakoff & Johnson, 2006), daher sollten Designer wachsam sein, wie ihre Überzeugung, dass Computer wie Menschen in natürlicher Sprache kommunizieren sollten, dazu führt, dass sie Computerfunktionen wie die reiche Darstellung visueller Informationen nicht nutzen Information.

Weitere Unterstützung für den Übergang vom Anthropomorphismus zu Designs, die den Benutzern mehr Kontrolle geben, kommt vom Soziologen Lewis Mumford. Sein klassisches Buch Technics and Civilization (1936) hat mich stark beeinflusst .das im Kapitel „Das Hindernis des Animismus“ eine klare Analyse bietet. Mumford beschreibt, dass anfängliche Entwürfe, die auf menschlichen oder tierischen Modellen basieren, ein Hindernis darstellen, das bei der Entwicklung neuer Technologien überwunden werden muss: „Die ineffektivste Art von Maschine ist die realistische mechanische Nachahmung eines Mannes [/einer Frau] oder eines anderen Tieres.“ Mumford argumentiert damit, dass die besonderen Fähigkeiten von Technologie wie Rädern, Düsentriebwerken oder hochauflösenden Computerdisplays möglicherweise übersehen werden, wenn Designer an „bioinspirierten“ Konzepten wie Konversationsschnittstellen festhalten. Daher ist es verständlich, dass anthropomorphe Formulierungen als anfängliches Design für KI-Systeme angeboten werden, aber wenn man über dieses Stadium hinausgeht, können Designer die Vorteile ausgefeilter Algorithmen, riesiger Datenbanken, übermenschlicher Sensoren, informationsreicher Displays besser nutzen.

Michael Müller : Für mich lautet die Kernfrage: „Wie können Menschen mit nichtmenschlichen Intelligenzen umgehen?“ Anthropomorphismus ist eine mögliche Antwort, aber nicht die einzige und nicht das einzig relevante Thema.

Sie und ich sind uns einig, dass Worte und Metaphern wichtig sind. Deshalb interessierte ich mich so sehr für die Arbeit von Phillips et al. (2016). Sie suchten nach nützlichen Metaphern (Plural) für KIs (Plural), indem sie sich mit menschlichen Beziehungen zu Tieren befassten. Das gilt, in anderer Weise, für einen Großteil von Haraways Werken (2003).

Wie ich bereits geschrieben habe, lautet meine Sprache für unsere gemeinsame Frage: „Wie können Menschen mit nichtmenschlichen Intelligenzen umgehen?“ Für mich liegt das näher am Kernthema, und Anthropomorphismus ist eine Unterfrage unter vielen möglichen Erkundungen seltsamer nichtmenschlicher Wesenheiten. Anthropomorphismus ist ein metaphorischer Ansatz für neue Ideen und neue Entitäten. Meiner Ansicht nach werden Metaphern zu Denkfiguren, durch die wir etwas von dieser Fremdartigkeit artikulieren können. (In Anlehnung an die zeitgenössische rhetorische Theorie habe ich „Denkfiguren“ geschrieben (z. B. Lakoff, 1986; Lakoff & Johnson, 2008), nicht nur „Figuren und Sprache“, und ich denke, wir sind uns wieder einig.) Ich möchte, dass wir uns mit Metaphern befassen über LLMs, um uns dabei zu helfen, darüber nachzudenken, „was“ sie „sind“, aber auch darüber, was sie sein könnten oder werden könnten.

So ausgedrückt, hoffe ich, dass unser Gebrauch der (menschlichen) Sprache uns dabei helfen kann, einen konzeptionellen Raum über die Natur der rechnerischen Dinge zu eröffnen, die wir herstellen und mit denen wir interagieren. Ich denke, Metaphern werden nützlich sein, ebenso wie die umfassendere Kategorie der Analogien. Diese Dinge sind jetzt SEHR vielschichtig. Während zum Beispiel alle über LLMs und FMs reden, denken einige von uns (einschließlich Ihnen und mir) intensiv über die Benutzeroberflächen dieser LLMs nach.

Die LLM-Schicht ist wahrscheinlich ein „Wir“ – schließlich enthält sie die nicht einvernehmlich gesammelten Materialien von Hunderttausenden Menschen. Oder vielleicht hätte ich „erbeutete Materialien“ sagen sollen. Oder „gestohlene Stimmen“.

Die UI-Ebene kann ein „Ich“ sein, denn das ist der Interaktionsstil, der für uns Menschen zu funktionieren scheint. Ich denke, Sie würden es vorziehen, wenn die UI-Ebene ein „Es“ ist – oder vielleicht, dass sie sich auf sich selbst in der dritten Person bezieht, wie der verletzte Helfer (Cyborg-Soldat) in Ann Leckies Imperial Radch-Büchern (Leckie, 2013), der es versucht Halten Sie von einem Rettungsversuch ab, indem Sie sagen: „Flottenkapitän … bei allem Respekt, diese Verletzung ist zu schwer, als dass es sich lohnt, sie zu reparieren.“

Bezeichnenderweise geht es mir mehr darum, Möglichkeiten zu eröffnen, als darum, Misserfolge zu verhindern. Ja, Clippy und BOB waren Fehlschläge, aber das bedeutet nicht, dass alle Personifizierungen Fehlschläge sein werden. Unsere Experimente mit einer personifizierten Benutzeroberfläche für ein LLM waren recht erfolgreich. Niemand, der unseren Prototyp des Programmer's Assistant (Ross et al. 2023) verwendet, ist über seinen ontologischen Status verwirrt. Niemand verwechselt ihn mit etwas anderem als einem intelligenten Toaster, aber er entpuppt sich als transformativ hilfreicher intelligenter Toaster. (Nicht „transformativ intelligent“, sondern nur „transformativ hilfreich“.) Jetzt haben wir also Clippie und BOB als Beispiele für Misserfolge, aber wir haben auch unseren Programmer's Assistant als Beispiel für einen Erfolg (und vielleicht einige der älteren Nass- und Reeves-Modelle). auch Experimente). Anthropomorphismus führt nicht unbedingt zu Problemen.

Meiner Meinung nach sind UIs zu LLMs ein wirklich neuer Designraum. Wir wissen noch nicht, was die entscheidenden Faktoren dieses Raumes sind. Ich vermute, dass diese Faktoren miteinander interagieren. Wann ist beispielsweise Anthropomorphismus vorteilhaft und wann schädlich? (dh welche anderen Faktoren interagieren mit der Personifizierung?) Welche Attribute werden wichtig sein, wenn wir HCXAI-Nachrichten (und implizite Nachrichten) schreiben, und wann und für wen? Siehe z. B. den Aufsatz von Upol Ehsan und Samir Passi über XAI mit zwei Benutzergruppen und drei Nachrichtengenres (Ehsan et al., 2021). Und welche „Denkwerkzeuge“ (z. B. Denkfiguren) können uns helfen, diesen neuen Gestaltungsraum zu erkunden?

Teil III – Intelligent, nicht intelligent oder ein Kontinuum?

Ben Shneiderman: Michael schlägt vor, dass unsere gemeinsame Frage lautet: „Wie können Menschen mit nichtmenschlichen Intelligenzen umgehen?“ Ich bin jedoch nicht der Meinung, dass Maschinen als intelligent bezeichnet werden sollten. Bestimmte Wörter wie denken, wissen, verstehen, Intelligenz, Wissen, Weisheit usw. behalte ich mir für Menschen vor und finde andere Wörter, um zu beschreiben, was Maschinen tun. Ich habe dies in allen sechs Ausgaben von Designing the User Interface (2016) getan und denke, dass es eine wichtige produktive Entscheidung war.

Die Lektüre des Buches von Simone Natale (2021) wäre hilfreich. Er sagt, dass anthropomorphe und humanoide Roboter eine überzeugende Idee seien, aber in der Vergangenheit zu gescheiterten Produkten geführt hätten. Er beschreibt die „banale Täuschung“ vieler Anwendungen und die „direkte absichtliche Täuschung“, die beide „so zentral für die Funktionsweise der KI sind wie die Schaltkreise, Software und Daten, die sie zum Laufen bringen.“ Natale hat wunderbare Erkenntnisse über die Bereitschaft von Menschen, sich täuschen zu lassen.

Ich respektiere Michael und sein langjähriges Engagement für partizipatives Design und schätze ihn als Kollegen, daher hoffe ich wirklich, Michael von seinem problematischen Glauben an nichtmenschliche Intelligenz abzubringen.

Denken Sie daran, dass etwa ein Viertel der Bevölkerung Angst vor Computern hat, insbesondere wenn das Design darauf hindeutet, dass Computer wie Menschen sind (Liang und Lee, 2017; Sprinkle, 2017; Strait et al., 2017). Andere haben auch darauf hingewiesen, dass „anthropomorphisierende Systeme zu übermäßigem Vertrauen oder unsicherer Nutzung führen können“ (Weidinger et al., 2022).

Indem wir Maschinen zu menschlichen Fähigkeiten erheben, verringern wir die Besonderheit des Menschen. Ich bin bestrebt, die Unterscheidung zu wahren und die Verantwortung klarzustellen. Daher bin ich nicht der Meinung, dass Maschinen Ich-Pronomen verwenden sollten, sondern beschreiben sollten, wer für das System verantwortlich ist, oder einfach maschinenähnlich reagieren sollten. Manchmal braucht es ein wenig Fantasie, um die richtige Formulierung zu finden, aber am besten ist es, wenn es kompakter ist.

In den Anfängen der Bankautomaten wurde das soziale Spiel wiederholt mit „Tillie the Teller“, „Harvey Wallbanker“ usw. ausprobiert, die gesprächig waren, z. B. „Guten Morgen“. Was kann ich heute für Sie tun?" aber diese schlugen fehl und wichen der Frage „Möchten Sie einzahlen oder abheben?“ oder noch kompakter, indem man den Kunden einfach Tasten zum Anfassen zur Verfügung stellt. Die Benutzer wechselten zu Designs, die es ihnen ermöglichten, ihre Aufgaben so schnell wie möglich zu erledigen, und ihnen gleichzeitig das Gefühl gaben, eine Maschine zu bedienen.

Die Frage ist NICHT, ob Menschen sich mit einer betrügerischen sozialen Maschine identifizieren können – natürlich können sie das. Die Frage lautet: „Erkennen wir, dass Menschen und Maschinen unterschiedliche Kategorien sind?“ oder „Werden wir die Menschenwürde respektieren, indem wir effektive Maschinen entwickeln, die die Selbstwirksamkeit und Verantwortung des Menschen verbessern?“ Die über 2 Millionen Apps im Apple Store basieren größtenteils auf direkter Manipulation. Große Anwendungen wie Amazon-Shopping, Google-Suche, Navigation usw. meiden menschenähnliche Designs, weil sie erkannt haben, dass diese nicht optimal und unbeliebt sind. Kann Michael drei weit verbreitete Apps nennen, die über eine menschenähnliche Benutzeroberfläche verfügen?

Michael Müller: Ein Teil meiner Position basiert auf Mensch-Tier-Beziehungen. Es gibt eine Art Intelligenz in einem Hund, und insbesondere in einem gut ausgebildeten Hund wie einem Blindenhund oder Schäferhund (Phillips et al., 2016) oder einem Lasso-Pole-Pony (Fjin, 2011). Es gibt eine andere, viel kältere Art von Intelligenz in einem Falken (Soma, 2013). Und noch eine andere Art von Intelligenz in einem Ochsen (Phillips et al., 2016). Wir haben Beziehungen zu diesen Tieren.

Ich denke, Schäferhunde und Jagdhunde stellen interessante Fälle dar. Wir (Menschen, nicht Michael) schicken sie los, um Dinge zu tun (Kaminski und Nitzschner, 2013). Wir koordinieren unser Handeln mit ihnen – manchmal über Distanzen hinweg. Sie stimmen ihr Handeln mit uns ab.

Dann gibt es Amöben und Paramecia, die wahrnehmen und reagieren können, aber nicht viel haben, was wir als Gehirn bezeichnen würden, und noch weniger einen Geist.

Aber Hunde sind ein Zwischenfall. Sie haben eine soziale Präsenz. Sie haben so etwas wie einen Verstand. Sie haben ihre eigenen Ziele, und manchmal stimmen ihre Ziele und unsere Ziele überein, manchmal nicht. Manchmal können wir ihre Meinung ändern. Manchmal können sie unsere Meinung ändern. Ich denke, das lässt sie wie nichtmenschliche Intelligenzen erscheinen.

Abgesehen davon glaube ich nicht, dass LLMs (oder genauer gesagt die UIs zu LLMs) Ziele, Absichten und schon gar keinen Verstand haben. Die von uns erstellten Benutzeroberflächen haben soziale Präsenz. Wir können sie so gestalten, dass sie unterschiedliche Persönlichkeiten zu haben scheinen – auch wenn wir wissen, dass intelligente Toaster keine Persönlichkeiten haben. Papageien haben so etwas wie Persönlichkeiten, aber keine stochastischen Papageien (Bender et al., 2021). Aber stochastische Papageien können eine Art soziale Präsenz haben. Das macht sie seltsam und neu, weil sie Attribute von Toastern und von sozialen Wesen vermischen. Es wurde über das „unheimliche Tal“ geschrieben. Als ich „seltsam“ sagte, hätte ich auch „unheimlich“ sagen können. Ich denke, sie sind nützlich und produktiv seltsam. Sie helfen uns, neue, experimentelle Gedanken zu entwickeln.

Ich betrachte Intelligenz immer noch als ein Kontinuum und nicht als Binärsystem. Wir könnten dieses Kontinuum mit Amöben an einem Ende und Menschen am anderen Ende verankern. Es ist der dunkle Bereich dazwischen, der mich interessiert. Das liegt daran, dass ich es als eine Region der Hybridität oder als „dritten Raum“ betrachte. Ein seltsamer Raum. In meinem Aarhus-Aufsatz von 1995 (Muller, 1995) und erneut im Handbuchkapitel mit Allison Druin (Muller und Druin, 2012) haben wir behauptet, dass diese Räume der Vermischung von Kulturen fruchtbare Orte für neue Erkenntnisse und unterschiedliches Wissen sind weil sie seltsam sind. Ich denke, dass Mensch-KI-Beziehungen auch hybride Räume der Neuheit sein können.

Wenn Sie sagen, dass weder Tiere noch Algorithmen über spezifisch menschliche Intelligenz verfügen, dann bin ich genau Ihrer Meinung. Bisher sind wir Menschen immer noch etwas Besonderes – obwohl neuere ethologische Arbeiten darauf hinweisen, dass wir nicht ganz so besonders sind, wie wir früher dachten.

Für mich ist es keine Frage der Metapher. Es ist eine Frage der Möglichkeiten und der unklaren, aber interessanten Zwischenräume.

Ich akzeptiere, dass Sie die Vorstellung nichtmenschlicher Intelligenzen ablehnen. Ich denke, darauf könnte sich unsere „Debatte“ konzentrieren. Wir müssen uns nicht einigen. Allerdings müssen wir uns auf einen Titel einigen. Wenn Sie keinen Titel über nichtmenschliche Intelligenzen wünschen, könnten wir es vielleicht mit einem weniger spezifischen Titel versuchen, wie zum Beispiel „Beziehungen von Menschen und KIs“?

Ben Shneiderman : Vielen Dank für Ihre weitere Antwort und Diskussion über Tiere als Zwischenfall. Für mich ist Verantwortung das entscheidende Problem, daher ist es wichtig, sich daran zu erinnern, dass Tierhalter rechtlich und moralisch für das, was ihre Haustiere tun, verantwortlich sind.

Die Diskussion wird komplexer, wenn wir Menschen betrachten, die nicht vollständig für ihre Handlungen verantwortlich sind, beispielsweise diejenigen, die Alkohol oder Drogen genommen haben, die ihre Intelligenz, ihr Gedächtnis, ihre Wahrnehmungs-, kognitiven und motorischen Fähigkeiten beeinträchtigen.

Man könnte also sagen, dass Intelligenz ein Kontinuum ist, aber Verantwortung ist eher binär und ein wichtiger Faktor im Design. Ich denke, die Diskussion kann sich nicht auf die Intelligenz beschränken, sondern muss Gedächtnis, Wahrnehmung, kognitive und motorische Fähigkeiten umfassen.

Ich möchte den Schwerpunkt auf Design legen, das klarstellt, dass KI-Tools von Menschen und Organisationen entworfen werden, die rechtlich für das verantwortlich sind, was sie tun und was die Tools tun, obwohl Tools missbraucht werden können usw.

Unsere Debatte ist interessant, aber schon die Wahl des Titels spaltet uns. Sie schlagen „Beziehungen von Menschen und KIs“ vor? Ich halte es für sinnvoll, über „Beziehungen zwischen Menschen und Autos/Booten/Bulldozern/Glühbirnen“ zu diskutieren, aber das Wort „Beziehungen“ suggeriert so etwas wie eine Peer-Beziehung und räumt KIs zu viel ein. Ich wäre zufriedener mit „Zukünftige KI-Systeme so gestalten, dass sie den menschlichen Bedürfnissen dienen.“ Zu den menschlichen Bedürfnissen gehören für mich der Schutz der Umwelt und der Artenvielfalt sowie die UN-Ziele für nachhaltige Entwicklung .

Teil IV – Zur Verwendung von „Ich“

Michael Müller: Ich habe vergessen, auf kommerzielle Chatbots zu antworten, die in der Ich-Singularform antworten. Natürlich gibt es viele Beispiele aus den aktuellen LLMs. Unabhängig davon, ob diese Dienste heute wirtschaftlich rentabel sind, setzen die Unternehmen, die sie anbieten, auf ihre kommerzielle und Wettbewerbsfähigkeit : Bard, Bing, HuggingFace Open Assistant und so weiter.

Dies sind jedoch die Benutzeroberflächen, gegen die Sie Einwände erhoben haben. Hier sind Beispiele von ein paar Jahren zuvor. Suhel et al. (2020) beschreiben Banking-Chatbots, die die Ich-Singularform verwenden. Meine Bank hat eine ähnliche Funktion. IGT Solutions bietet einen Chatbot für Flugreservierungen und FAQs. SABA Hospitality bietet ein ähnliches Angebot für Hotelreservierungen und Gästeservices. Dabei handelt es sich um kommerzielle Angebote, die First-Person-Singular-Chatbots nutzen.

Forscher haben diese Art von Paradigma (dh KI bezeichnet sich selbst als „Ich“ oder „mich“) in Arbeiten im Zusammenhang mit Nass‘ und Reeves Forschungsprogramm „Computer sind soziale Akteure“ (z. B. Reeves und Nass, 1996) verwendet. Ich kann ein Beispiel bereits aus dem Jahr 1998 finden (Elliott und Brzezinski, 1998), und ich vermute, dass es in einigen Aufsätzen des vorangegangenen Jahrzehnts ebenfalls einen solchen Dialog gab. Ich denke, Sie werden Strommens Beschreibung von Kinderspielzeugen, die sich selbst als „Ich“ bezeichnen, stärker widersprechen (Bergman (Hrsg.), 2000).

Ich stimme zu, dass es in der Vergangenheit Menschen gibt, die Chatbots ablehnen. Unserer Erfahrung nach liegt das Akzeptanzproblem darin, dass die Anfrage des Benutzers nicht gut mit den Absichten des Chatbots übereinstimmt (d. h. Anfrage und Antwort zuordnen). Wir haben gesehen, dass die aktuellen LLMs angemessenere Antworten zu liefern scheinen, vielleicht genau deshalb, weil sie nicht die Zuordnung von Äußerungen zu Absichten der vorherigen Generation verwenden. Ich bin mir nicht sicher, ob die Leute Chatbots ablehnen, die ein Pronomen verwenden. Ich glaube, sie lehnen Chatbots ab, die einen schlechten Service bieten. Möglicherweise müssen wir die Faktoren, die zur Akzeptanz führen, und die Faktoren, die zum Scheitern führen, systematischer analysieren.

Ben Shneiderman: Vielen Dank, dass Sie auf das Thema Pronomen zurückgekommen sind. Sie haben Recht, dass es kommerzielle Chatbots gibt, die mit „Ich“-Nutzung erfolgreich sind. Wie Sie jedoch betonen, sind viele Text-Chatbots für den Kundenservice gescheitert, weil sie einfach nicht hilfreich waren.

Ein weiteres Beispiel für Sie ist der Erfolg von Alexa und Siri, bei denen es sich um sprachbasierte Benutzeroberflächen (VUIs) handelt, die „I“-Pronomen verwenden. Mit VUIs haben kompakte Präsentationen und clevere Designs das „Ich“ akzeptabel gemacht, aber mit visuellen Benutzeroberflächen ändert sich die Rechnung.

Telefonbasierte Sprachantwortsysteme, die Benutzer durch einen Menübaum führen, scheinen jedoch in Beispielen, die ich mir angesehen habe, von der frühen Verwendung von „Ich“ zu „Sie“-Pronomen übergegangen zu sein, z. B. „Sie können 1 eingeben oder sagen, um die Öffnungszeiten zu hören.“ …“ (im Gegensatz zum umständlichen „Wenn Sie 1 eingeben oder sagen, gebe ich Ihnen die Öffnungszeiten …“).

Ein weiterer Kommentar ist, dass Sie schreiben: „Es gibt eine Geschichte von Leuten, die Chatbots ablehnen.“ Ich denke, unsere Diskussion wird konkreter, wenn wir verschiedene Benutzergemeinschaften unterscheiden. Die meisten Benutzer merken nicht, ob es sich bei der Schnittstelle um „Ich“ oder „Du“ handelt, aber einige Benutzer mögen die Täuschung durch „Ich“ überhaupt nicht, während andere das Gefühl der Selbstbestimmung, das sie durch ein „Du“-Design gewinnen, sehr mögen. Ich wünschte, ich wüsste den Prozentsatz in jeder Kategorie, insbesondere getrennt nach Geschlecht, Alter, Computererfahrung usw. Eine weitere interessante Frage ist, ob sich die Präferenz für Pronomen im Laufe der Jahre ändert.

Mein letzter Punkt betrifft die CASA-Theorie von Reeves und Nass (1996). Mir gefielen die Auseinandersetzungen mit Cliff Nass über diese Themen, auch wenn ich 1995 die Wette über die Zukunft von Microsoft BOB gewann, bei der er als Berater mitwirkte, aber ich rechnete damit, dass es scheitern würde – ich hatte nur nicht damit gerechnet, dass es dort so völlig scheitern würde Es gab keine Version 2, sie wurde einfach innerhalb eines Jahres vom Markt genommen. Während die Studien von Reeves & Nass zeigten, dass Benutzer sozial auf Computer reagieren würden, berücksichtigten sie nicht die Alternativhypothese, die besagte, dass Benutzer die Schnittstellen zur direkten Manipulation bevorzugen würden, die in den Apple- und Android-Stores weiterhin vorherrschend sind, sowie webbasierte Laptop-Designs.

Zusammenfassend lässt sich sagen, dass es zwar Situationen gibt, in denen Computer kommerziell erfolgreich sein können, indem sie vorgeben, eine Person zu sein, das vorherrschende Design bleibt jedoch der Touchscreen mobiler Geräte und die webbasierten Mausklicks, die den Benutzern die Kontrolle geben und das anthropomorphe Design vermeiden (ich würde sagen). fangen!). Ich denke, es gibt eine klare Alternative zum Anthropomorphismus. Das Problem geht über Pronomen hinaus.

Während wir diese Diskussion abschlossen, tauchten Online-Diskussionen auf, wie zum Beispiel dieser Blogbeitrag von Paola Bonomo (2023).

Zusammenfassung der Debatte

von Chenhao Tan und Justin D. Weisz

Als Herausgeber der Publikation „Human-Centered AI Medium“ sind wir dankbar, dass Michael und Ben ihre wertvollen Erkenntnisse zum Thema Anthropomorphismus geteilt haben. Insbesondere fanden wir, dass ihre Diskussion zu mehreren Kernthemen zum Nachdenken anregte und Klarheit schaffte. Hier sind drei wichtige Erkenntnisse aus dieser Debatte:

  • Sowohl Michael als auch Ben sind sich einig, dass die Wahl der Verwendung von „Ich“ (dh Anthropomorphismus) erhebliche Auswirkungen auf die Benutzer haben kann.
  • Ben vertritt eine klare Haltung zu einer binären Unterscheidung zwischen menschlicher und nichtmenschlicher Intelligenz und betont die Bedeutung von Verantwortung: Designer und Entwickler sollten Verantwortung für KI-gestützte Tools übernehmen.
  • Im Vergleich dazu vertritt Michael eine flexiblere Haltung gegenüber Intelligenz als Kontinuum, indem er zahlreiche Analogien zu Mensch-Tier-Beziehungen aufzeigt. Er argumentiert, dass es eine „trübe Region zwischen“ der menschlichen Intelligenz und der Intelligenz von Amöben gibt, die als Designraum interessant und wenig erforscht ist.

Teilen Sie Ihre Perspektive

Wie stehen Sie zum Thema Anthropomorphismus in KI-Systemen? Welches Argument hat Sie mehr überzeugt? Haben Sie eine andere Perspektive? Wir würden gerne Ihren Standpunkt hören! Bitte wenden Sie sich an Chenhao Tan , wenn Sie möchten, dass Ihr fundierter Kommentar in diese Diskussion einbezogen wird.

Hier finden Sie Kommentare, die von anderen Mitgliedern der Community geteilt wurden.

  • Pattie Maes (MIT Media Lab, USA) – 10. April 2023
  • Susan Brennan (Stony Brook University, USA) – 10. April 2023
  • Ron Wakkary (Simon Frasier University, Kanada) – 18. April 2023
  • Mary Lou Maher (University of North Carolina, Charlotte, USA) – 26. April 2023
  • Bender, EM, Gebru, T., McMillan-Major, A. & Mitchell, S. (2021, März). Über die Gefahren stochastischer Papageien: Können Sprachmodelle zu groß sein?. In Proceedings der ACM-Konferenz 2021 zu Fairness, Rechenschaftspflicht und Transparenz (S. 610–623).
  • Bergman, E. (Hrsg.). (2000). Informationsgeräte und darüber hinaus: Interaktionsdesign für Verbraucherprodukte . Morgan Kaufmann.
  • Bonomo, P., (25. März 2023). Eine ethische KI sagt niemals „Ich“.https://livepaola.substack.com/p/an-ethical-ai-never-says-i
  • Capek, K. (2004). RUR (Rossums Universalroboter) . Pinguin.
  • Capek, K., Weatherall, M. & Weatherall, R. (1996). Krieg mit den Molchen . Northwestern University Press.
  • Don, A., Brennan, S., Laurel, B. & Shneiderman, B. (1992, Juni). Anthropomorphismus: von ELIZA bis Terminator 2. In Proceedings of the SIGCHI Conference on Human Factors in Computing Systems (S. 67–70).
  • Elliott, C. & Brzezinski, J. (1998). Autonome Agenten als synthetische Charaktere. AI-Magazin , 19 (2), 13–13.
  • Fijn, N. (2011). Leben mit Herden: Mensch-Tier-Koexistenz in der Mongolei . Cambridge University Press.
  • Haraway, DJ (2003). Das Begleitarten-Manifest: Hunde, Menschen und bedeutende Andersartigkeit (Band 1, S. 3–17). Chicago: Prickly Paradigm Press..
  • Kaminski, J. & Nitzschner, M. (2013). Verstehen Hunde den Punkt? Eine Überprüfung der Kommunikationsfähigkeit zwischen Hund und Mensch. Lernen und Motivation , 44 (4), 294–302.
  • Lakoff, G. (1986). Eine Denkfigur. Metapher und Symbol , 1 (3), 215–225.
  • Lakoff, G. & Johnson, M. (2008). Metaphern, nach denen wir leben. University of Chicago Press.
  • Leckie, A. (2013). Die Imperial Radch Boxed Trilogy . Orbit.
  • Liang, Y. und Lee, SA (2017). Angst vor autonomen Robotern und künstlicher Intelligenz: Beweise aus nationalen repräsentativen Daten mit Wahrscheinlichkeitsstichprobe. International Journal of Social Robotics, 9(3): 379–84.
  • Müller, MJ (1995). Ethnokritische Heuristik für die HCI-Arbeit mit Benutzern und anderen Stakeholdern. In Proceedings of Computers in Context: Joining Forces in Design , S. 10–19 (Aarhus Dänemark, 1995).
  • Müller, M. (2004). Mehrere Paradigmen im Affective Computing. Interaktion mit Computern 16.4 (2004): 759–768.
  • Müller, MJ und Druin, A. (2012). Partizipatives Design: Der dritte Raum in der Mensch-Computer-Interaktion. In J. Jacko (Hrsg.), The Human-Computer Interaction Handbook (S. 1125–1153). CRC-Presse.
  • Mumford, L. (1936, 2010). Technik und Zivilisation . University of Chicago Press.
  • Natale. S. (2021). Betrügerische Medien: Künstliche Intelligenz und soziales Leben nach dem Turing-Test . Oxford University Press, USA.
  • Phillips, E., Schaefer, KE, Billings, DR, Jentsch, F. & Hancock, PA (2016). Mensch-Tier-Teams als Analogon für zukünftige Mensch-Roboter-Teams: Design beeinflussen und Vertrauen fördern. Journal of Human-Robot Interaction , 5 (1), 100–125.
  • Reeves, B. & Nass, C. (1996). Die Mediengleichung: Wie Menschen Computer, Fernsehen und neue Medien wie echte Menschen behandeln . Cambridge, Großbritannien.
  • Ross, SI, Martinez, F., Houde, S., Muller, M. & Weisz, JD (2023, März). Der Assistent des Programmierers: Konversationsinteraktion mit einem großen Sprachmodell für die Softwareentwicklung. In Proceedings of the 28th International Conference on Intelligent User Interfaces (S. 491–514).
  • Shneiderman, B., Plaisant, C., Cohen, MS, Jacobs, S., Elmqvist, N. und Diakopoulos, N. (2016). Gestaltung der Benutzeroberfläche: Strategien für eine effektive Mensch-Computer-Interaktion . Pearson.
  • Soma, T. (2013, April). Ethnoarchäologie der antiken Falknerei in Ostasien. In The Asian Conference on Cultural Studies 2013: Offizieller Konferenzbericht (S. 81–95).
  • Suhel, SF, Shukla, VK, Vyas, S. und Mishra, VP (2020, Juni). Konversation zur Automatisierung im Bankwesen durch Chatbot unter Verwendung der Sprache der künstlichen maschinellen Intelligenz. Im Jahr 2020 8. Internationale Konferenz über Zuverlässigkeit, Infocom-Technologien und Optimierung (Trends und zukünftige Richtungen) (ICRITO) (S. 611–618). IEEE.
  • Sprinkle, T. (2017). Robophobie: Überbrückung des unheimlichen Tals . Die Amerikanische Gesellschaft der Maschinenbauingenieure.
  • Strait, MK, Aguillon, C., Contreras, V. und Garcia, N. (2017). Die öffentliche Wahrnehmung menschenähnlicher Roboter: Online-Sozialkommentare spiegeln ein auf dem Aussehen basierendes Uncanny Valley, eine allgemeine Angst vor einer „Technologieübernahme“ und die unverhohlene Sexualisierung weiblicher Roboter wider. Proz. 26. IEEE International Symposium on Robot and Human Interactive Communication (RO-MAN). IEEE, 1418–23.
  • Weidinger, L., Uesato, J., Rauh, M., Griffin, C., Huang, PS, Mellor, J., … & Gabriel, I. (2022, Juni). Taxonomie der von Sprachmodellen ausgehenden Risiken. Im Jahr 2022 ACM-Konferenz zu Fairness, Rechenschaftspflicht und Transparenz (S. 214–229).