O antropomorfizmie AI

Apr 27 2023
Ben Shneiderman (University of Maryland, USA) i Michael Muller (IBM Research, USA) Wprowadzenie Antropomorfizm to akt rzutowania cech lub zachowań podobnych do ludzkich na byty niebędące ludźmi, na przykład kiedy ludzie dają zwierzęta, przedmioty lub zjawiska naturalne cechy lub emocje podobne do ludzkich. Od dawna toczą się debaty na temat wykorzystania projektów antropomorficznych w systemach opartych na sztucznej inteligencji, sięgające (co najmniej) do wczesnego panelu na konferencji ACM Computer-Human Interaction Conference zatytułowanej „Antropomorfizm: od ELIZA do Terminatora 2” (Don i in.

autorstwa Bena Shneidermana (University of Maryland, USA) i Michaela Mullera (IBM Research, USA)

Czy natura sztucznej inteligencji jest narzędziem, czy antropomorficznym agentem społecznym? źródło: DreamStudio.

Wstęp

Antropomorfizm to akt projekcji ludzkich cech lub zachowań na byty inne niż ludzkie, na przykład gdy ludzie nadają zwierzętom, przedmiotom lub zjawiskom naturalnym cechy lub emocje podobne do ludzkich. Od dawna toczą się debaty na temat wykorzystania projektów antropomorficznych w systemach opartych na sztucznej inteligencji, sięgające (co najmniej) do wczesnego panelu na konferencji ACM Computer-Human Interaction Conference zatytułowanej „Antropomorfizm: od ELIZA do Terminatora 2” (Don i in., 1992).

Kwestie projektowe związane z antropomorfizmem obejmują:

  1. na ekranie powinna być pokazana postać przypominająca człowieka,
  2. komputery powinny prezentować się jako podobni do ludzi aktorzy społeczni z tekstowymi lub głosowymi interfejsami użytkownika,
  3. podpowiedzi lub odpowiedzi komputerowe powinny używać zaimków pierwszej osoby, np. „Chętnie ci pomogę” i
  4. użytkownicy preferują alternatywne, bezpośrednie projekty manipulacyjne , które pozwalają im klikać, przeciągać, powiększać lub dotykać.

Michael i Ben kontynuowali wymianę notatek w marcu i kwietniu 2023 r., a Eds. Chenhao Tan, Justin Weisz i Werner Geyer zasugerowali upublicznienie ich argumentów. Ten artykuł przedstawia lekko zredagowaną wersję wymiany e-maili, podzieloną na cztery części:

  • Część I — O antropomorfizmie
  • Część II — Antropomorficzne systemy komputerowe
  • Część III — Inteligentny, nieinteligentny czy kontinuum?
  • Część IV — O używaniu „I”

Podczas wymiany do rozmowy włączono dodatkowe osoby, aby dodać komentarz i perspektywę. Będziemy publikować ich opinie w nadchodzących artykułach ( lista znajduje się poniżej ). Jeśli chcesz dodać swój głos do miksu, skontaktuj się z Chenhao Tan .

Debata

Część I — O antropomorfizmie

Ben Shneiderman : Szczególnie martwi mnie sposób, w jaki dane wyjściowe GPT-4 używają zaimków pierwszej osoby, sugerując, że jest to człowiek, na przykład: „Przepraszam, ale nie będę w stanie ci pomóc z tą prośbą”. Prosta alternatywa „GPT-4 został zaprojektowany przez OpenAI, aby nie odpowiadać na żądania takie jak ten” wyjaśniałaby odpowiedzialność i pozwalałaby uniknąć oszukańczego użycia zaimków w pierwszej osobie. W moim świecie maszyny nie są „ja” i nie powinny udawać ludzi.

Michael Muller : Po pierwsze, my, ludzie, od bardzo dawna odnosimy się do artefaktów i naturalnych bytów jako do istot podobnych do ludzi. Demetriusz z Phelerum pisał o prosopopei (personifikacji) przed 280 rokiem p.n.e. We wpisie w Wikipedii dotyczącym prozopopei podaje się przykład z Księgi Syracha, w którym „Mądrość wyśpiewuje swoją chwałę, / wśród swoich rozgłasza swoją chwałę”. Istnieje wiele opisów stworzonych istot, które przybierają formę świadomości lub sprawczości, od historycznego golema (nie tego Tolkiena, zwanego „gollumem”) po Mary Wollstonecraft Shelley i całą drogę powrotną do mitu o Pigmalionie i Galatei.

Myślę więc, że istnieje wiele precedensów, w których możemy odnosić się do stworzonych rzeczy jako posiadających cechy ludzkie. Reeves i Nass (1996) realizowali tę koncepcję jako program badawczy, w szczególności dotyczący komputerów jako aktorów społecznych. Zobacz także moją krytykę ich stanowiska w Interacting with Computers (Muller, 2004), w której dokonałem przeglądu dłuższej historii personifikacji.

Po drugie, właśnie badamy, co to znaczy, że algorytm jest nieokreślonym partnerem konwersacji. Zgadzam się, że LLM są papugami stochastycznymi, a zatem pozbawionymi „umysłu”. Niemniej jednak mają przekonującą obecność społeczną. Nie wiemy jeszcze, co możemy zrobić z tą społeczną obecnością. (Mówię „zrób” w pragmatycznym sensie „do czego możemy to wykorzystać”). Oprócz całego obecnego irytującego (a czasem niebezpiecznego) szumu wokół sztucznej inteligencji, pojawiają się tutaj pytania badawcze dotyczące tego, jakiego rodzaju byty budujemy i o jak będziemy się do nich odnosić. IMHO, jeszcze nie wiemy.

Podejrzewam, że będziemy musieli rozbić nasz binarny człowiek / nie-człowiek na wymiar lub na wiele wymiarów. W konwencjonalnym eurozachodnim sposobie myślenia już to robimy w naszym stosunku do zwierząt. Dla większości z nas skała to tylko skała (należy jednak pamiętać, że niektóre filozofie tubylcze i aborygeńskie podważają to stwierdzenie). Podobnie, niektóre zwierzęta — na przykład traszki — mają interesującą osobowość tylko w pracach Capka (Capek i in., 1996), ale nie w naszych interakcjach z nimi (pamiętam, że towarzysząca mu praca o złych związkach była o roboty (Capek, 2004)). Elizabeth Phillips i współpracownicy (2016) zbadali głębsze relacje, jakie mamy z niektórymi zwierzętami, przy czym psy są głównym przykładem obecności społecznej. Zobacz także koncepcje Haraway (2003) dotyczące gatunków towarzyszących, i intrygująco praca Fijna (2011) na temat relacji międzyludzkich z mongolskimi kucykami lasso. Dlatego należy rozważyć gradacje, a nie proste rozróżnienie między ludźmi a innymi zwierzętami.

Phillips i in. (2016) używali relacji człowiek-zwierzę do myślenia o relacjach człowiek-AI. Myślę, że podobnie jak w przypadku zwierząt, istnieją stopnie uspołecznienia lub stopnie obecności społecznej, które można zastosować do rzeczy obliczeniowych. Nie sądzę, że wiemy jeszcze wystarczająco dużo, aby wykluczyć te możliwości.

Jeśli zapytasz mnie o tematy w twoim poście dotyczące oszustwa i manipulacji, jestem tuż obok ciebie w kwestii ochrony ludzi i popieram surowe przepisy chroniące ludzi przed sztuczną inteligencją, która udaje człowieczeństwo, aby oszukać ludzi. Dla mnie jest to odrębny zestaw obaw od tego, jak badamy nowe technologie, nowo opublikowane technologie i nowo zreinterpretowane technologie (z których wszystkie można wykorzystać do rozważania możliwych przyszłości), o ile nasze eksploracje są uczciwe, w pełni- ujawnione i bez złośliwości.

Część II — Antropomorficzne systemy komputerowe

Ben Shneiderman: Tak, zgadzam się, że osobowość była używana w artefaktach Arystotelesa i nadal będzie używana. Nie sądzę, żebym mógł zabić ten pomysł z zombie.

Jednak pomysły zombie mogą mieć problematyczne skutki. Zwykły użytkownik artefaktów może tworzyć odniesienia do łodzi, samochodów lub Roombas przypominające ludzi, ale postrzegam to jako problem, gdy projektanci używają tego języka, co skutkuje kiepskimi produktami. Długa historia nieudanych systemów antropomorficznych sięga czasów jeszcze przed Microsoft BOB i Clippie, ale nadal powodowała awarie warte miliardy dolarów. Ostatnim poważnym, śmiertelnym błędem projektowym było naleganie Elona Muska, że ​​skoro ludzie używają tylko oczu, jego Tesle będą używać tylko wideo. Uniemożliwiając użycie radaru lub LIDAR-u, pomimo sprzeciwu swoich inżynierów, zaprojektował nieoptymalny system, który daje śmiertelne skutki.

Dla mnie metafory mają znaczenie (Lakoff & Johnson, 2006), więc projektanci powinni być wyczuleni na to, w jaki sposób ich przekonanie, że komputery powinny komunikować się w języku naturalnym, tak jak ludzie, prowadzi do niestosowania przez nich możliwości komputera, takich jak obfite w informacje wyświetlanie obrazów Informacja.

Dalsze wsparcie dla przejścia od antropomorfizmu do projektów, które dają użytkownikom większą kontrolę, pochodzi od socjologa Lewisa Mumforda. Duży wpływ wywarła na mnie jego klasyczna książka Technika i cywilizacja (1936) ,który oferuje jasną analizę w rozdziale „Przeszkoda animizmu”. Mumford opisuje, w jaki sposób wstępne projekty oparte na modelach ludzkich lub zwierzęcych stanowią przeszkodę, którą należy pokonać w opracowywaniu nowych technologii: „najbardziej nieefektywnym rodzajem maszyny jest realistyczna mechaniczna imitacja mężczyzny [/kobiety] lub innego zwierzęcia”. Mumford twierdzi, że charakterystyczne możliwości technologii, takie jak koła, silniki odrzutowe czy wyświetlacze komputerowe o wysokiej rozdzielczości, mogą zostać przeoczone, jeśli projektanci trzymają się koncepcji „inspirowanych biologią”, takich jak interfejsy konwersacyjne. Dlatego zrozumiałe jest, że frazowanie antropomorficzne będzie oferowane jako wstępny projekt systemów sztucznej inteligencji, ale wyjście poza ten etap umożliwi projektantom lepsze wykorzystanie wyrafinowanych algorytmów, ogromnych baz danych, nadludzkich czujników, obfitujących w informacje wyświetlaczy,

Michael Muller : Dla mnie podstawowe pytanie brzmi: „Jak ludzie mogą odnosić się do inteligencji innych niż ludzkie?” Antropomorfizm jest jedną z możliwych odpowiedzi, ale nie jedyną i nie jedynym istotnym tematem.

Ty i ja zgadzamy się, że słowa mają znaczenie i że metafory mają znaczenie. Dlatego tak bardzo zainteresowała mnie praca Phillipsa i in. (2016). Szukali użytecznych metafor (liczba mnoga) dla AI (liczba mnoga), patrząc na relacje ludzi ze zwierzętami. To prawda, w inny sposób, w większości prac Haraway (2003).

Jak napisałem wcześniej, moim językiem dla naszego wspólnego pytania jest: „Jak ludzie mogą odnosić się do inteligencji innych niż ludzkie?” Dla mnie jest to bliższe zasadniczej kwestii, a antropomorfizm jest pytaniem podrzędnym wśród wielu możliwych eksploracji dziwnych nie-ludzkich bytów. Antropomorfizm to metaforyczne podejście do nowych idei i nowych bytów. Moim zdaniem metafory stają się figurami myślowymi, dzięki którym możemy wyrazić część tej dziwności. (Zgodnie ze współczesną teorią retoryczną napisałem „figury myśli” (np. Lakoff, 1986; Lakoff & Johnson, 2008), a nie tylko „figury i mowa” i znów myślę, że się zgadzamy.) Chciałbym, żebyśmy zbadali metafory o LLM, aby pomóc nam pomyśleć o tym, „czym” one „są”, ale także o tym, czym mogą być lub mogą się stać.

Ujmując to w ten sposób, mam nadzieję, że nasze użycie (ludzkiego) języka pomoże nam otworzyć przestrzeń konceptualną dotyczącą natury rzeczy obliczeniowych, które tworzymy iz którymi wchodzimy w interakcje. Myślę, że przydatna będzie metafora, podobnie jak szersza kategoria analogii. Te rzeczy są teraz BARDZO warstwowe. Na przykład, podczas gdy wszyscy mówią o LLM i FM, niektórzy z nas (w tym Ty i ja) intensywnie myślimy o interfejsach użytkownika dla tych LLM.

Warstwa LLM to prawdopodobnie „my” — w końcu zawiera materiały zebrane bez zgody setek tysięcy ludzi. A może powinienem powiedzieć „przechwycone materiały”. Lub „skradzione głosy”.

Warstwa interfejsu użytkownika może być „ja”, ponieważ jest to styl interakcji, który wydaje się działać dla nas, ludzi. Myślę, że wolałbyś, aby warstwa interfejsu użytkownika była „tym” — a może odnosiła się do siebie w trzeciej osobie, jak ranny pomocnik (żołnierz-cyborg) w książkach Ann Leckie Imperial Radch (Leckie, 2013), który próbuje odwieść od podjęcia próby ratunku, mówiąc: „Kapitan floty… z całym szacunkiem, ta rana jest zbyt poważna, aby warto ją było naprawić”.

Charakterystyczne jest to, że bardziej interesuje mnie otwieranie możliwości niż zapobieganie niepowodzeniom. Tak, Clippy i BOB były porażkami, ale to nie znaczy, że wszystkie personifikacje będą porażkami. Nasze eksperymenty ze spersonalizowanym interfejsem użytkownika LLM zakończyły się dużym sukcesem. Nikt, kto używa naszego prototypu Asystenta Programisty (Ross et al. 2023), nie jest zdezorientowany co do jego statusu ontologicznego. Nikt nie myli go z niczym innym niż inteligentnym tosterem, ale okazuje się, że jest to inteligentny toster pomocny w transformacji. (Nie „transformacyjnie inteligentna”, tylko „transformacyjnie pomocna”). Teraz mamy Clippie i BOB jako przykłady niepowodzeń, ale mamy też naszego Asystenta Programisty jako przykład sukcesu (i być może niektóre starsze programy Nassa i Reevesa). eksperymenty też). Antropomorfizm niekoniecznie prowadzi do problemów.

IMHO, interfejsy użytkownika do LLM to naprawdę nowa przestrzeń projektowa. Nie wiemy jeszcze, jakie są kluczowe czynniki tej przestrzeni. Podejrzewam, że te czynniki będą na siebie oddziaływać. Na przykład, kiedy antropomorfizm jest korzystny, a kiedy szkodliwy? (tj. jakie inne czynniki wchodzą w interakcję z personifikacją?) Kiedy piszemy komunikaty HCXAI (i komunikaty dorozumiane), które atrybuty będą ważne, kiedy i dla kogo? Zobacz np. artykuł Upola Ehsana i Samira Passiego na temat XAI z dwiema grupami użytkowników i trzema gatunkami wiadomości (Ehsan i in., 2021). A jakie „narzędzia myślenia” (np. figury myślowe) mogą nam pomóc w eksploracji tej nowej przestrzeni projektowej?

Część III — Inteligentny, nieinteligentny czy kontinuum?

Ben Shneiderman: Michael sugeruje, że naszym wspólnym pytaniem jest: „Jak ludzie mogą odnosić się do nie-ludzkich inteligencji?” Ale nie zgadzam się, że maszyny powinny być opisywane jako inteligentne. Niektóre słowa, takie jak myśleć, wiedzieć, rozumieć, inteligencja, wiedza, mądrość itp., rezerwuję dla ludzi i znajduję inne słowa opisujące to, co robią maszyny. Robiłem to we wszystkich sześciu edycjach Designing the User Interface (2016) i myślę, że była to ważna decyzja produkcyjna.

Pomocne byłoby przeczytanie książki Simone Natale (2021). Mówi, że roboty antropomorficzne i humanoidalne są przekonującym pomysłem, ale historycznie prowadziły do ​​nieudanych produktów. Opisuje „banalne oszustwo” wielu aplikacji i „zwykłe celowe oszustwo”, które są „tak samo kluczowe dla funkcjonowania sztucznej inteligencji, jak obwody, oprogramowanie i dane, które sprawiają, że działa”. Natale ma wspaniałe spostrzeżenia na temat skłonności ludzi do bycia oszukiwanymi.

Szanuję Michaela i jego wieloletnie zaangażowanie w projektowanie partycypacyjne i cenię go jako kolegę, więc naprawdę mam nadzieję, że uda mi się odciągnąć Michaela od problematycznej wiary w nieludzką inteligencję.

Pamiętaj, że około jedna czwarta populacji boi się komputerów, zwłaszcza gdy projekt sugeruje, że komputery są jak ludzie (Liang i Lee, 2017; Sprinkle, 2017; Strait i in., 2017). Inni sugerowali również, że „systemy antropomorficzne mogą prowadzić do nadmiernego polegania lub niebezpiecznego użytkowania” (Weidinger i in., 2022).

Podnosząc maszyny do poziomu ludzkich możliwości, zmniejszamy wyjątkowość ludzi. Jestem chętny do zachowania rozróżnienia i wyjaśnienia odpowiedzialności. Nie uważam więc, że maszyny powinny używać zaimków w pierwszej osobie, ale powinny opisywać, kto jest odpowiedzialny za system lub po prostu reagować w sposób przypominający maszynę. Czasami potrzeba trochę wyobraźni, aby uzyskać właściwe sformułowanie, ale najlepiej jest, gdy jest ono bardziej zwięzłe.

We wczesnych latach maszyn bankowych gra towarzyska była wielokrotnie wypróbowywana z „Tillie the Teller”, „Harvey Wallbanker” itp., Które były gadatliwe, np. „Dzień dobry. Co mogę dziś dla ciebie zrobić?” ale te zawiodły, ustępując miejsca „Czy chcesz wpłacić czy wypłacić?” lub nawet bardziej zwięźle, po prostu dając przyciski do dotknięcia, aby uzyskać to, czego chcieli klienci. Użytkownicy przestawili się na projekty, które umożliwiały im jak najszybsze wykonywanie zadań, dając im jednocześnie poczucie, że obsługują maszynę.

Problem NIE polega na tym, czy ludzie mogą odnosić się do zwodniczej maszyny społecznej — oczywiście, że mogą. Pytanie brzmi: „Czy uznajemy, że ludzie i maszyny to różne kategorie?” lub „Czy będziemy szanować ludzką godność, projektując wydajne maszyny, które zwiększą ludzką skuteczność i odpowiedzialność?” Ponad 2 miliony aplikacji w sklepie Apple Store opiera się głównie na bezpośredniej manipulacji. Główne aplikacje, takie jak zakupy na Amazon, wyszukiwarka Google, nawigacja itp., unikają projektów przypominających ludzi, ponieważ zrozumiały, że są one nieoptymalne i niepopularne. Czy Michael może wskazać 3 powszechnie używane aplikacje, które mają interfejs podobny do ludzkiego?

Michael Muller: Część mojego stanowiska opiera się na relacjach człowiek-zwierzę. U psa występuje pewien rodzaj inteligencji, a zwłaszcza u dobrze wyszkolonego psa, takiego jak pies przewodnik lub owczarek (Phillips i in., 2016) lub kuc z kijem lasso (Fjin, 2011). Istnieje inny, znacznie chłodniejszy rodzaj inteligencji u sokoła (Soma, 2013). I jeszcze jeden rodzaj inteligencji wołu (Phillips i in., 2016). Mamy relacje z tymi zwierzętami.

Myślę, że owczarki i psy myśliwskie to ciekawe przypadki. My (ludzie, nie Michael) wysyłamy ich, żeby coś robili (Kamiński i Nitzschner, 2013). Koordynujemy z nimi nasze działania — czasem na odległość. Koordynują z nami swoje działania.

Są też ameby i pantofelki, które potrafią wyczuwać i reagować, ale nie mają zbyt wiele tego, co moglibyśmy nazwać mózgiem, a jeszcze mniej umysłem.

Ale psy to przypadek pośredni. Mają obecność społeczną. Mają coś w rodzaju umysłu. Mają swoje własne cele, a czasami ich cele i nasze cele mogą być zbieżne, a czasami nie. Czasami możemy zmienić ich zdanie. Czasami mogą zmienić nasze zdanie. Myślę, że to sprawia, że ​​wydają się nie-ludzkimi inteligencjami.

Biorąc to pod uwagę, nie uważam, aby LLM (a dokładniej interfejsy użytkownika do LLM) miały cele, intencje, a na pewno nie umysły. Interfejsy użytkownika, które zbudowaliśmy, są obecne w mediach społecznościowych. Możemy je zaprojektować tak, aby wydawały się mieć odrębne osobowości — chociaż wiemy, że inteligentne tostery nie mają osobowości. Papugi mają coś w rodzaju osobowości, ale nie papugi stochastyczne (Bender i in., 2021). Ale stochastyczne papugi mogą mieć pewien rodzaj obecności społecznej. To czyni je dziwnymi i nowymi, ponieważ mieszają cechy tosterów i istot społecznych. Ludzie pisali o „niesamowitej dolinie”. Kiedy powiedziałem „dziwne”, mogłem powiedzieć „niesamowite”. Myślę, że są pożytecznie, produktywnie dziwne. Pomagają nam myśleć o nowych, eksperymentalnych myślach.

Nadal myślę o inteligencji jako o kontinuum, a nie binarnym. Moglibyśmy zakotwiczyć to kontinuum z amebami na jednym końcu i ludźmi na drugim końcu. Interesuje mnie mroczny region pomiędzy. To dlatego, że myślę o tym jako o regionie hybrydyczności lub „trzeciej przestrzeni”. Dziwna przestrzeń. W mojej pracy z Aarhus z 1995 roku (Muller, 1995) i ponownie w rozdziale Handbook wraz z Allison Druin (Muller i Druin, 2012) stwierdziliśmy, że te przestrzenie mieszania się kultur są żyznymi miejscami dla nowego zrozumienia i odmiennej wiedzy, dokładnie bo są dziwne. Myślę, że relacje człowiek-AI mogą być również hybrydowymi przestrzeniami nowości.

Jeśli twierdzisz, że ani zwierzęta, ani algorytmy nie mają specyficznie ludzkiej inteligencji, to jestem z tobą. Jak dotąd my, ludzie, wciąż jesteśmy trochę wyjątkowi — chociaż ostatnie prace etologiczne sugerują, że nie jesteśmy tak wyjątkowi, jak kiedyś myśleliśmy.

Dla mnie to nie jest kwestia metafory. To kwestia możliwości i mętnych, ale interesujących pośrednich.

Zgadzam się, że odrzucasz pojęcie inteligencji innych niż ludzkie. Myślę, że na tym może skupiać się nasza „debata”. Nie musimy się zgadzać. Musimy jednak uzgodnić tytuł. Jeśli nie chcesz tytułu o inteligencji innej niż ludzka, może moglibyśmy spróbować mniej szczegółowego tytułu, takiego jak „Związki ludzi i sztucznej inteligencji”?

Ben Shneiderman : Dziękuję za dalszą odpowiedź i omówienie zwierząt jako przypadku pośredniego. Dla mnie kwestią wyróżniającą jest odpowiedzialność, dlatego ważne jest, aby pamiętać, że właściciele zwierząt domowych są prawnie i moralnie odpowiedzialni za to, co robią ich zwierzęta.

Dyskusja staje się bardziej złożona, jeśli weźmiemy pod uwagę ludzi, którzy nie są w pełni odpowiedzialni za swoje czyny, na przykład tych, którzy zażyli alkohol lub narkotyki, które wpływają na ich inteligencję, pamięć, zdolności percepcyjne, poznawcze i motoryczne.

Można więc powiedzieć, że inteligencja to kontinuum, ale odpowiedzialność jest bardziej binarna i jest ważnym czynnikiem w projektowaniu. Myślę, że dyskusja nie może ograniczać się do inteligencji, ale musi obejmować pamięć, zdolności percepcyjne, poznawcze i motoryczne.

Interesuje mnie podkreślanie projektu, który wyjaśnia, że ​​narzędzia AI są projektowane przez ludzi i organizacje, które są prawnie odpowiedzialne za to, co robią i za to, co robią narzędzia, chociaż narzędzia mogą być niewłaściwie używane itp.

Nasza debata jest ciekawa, ale dzieli nas już sam wybór tytułu. Sugerujesz „Związki ludzi i AI”? Przypuszczam, że rozsądne jest omawianie „Związków między ludźmi a samochodami/łodziami/buldożerami/żarówkami”, ale słowo „relacje” sugeruje coś w rodzaju relacji rówieśniczych, przyznających AI zbyt wiele. Byłbym bardziej zadowolony z „Projektowania przyszłych systemów sztucznej inteligencji, aby służyły ludzkim potrzebom”. Dla mnie ludzkie potrzeby obejmują ochronę środowiska i różnorodności biologicznej oraz Cele Zrównoważonego Rozwoju ONZ .

Część IV — O używaniu „I”

Michael Muller: Zapomniałem odpowiedzieć na temat komercyjnych chatbotów, które odpowiadają w pierwszej osobie liczby pojedynczej. Oczywiście istnieje wiele przykładów z obecnych LLM. Niezależnie od tego, czy usługi te są dziś opłacalne ekonomicznie, firmy, które je wytwarzają, stawiają na ich komercyjną i konkurencyjną rentowność : Bard, Bing, HuggingFace Open Assistant i tak dalej.

Są to jednak interfejsy użytkownika, którym sprzeciwiasz się. Oto przykłady sprzed kilku lat. Suhel i in. (2020) opisują chatboty bankowe, które używają pierwszoosobowej liczby pojedynczej. Mój bank ma podobną funkcję. IGT Solutions oferuje chatbota do rezerwacji linii lotniczych i często zadawanych pytań. SABA Hospitality ma podobną ofertę w zakresie rezerwacji hoteli i usług dla gości. Są to oferty komercyjne, które wykorzystują pojedyncze chatboty z perspektywy pierwszej osoby.

Badacze używali tego rodzaju paradygmatu (tj. sztucznej inteligencji odnoszącej się do siebie jako „ja” lub „mnie”) w pracy związanej z programem badawczym Nassa i Reeve'a „Komputery są aktorami społecznymi” (np. Reeves i Nass, 1996). Przykład mogę znaleźć już w 1998 roku (Elliott i Brzezinski, 1998) i podejrzewam, że niektóre artykuły z poprzedniej dekady również zawierały tego rodzaju dialogi. Myślę, że bardziej sprzeciwicie się opisowi Strommena dotyczącego zabawek dziecięcych odnoszących się do siebie jako „ja” (Bergman (red.), 2000).

Zgadzam się, że istnieje historia ludzi odrzucających chatboty. Z naszego doświadczenia wynika, że ​​problem z akceptacją polega na złym dopasowaniu żądania użytkownika do zestawu intencji chatbota (tj. odwzorowaniu żądania na odpowiedź). Widzieliśmy, że obecne LLM wydają się zapewniać bardziej odpowiednie odpowiedzi, być może właśnie dlatego, że nie używają mapowania wypowiedzi na intencje poprzedniej generacji. Nie jestem pewien, czy ludzie odrzucają chatboty, które używają zaimka. Myślę, że odrzucają chatboty, które zapewniają słabą obsługę. Być może będziemy musieli przeprowadzić bardziej systematyczne analizy czynników, które prowadzą do akceptacji i czynników, które prowadzą do porażki.

Ben Shneiderman: Dziękuję za powrót do kwestii zaimków. Masz rację, że istnieją komercyjne chatboty, które odniosły sukces z użyciem „ja”. Jednak, jak zauważyłeś, wiele tekstowych chatbotów obsługi klienta zawiodło, ponieważ po prostu nie były tak pomocne.

Kolejnym przykładem przemawiającym na twoją korzyść jest sukces Alexy i Siri, które są głosowymi interfejsami użytkownika (VUI) wykorzystującymi zaimki „ja”. Dzięki VUI kompaktowe prezentacje i sprytne projekty sprawiły, że „ja” jest akceptowalne, ale rachunek różni się wraz z wizualnymi interfejsami użytkownika.

Wydaje się jednak, że telefoniczne systemy odpowiedzi głosowych, które prowadzą użytkowników przez drzewo menu, w przykładach, które widziałem, przeszły od wczesnego używania zaimków „ja” do „ty”, np. „Możesz wpisać lub powiedzieć 1, aby usłyszeć godziny otwarcia …” (w przeciwieństwie do niezręcznego „Jak napiszesz lub powiesz 1, podam Ci godziny otwarcia…”).

Kolejnym komentarzem jest to, że piszesz „istnieje historia ludzi odrzucających chatboty”. Myślę, że nasza dyskusja będzie bardziej konkretna, jeśli rozróżnimy różne społeczności użytkowników. Większość użytkowników nie zauważa, czy interfejs to „ja”, czy „ty”, ale niektórzy użytkownicy zdecydowanie nie lubią oszukiwania „ja”, podczas gdy niektórzy użytkownicy bardzo lubią poczucie wzmocnienia, jakie zyskują dzięki projektowi „ty”. Chciałbym znać odsetek w każdej kategorii, szczególnie w podziale na płeć, wiek, doświadczenie komputerowe itp. Innym interesującym pytaniem jest to, czy preferencje dotyczące zaimków zmieniają się na przestrzeni lat.

Moja ostatnia uwaga dotyczy teorii CASA Reevesa i Nassa (1996). Podobały mi się moje kłótnie z Cliffem Nassem na te tematy, chociaż wygrałem zakład z 1995 roku o przyszłość Microsoft BOB, w sprawie którego on się konsultował, ale spodziewałem się porażki — po prostu nie spodziewałem się, że to się nie powiedzie tak całkowicie, że nie było wersji 2, po prostu została usunięta z rynku w ciągu roku. Podczas gdy badania Reeves & Nass wykazały, że użytkownicy reagowaliby na komputery społecznie, nie wzięli pod uwagę alternatywnej hipotezy, zgodnie z którą użytkownicy woleliby interfejsy bezpośredniej manipulacji, które nadal dominują w sklepach Apple i Android Store oraz projekty laptopów opartych na sieci.

Podsumowując, chociaż istnieją sytuacje, w których komputery mogą odnieść komercyjny sukces, udając osobę, dominującym projektem pozostaje ekran dotykowy urządzenia mobilnego i oparte na sieci kliknięcia myszą, które zapewniają użytkownikom kontrolę i unikają antropomorficznego projektu (powiedziałbym, że pułapka!). Myślę, że istnieje wyraźna alternatywa dla antropomorfizmu. Problem jest większy niż zaimki.

Kiedy kończyliśmy tę dyskusję, pojawiły się dyskusje online, takie jak ten post na blogu Paoli Bonomo (2023).

Podsumowanie debaty

autorstwa Chenhao Tan i Justina D. Weisza

Jako redaktorzy publikacji Human-Centered AI Medium jesteśmy wdzięczni, że Michael i Ben podzielili się swoimi cennymi spostrzeżeniami na temat antropomorfizmu. W szczególności uznaliśmy, że ich dyskusja dała do myślenia i wyjaśniła kilka podstawowych kwestii. Oto trzy główne wnioski z tej debaty:

  • Zarówno Michael, jak i Ben zgadzają się, że wybór użycia „ja” (tj. antropomorfizmu) może mieć znaczący wpływ na użytkowników.
  • Ben zajmuje jasne stanowisko w sprawie binarnego rozróżnienia między inteligencją ludzką i nie-ludzką i podkreśla znaczenie odpowiedzialności: projektanci i programiści powinni wziąć odpowiedzialność za narzędzia wykorzystujące sztuczną inteligencję.
  • Michael, dla porównania, przyjmuje bardziej płynne podejście do inteligencji jako kontinuum, przedstawiając liczne analogie do relacji człowiek-zwierzę. Twierdzi, że istnieje „mętny obszar pomiędzy” ludzką inteligencją a inteligencją wykazywaną przez ameby, która jest interesująca i niedostatecznie zbadana jako przestrzeń projektowa.

Podziel się swoją perspektywą

Jakie jest Twoje stanowisko w sprawie antropomorfizmu w systemach sztucznej inteligencji? Czyj argument bardziej Cię przekonał? Czy masz inną perspektywę? Chcielibyśmy poznać Twój punkt widzenia! Skontaktuj się z Chenhao Tan, jeśli chcesz, aby Twój dobrze poinformowany komentarz został uwzględniony w tej dyskusji.

Oto komentarze udostępnione przez innych członków społeczności.

  • Pattie Maes (MIT Media Lab, USA) — 10 kwietnia 2023 r
  • Susan Brennan (Uniwersytet Stony Brook, USA) — 10 kwietnia 2023 r
  • Ron Wakkary (Simon Frasier University, Kanada) — 18 kwietnia 2023 r
  • Mary Lou Maher (University of North Carolina, Charlotte, USA) — 26 kwietnia 2023 r
  • Bender, EM, Gebru, T., McMillan-Major, A. i Mitchell, S. (2021, marzec). O niebezpieczeństwach stochastycznych papug: czy modele językowe mogą być zbyt duże? W materiałach z konferencji ACM 2021 na temat uczciwości, odpowiedzialności i przejrzystości (s. 610–623).
  • Bergman, E. (red.). (2000). Urządzenia informacyjne i nie tylko: projektowanie interakcji dla produktów konsumenckich . Morgana Kaufmanna.
  • Bonomo, P. (25 marca 2023). Etyczna sztuczna inteligencja nigdy nie mówi „ja”.https://livepaola.substack.com/p/an-ethical-ai-never-says-i
  • Capek, K. (2004). RUR (uniwersalne roboty Rossuma) . Pingwin.
  • Capek, K., Weatherall, M. i Weatherall, R. (1996). Wojna z Płazami . Wydawnictwo Uniwersytetu Północno-Zachodniego.
  • Don, A., Brennan, S., Laurel, B. i Shneiderman, B. (1992, czerwiec). Antropomorfizm: od ELIZA do Terminatora 2. W materiałach konferencji SIGCHI na temat czynników ludzkich w systemach komputerowych (s. 67–70).
  • Elliott, C. i Brzeziński, J. (1998). Autonomiczni agenci jako postacie syntetyczne. Magazyn AI , 19 (2), 13–13.
  • Fijn, N. (2011). Życie ze stadami: współistnienie ludzi i zwierząt w Mongolii . Wydawnictwo Uniwersytetu Cambridge.
  • Haraway, DJ (2003). Manifest gatunków towarzyszących: Psy, ludzie i znacząca odmienność (t. 1, s. 3–17). Chicago: Prickly Paradigm Press ..
  • Kamiński, J. i Nitzschner, M. (2013). Czy psy rozumieją, o co chodzi? Przegląd zdolności komunikacyjnych psa z człowiekiem. Uczenie się i motywacja , 44 (4), 294–302.
  • Lakoff, G. (1986). Figura myśli. Metafora i symbol , 1 (3), 215–225.
  • Lakoff, G. i Johnson, M. (2008). Metafory, którymi żyjemy. Wydawnictwo Uniwersytetu Chicagowskiego.
  • Leckie, A. (2013). Pudełkowa trylogia Imperial Radch . Orbita.
  • Liang, Y. i Lee, SA (2017). Strach przed autonomicznymi robotami i sztuczną inteligencją: dowody z danych przedstawicieli krajowych z próbkowaniem prawdopodobieństwa. International Journal of Social Robotics, 9 (3): 379–84.
  • Muller, MJ (1995). Heurystyka etnokrytyczna w pracy HCI z użytkownikami i innymi interesariuszami. W Proceedings of Computers in Context: Łączenie sił w projektowaniu , s. 10–19 (Aarhus Dania, 1995).
  • Muller, M. (2004). Wiele paradygmatów w przetwarzaniu afektywnym. Interakcja z komputerami 16.4 (2004): 759–768.
  • Muller, MJ i Druin, A. (2012). Projekt partycypacyjny: trzecia przestrzeń w interakcji człowiek-komputer. W J. Jacko (red.), Podręcznik interakcji człowiek-komputer (s. 1125–1153). Prasa CRC.
  • Mumford, L. (1936, 2010). Technika i cywilizacja . Wydawnictwo Uniwersytetu Chicagowskiego.
  • Natale. S. (2021). Kłamliwe media: Sztuczna inteligencja a życie społeczne po teście Turinga . Oxford University Press, Stany Zjednoczone.
  • Phillips, E., Schaefer, KE, Billings, DR, Jentsch, F. i Hancock, PA (2016). Zespoły człowiek-zwierzę jako odpowiednik przyszłych zespołów człowiek-robot: wpływanie na projektowanie i budowanie zaufania. Journal of Human-Robot Interaction , 5 (1), 100–125.
  • Reeves, B. i Nass, C. (1996). Równanie mediów: jak ludzie traktują komputery, telewizję i nowe media jak prawdziwi ludzie . Cambridge, Wielka Brytania.
  • Ross, SI, Martinez, F., Houde, S., Muller, M. i Weisz, JD (2023, marzec). Asystent programisty: konwersacyjna interakcja z dużym modelem językowym do tworzenia oprogramowania. W Proceedings of the 28th International Conference on Intelligent User Interfaces (s. 491–514).
  • Shneiderman, B., Plaisant, C., Cohen, MS, Jacobs, S., Elmqvist, N. i Diakopoulos, N. (2016). Projektowanie interfejsu użytkownika: strategie efektywnej interakcji człowiek-komputer . Osoba.
  • Soma, T. (2013, kwiecień). Etnoarcheologia starożytnego sokolnictwa w Azji Wschodniej. W The Asian Conference on Cultural Studies 2013: Oficjalne materiały konferencyjne (s. 81–95).
  • Suhel, SF, Shukla, VK, Vyas, S. i Mishra, VP (2020, czerwiec). Rozmowa o automatyzacji w bankowości przez chatbota z wykorzystaniem języka sztucznej inteligencji maszynowej. W 2020 8th International Conference on Reliability, Infocom Technologies and Optimization (Trends and Future Directions) (ICRITO) (s. 611–618). IEEE.
  • Posypać, T. (2017). Robofobia: pokonywanie doliny niesamowitości . Amerykańskie Towarzystwo Inżynierów Mechaników.
  • Cieśnina, MK, Aguillon, C., Contreras, V. i Garcia, N. (2017). Publiczne postrzeganie robotów podobnych do ludzi: internetowy komentarz społecznościowy odzwierciedla dolinę niesamowitości opartą na wyglądzie, ogólny strach przed „przejęciem technologii” oraz bezwstydną seksualizację robotów płci żeńskiej. proc. 26. Międzynarodowe Sympozjum IEEE na temat interaktywnej komunikacji robotów i ludzi (RO-MAN). IEEE, 1418–23.
  • Weidinger, L., Uesato, J., Rauh, M., Griffin, C., Huang, PS, Mellor, J., … & Gabriel, I. (2022, czerwiec). Taksonomia zagrożeń stwarzanych przez modele językowe. W 2022 r. Konferencja ACM na temat uczciwości, odpowiedzialności i przejrzystości (s. 214–229).