O antropomorfizmie AI: komentarz Pattie Maes

May 05 2023
autor: Pattie Maes (MIT Media Lab, USA) Nota wydawcy: Ten artykuł jest komentarzem do „On AI Anthropomorphism”, napisanym przez Bena Shneidermana (University of Maryland, USA) i Michaela Mullera (IBM Research, USA). Odtworzyliśmy komentarz w jego oryginalnej formie, wysłany jako e-mail do Bena Shneidermana, a na końcu dodaliśmy sekcję z odniesieniami.

autorstwa Pattie Maes (MIT Media Lab, USA)

Uwaga wydawcy: Ten artykuł jest komentarzem do artykułu „ On AI Anthropomorphism ”, napisanym przez Bena Shneidermana (University of Maryland, USA) i Michaela Mullera (IBM Research, USA). Odtworzyliśmy komentarz w jego oryginalnej formie, wysłany jako e-mail do Bena Shneidermana, a na końcu dodaliśmy sekcję z odniesieniami.

Zgadzam się z Benem, że musimy podchodzić bardzo konserwatywnie do antropomorfizmu systemów i, dla przypomnienia, jeśli spojrzeć na nasze debaty historyczne, zawsze zajmowałem takie stanowisko! Wierzę w potencjał inteligentnych systemów, które pomagają użytkownikom, podpowiadając, rekomendując, a w niektórych przypadkach nawet wykonując zadania w ich imieniu. Nie oznacza to jednak, że systemy te muszą być personifikowane i uważam, że w większości przypadków lepiej tego nie robić, aby nie wprowadzać użytkowników w błąd. Jako przykład inteligentnych systemów, które odnoszą duże sukcesy, systemy rekomendacji wykorzystują sztuczną inteligencję do wspierania użytkowników, ale zazwyczaj nie są personifikowane.

Uważam, że domyślnie powinniśmy błądzić po stronie NIE personifikacji, ponieważ to tylko pogarsza naturalną skłonność użytkowników do postrzegania systemów komputerowych jako inteligentnych w taki sam sposób jak ludzie, nawet jeśli nie są. Uważam, że podejście zastosowane na przykład przez Bing Chat i kilka innych systemów czatu w celu podkreślenia personifikacji poprzez używanie przez system sztucznej inteligencji zaimków ja/ja, odwoływanie się do własnych pragnień i uczuć oraz używanie afektywnych emotikonów jest całkowicie błędne. Nie kupuję argumentu Mullera, który zasadniczo sprowadza się do tego, że „ludzie w naturalny sposób uosabiają systemy komputerowe, zwierzęta itp., więc dobrze jest się w to bawić”. Nie kupuję również jego drugiego argumentu, że jest to uzasadnione, ponieważ potrzebujemy metafory, której możemy użyć, aby pomóc ludziom odnosić się do systemów AI, a jest to jedyna odpowiednia metafora. Jak Ben wspomniał,

Powody, dla których naciskam na bardziej konserwatywne podejście do personifikacji, są takie, że przede wszystkim martwię się o ludzi, którzy opracowują niewłaściwe modele tych systemów sztucznej inteligencji, przypisując im głębokie zrozumienie, osąd, intencje i cele oraz inne wyjątkowo ludzkie aspekty, których tak naprawdę nie mają posiadać i interpretować odpowiedzi AI na podstawie tych przekonań. Po drugie, jestem bardzo zaniepokojony emocjonalnymi skutkami, jakie personifikowani agenci czatu wywierają na użytkowników, ponieważ użytkownicy naturalnie zaczynają rozwijać uczucia do inteligentnych systemów, zwłaszcza gdy maksymalizuje się antropomorfizm. Weźmy na przykład niedawną wrzawę, kiedy firma Replika AI zmieniła zachowanie swoich systemów czatu, a ludzie zgłaszali depresję, oburzenie itp., Ponieważ czuli, że ich przyjaciel (AI) nagle zachowuje się wobec nich mniej romantycznie.

Nie twierdzę, że powinniśmy zakazać wszelkiej personifikacji systemów sztucznej inteligencji. Zamiast tego uważam, że musimy głębiej zrozumieć jego wpływ na ludzi i dokładniej przemyśleć przypadki użycia, w których może to być uzasadnione i pozytywnie wpłynąć na pożądane wyniki. Na przykład, gdy agenci są wykorzystywani do pomocy ludziom w rozwijaniu umiejętności osobistych, np. umiejętności konwersacyjnych, takich jak przyjmowanie kolejki, empatia, mimika, spojrzenie itp., może to być uzasadnione. Coraz częściej, czy nam się to podoba, czy nie, ludzie rozmawiają z agentami w celu nawiązania przyjaźni i towarzystwa lub po prostu w celu uwolnienia swoich uczuć i frustracji, w sposób podobny do pamiętnika. Moja koleżanka prof. Cynthia Breazeal pokazała w ankiecie, że wiele osób woli rozmawiać z systemem AI o bardzo osobistych sprawach niż z człowiekiem, ponieważ system AI ich nie ocenia, jednocześnie dając im ludzki komfort. Dyskusje na temat pierwszego w historii, niezwykle prostego chatbota „Elizy”, wprowadzonego w 1966 roku, odnotowały podobne odczucia użytkowników: czasem rozmowa z AI na temat osobistych problemów i spraw może przynieść ulgę i wgląd.

Zgadzam się z Michaelem, że musimy głębiej zbadać skutki personifikacji. Jedną rzeczą jest mieć mądrego starszego, takiego jak Ben, który mówi ludziom, że istnieją lepsze możliwości projektowe, lub gdy 2 lub 3 z nas debatuje nad tymi kwestiami, ale jeszcze lepiej, jeśli możemy pokazać poprzez ilościowe i jakościowe badania użytkowników, jakie są rzeczywiste efekty są. Na przykład właśnie opublikowaliśmy artykuł na FIE 2022 pokazujący, że personifikacja przez ludzi, z którymi dana osoba się odnosi, ma wpływ na wyniki w kontekście systemów nauczania (Pataranutaporn i in. 2022).

Przedstawiliśmy również rozszerzone streszczenie na Międzynarodowej Konferencji na temat Obliczeniowych Nauk Społecznych (IC2S2) 2022 (Danry i in., 2022), które pokazuje, że ludzie zbyt chętnie akceptują rady AI, zwłaszcza gdy sztuczna inteligencja daje wiarygodne wyjaśnienie, w wyniku czego ludzie zmniejszają ich własnej dokładności odróżniania prawdziwych od fałszywych stwierdzeń, gdy wspomagana jest przez złośliwą sztuczną inteligencję, która daje im fałszywe, ale wiarygodne wyjaśnienia (wprowadzając ich w błąd).

Ta reakcja na porady konwersacyjnej sztucznej inteligencji przypomina badania psychologa prof. kolejce, aby zrobić kserokopię, kiedy po prostu powiedzieli „przepraszam, ale naprawdę muszę zrobić kserokopię”). Im bardziej ludzkie i wiarygodne są wyjaśnienia sztucznej inteligencji, tym mniej prawdopodobne jest, że ludzie naprawdę głęboko zastanowią się nad rekomendacją sztucznej inteligencji i jej wyjaśnieniem. Dzisiejsi eksperci AI są tak bardzo skupieni na szukaniu sposobów, w jaki sztuczna inteligencja może dostarczać wyjaśnień, ale istnieje ryzyko, że ludzie zbyt chętnie przyjmą rady sztucznej inteligencji, gdy otrzymają wyjaśnienie, zamiast myśleć samodzielnie. Nie czytałem Natale'a, o którym wspomina Ben, ale może on przedstawić podobny argument. Wszystko to odnosi się do koncepcji Tversky'ego i Kannemana dotyczącej uprzedzeń w ludzkim zachowaniu, które mogą być teraz (celowo lub nieświadomie) wykorzystywane przez systemy konwersacyjne. W pełnym artykule, który zostanie zaprezentowany na CHI '23 (Danry i in. 2022), argumentujemy, że jednym ze sposobów zapobiegania zbytniemu poleganiu przez użytkownika na radach sztucznej inteligencji jest zaangażowanie systemu sztucznej inteligencji w myślenie i mówienie o problem pod ręką, zanim po prostu i bezmyślnie zaakceptuje rekomendację AI.

W odniesieniu do cytatu Bena „Podnosząc maszyny do poziomu ludzkich możliwości, zmniejszamy wyjątkowość ludzi”, powiedziałbym, że rzeczywiście maszyny nie są ludźmi i nie powinny być przedstawiane jako takie. Jednak nie zgadzam się z wyborem przez Bena słów „wznieść” i „specjalność”. Ze smutkiem uważam, że systemy sztucznej inteligencji, choć nie są tak inteligentne jak ludzie, przewyższają nas pod względem wydajności w wielu dziedzinach. Nie zgadzam się z Michaelem i Benem co do tego, gdzie umieściłbym systemy AI. Pod względem inteligencji nie stoją między nami a psami. Są zupełnie innym typem „mądrych”, które już przewyższają ludzi wydajnością w wielu najbardziej ludzkich zadaniach. To, czy są inteligentni, czy nie w taki sam sposób jak ludzie, nie jest ważną kwestią. Osobiście nie rozumiem, dlaczego wszyscy tak się na tym skupiają. Oczywiste jest, że przewyższają nas w wielu zadaniach, które wymagają od ludzi myślenia, dużego doświadczenia, wiedzy, umiejętności itp. Może to temat na inną debatę, ale wierzę, że wkrótce ludzie nie będą już w dominująca pozycja: sztuczna inteligencja jest już lepsza od nas w trudnych zadaniach, takich jak wpływanie na ludzi i manipulowanie nimi lub odkrywanie nowych spostrzeżeń naukowych, mimo że nie potrafią wyjaśnić swoich metod i odkryć w kategoriach zrozumiałych dla człowieka. Jest to jeden z powodów, dla których podpisałem list otwarty, domagając się wstrzymania nowych LLM i wdrożeń na dużą skalę. Jestem zmartwiony. Sztuczna inteligencja już teraz jest lepsza od nas w trudnych zadaniach, takich jak wpływanie na ludzi i manipulowanie nimi lub odkrywanie nowych spostrzeżeń naukowych, mimo że nie potrafią wyjaśnić swoich metod i odkryć w sposób zrozumiały dla człowieka. Jest to jeden z powodów, dla których podpisałem list otwarty, domagając się wstrzymania nowych LLM i wdrożeń na dużą skalę. Jestem zmartwiony. Sztuczna inteligencja już teraz jest lepsza od nas w trudnych zadaniach, takich jak wpływanie na ludzi i manipulowanie nimi lub odkrywanie nowych spostrzeżeń naukowych, mimo że nie potrafią wyjaśnić swoich metod i odkryć w sposób zrozumiały dla człowieka. Jest to jeden z powodów, dla których podpisałem list otwarty, domagając się wstrzymania nowych LLM i wdrożeń na dużą skalę. Jestem zmartwiony.

Bibliografia

  • Danry, V., Pataranutaporn, P., Epstein, Z., Groh, M. i Maes, P. (2022). Zwodnicze systemy sztucznej inteligencji, które dostarczają wyjaśnień, są tak samo przekonujące jak uczciwe systemy sztucznej inteligencji w procesie podejmowania decyzji przez człowieka i maszynę. Rozszerzone streszczenie. Zaprezentowano na Międzynarodowej Konferencji na temat Obliczeniowych Nauk Społecznych (IC2S2) 2022.
  • Pataranutaporn, P., Leong, J., Danry, V., Lawson, AP, Maes, P. i Sra, M. (2022, październik). Wirtualni instruktorzy generowani przez sztuczną inteligencję w oparciu o lubiane lub podziwiane osoby mogą poprawić motywację i wzbudzić pozytywne emocje podczas nauki. W 2022 r. Konferencja IEEE Frontiers in Education (FIE) (s. 1–9). IEEE.