Jaka jest rola projektowania i badań UX w przyszłości potwierdzającej sztuczną inteligencję?
Rola projektowania i badań UX w systemach AI
W świecie technologii panuje obecnie duży dysonans. Istnieje szum wokół generatywnej sztucznej inteligencji, która przekształca pracę, produktywność i cyfrowe interakcje, jakie znamy. Pozytywne zakłócenie! Jednak wielu słusznie martwi się jej wpływem na rynki pracy , dezinformacją , wyzyskiem , nierównością i dalszym rozplątywaniem tkanki społecznej. Negatywne zakłócenia. Stopniowe zwolnienia w sektorze technologicznym mogą wydawać się zwiastunem nieuchronnej przyszłości sztucznej inteligencji.
Tutaj szkicuję, w jaki sposób projektowanie i badanie doświadczeń użytkowników (UXDR) [1] może odgrywać afirmującą rolę, oferując alternatywną wizję paniki moralnej AI. Tak, ogólne zastosowania sztucznej inteligencji będą nadal integrowane z systemami cyfrowymi, które już wpływają na wszystkie aspekty naszego życia: naszą pracę , naszą edukację, nasze zdrowie, naszą gospodarkę, naszą komunikację, nasze media, naszą biurokrację, nasz rząd itp. Pytanie nie brzmi, czy, ale gdzie i jak sztuczna inteligencja zostanie zintegrowana. To, co daje nam ta „era sztucznej inteligencji”, to możliwość świadomego określania tego, co chcemy, aby systemy sztucznej inteligencji robiły dla nas i jak powinny być ustanowione.
Skoncentrowane na użytkowniku podejście UXDR do interakcji człowiek-komputer (HCI) było integralną częścią ewolucji rozwoju produktów cyfrowych poza etosem technologicznym „zbuduj, a oni przyjdą”. Te dyscypliny zorientowały się, jak sprawić, by technologia była użyteczna i wciągająca (oczywiście nie zawsze na naszą korzyść ). A UXDR był również awangardą w tworzeniu ram projektowych i etycznych , w jaki sposób wprowadzać sztuczną inteligencję do naszego cyfrowego życia .
Pozostańmy w czołówce, wychodząc poza branżę technologiczną do innych sektorów. Wymaga to od nas poszerzenia naszego spojrzenia na to, kim jest użytkownik końcowy, jak projektujemy dla niego, a nawet kiedy sztuczna inteligencja powinna zostać włączona do systemów, które mu służą.
Kto jest odpowiedzialny? Regulacje techniczne i odciążanie efektów zewnętrznych sztucznej inteligencji
Sam Altman, założyciel Open AI, wyjaśnił , że to od rządów i społeczeństwa zależy określenie barier, które należy postawić na technologię sztucznej inteligencji. Uzasadnił iteracyjne wydawanie tych modeli przez Open AI, ponieważ pozwala nam to zmierzyć się z implikacjami możliwości tej technologii i odpowiednio określić jej wykorzystanie. Jest to lekkomyślne dla niektórych, w tym 1100 technologów – niektórych znanych i szanowanych – którzy wezwali do sześciomiesięcznej przerwy w „szkoleniu systemów sztucznej inteligencji potężniejszych niż GPT4”, aby umożliwić dogonienie protokołów bezpieczeństwa i przepisów. Inni krytycznie głośni technicy [2] odrzucili zarzut moratorium jako nieszczery, biorąc pod uwagę sygnatariuszy i ich motywacje. [3]
Pomimo polaryzacji wokół sztucznej inteligencji wszyscy zgadzają się, że regulacje techniczne są konieczne . A jednak jest to częściowe rozwiązanie, które jest i nadal będzie żałośnie opóźnione; Ameryka ma notorycznie słabe wyniki w zakresie technologii regulacyjnej. I chociaż UE , Kanada i Chiny są nieco przed nami; żaden rząd ani instytucja międzynarodowa nie jest w stanie złagodzić wszystkich szkód poprzez same regulacje. Niemniej jednak warto wziąć przykład z tych aspiracji regulacyjnych i przekształcić je w działania, które możemy podjąć w celu obejścia szkód.
Weźmy jako przykład plan karty praw AI . W styczniu 2023 roku Biuro ds. Polityki Nauki i Technologii (OTSP) opublikowało ten dokument. To nie jest ustawodawstwo ani polityka administracji Bidena. Ma raczej na celu zapewnienie wskazówek dotyczących „sprawienia, by zautomatyzowane systemy działały dla narodu amerykańskiego”. OTSP spędził rok na słuchaniu interesariuszy i ekspertów z różnych branż i sektorów publicznych, w tym społeczności i obywateli, na których sztuczna inteligencja będzie miała wpływ. [4] Jestem pod wrażeniem należytej staranności i rozwagi, jakie włożono w te ramy, i mam nadzieję, że ich duch zostanie wprowadzony do prawa.
Co sprawia, że te zautomatyzowane systemy działają dla ludzi? Podczas czytania tego dokumentu uderzyło mnie to, że te same wymagania sprawiają, że produkty cyfrowe są wystarczająco atrakcyjne, aby klienci mogli z nich korzystać i za które płacić. Oprócz wnoszenia wartości, muszą być dostępne, sprawiedliwe, skuteczne, wygodne i utrzymywane. Projektowanie tych systemów wymaga budowania i dostosowywania do konkretnych przypadków użycia, proaktywnej oceny ryzyka i przejrzystości systemu. Wskaźniki zwrotu z inwestycji i wydajności mogą się różnić; proces ten obejmuje jednak podobne komponenty jak rozwój produktu.
Celowe projektowanie systemów sztucznej inteligencji skoncentrowanych na człowieku
U podstaw projektowania leży intencja. Dobry projekt zapewnia płynne rozwiązanie dla danej czynności lub scenariusza. Innymi słowy, projektowanie ma na celu dostarczanie rozwiązań, a nie stwarzanie problemów. Projektowanie UX rozwija interakcję dla i w danym kontekście.
Badania UX zapewniają kontekstowy wgląd w to, kto, co, dlaczego i jak celowo projektował systemy. Jeśli chodzi o zautomatyzowane systemy, które służą wielu ludziom [5] , zwłaszcza publicznym, musimy poszerzyć naszą perspektywę poza kontekst klienta/użytkownika końcowego, aby uwzględnić różne zainteresowane strony, na które mają wpływ te systemy, jak również społeczne -dynamika polityczna, która może utrudniać dostępną i sprawiedliwą instytucję tych systemów. Dobre postępowanie może w rzeczywistości dać nam możliwość przeprojektowania aspektów naszego społeczeństwa, które już nam nie służą.
Karta praw AI wzywa do ciągłego monitorowania tych zautomatyzowanych systemów. Wymóg ten nie budzi kontrowersji, ponieważ kruchość sztucznej inteligencji utrudnia dokładność i może przeciwstawić się oczekiwaniom użytkownika. Technologicznym rozwiązaniem tego ograniczenia jest uczenie się przez wzmacnianie poprzez informację zwrotną od człowieka (RLHF) [6] . I chociaż RLHF jest niezbędny do poprawy wyników modelu, jest to mechanizm częściowego monitorowania, który powinien być wspierany przez oceniające badania użytkowników .
Oceniające badania użytkowników koncentrują się na tym, w jaki sposób użytkownicy wchodzą w interakcje z systemem i czy skutecznie rozwiązuje on problemy, do rozwiązania których został zaprojektowany. Ponieważ zmiana jest trudna, ludzie nie przyjmą rozwiązania, jeśli nie przyniesie ono większych korzyści niż ich status quo; dlatego ważne jest regularne sprawdzanie skuteczności systemu.
Ale ważne jest również monitorowanie dalszych skutków systemów sztucznej inteligencji, jeśli chcemy chronić prawa ludzi. Należy rozpocząć badania odkrywcze, aby zrozumieć szerszy wpływ systemów sztucznej inteligencji na takie rzeczy, jak praca, nauka, zakupy i kontakty towarzyskie ludzi, które warto monitorować, aby zoptymalizować ich korzyści i złagodzić niezamierzone szkody.
Na wysokim poziomie, to właśnie może wnieść UXDR. Przejdźmy do kolektywnego podejścia do projektowania wszystkich systemów i procesów, kierując się etosem projektowania skoncentrowanym na człowieku . W naszej mocy jest kształtowanie roli technologii sztucznej inteligencji w społeczeństwie i tworzenie lepszej przyszłości dla wszystkich. Wykorzystajmy tę okazję, aby na nowo zdefiniować , co UXDR może osiągnąć, nie tylko doświadczenie użytkownika produktów cyfrowych, ale całe systemy zaprojektowane, aby nam służyć.
W prawdziwej formie myślenia projektowego zostawię cię z zestawem prowokacji „jak moglibyśmy”:
1. Jak możemy powstrzymać te systemy przed powielaniem szkodliwych uprzedzeń, na których zostały wyszkolone?
2. W jaki sposób możemy zapewnić, że te systemy dostarczają swoją wartość, pracując dla ludzi?
3. W jaki sposób możemy ominąć dalsze szkody lub niedogodności dla różnych interesariuszy, którym mają służyć systemy sztucznej inteligencji?
4. Jak możemy obejść proroctwo: „Przyszłość inteligencji musi polegać na wyszukiwaniu, podczas gdy przyszłość ignorancji musi polegać na niezdolności do oceny informacji?” — Patrycja Lockwood
Podsumowując, nieco optymistycznie, UXDR to nie bzdury , które zastąpi sztuczna inteligencja . Odgrywamy kluczową rolę w kształtowaniu pożądanego przez nas społeczeństwa, które nieuchronnie obejmuje sztuczną inteligencję — która niestety jest napędzana przez kapitalizm finansów korporacyjnych. Wykorzystajmy naszą wiedzę wykraczającą poza branżę technologiczną, aby pomóc naszym rządom i innym sektorom określić, w jaki sposób my, jako ludzkość, chcemy wprowadzić te systemy sztucznej inteligencji.
Zostawiam was z ostatnią prowokacją. Jaka jest ścieżka rozwoju potwierdzająca sztuczną inteligencję i jaka jest w niej Twoja rola?
„Myśl o ludziach. Odpowiedzią na problemy bitów są ludzie”. — Lanier, 2023
„Solidarność to odwrócenie algorytmicznego stanu wyjątkowego”. — McQuillan, 2022
Wyrażone tutaj stanowisko i opinia są poglądami Amandy T. Snellinger — autorki — jej i tylko jej. Nie są aprobowane przez jej pracodawcę i prawdopodobnie nie przez jej ojca lub kota, którzy nie rozumieją tego tematu; i zdecydowanie nie ma żadnych dużych modeli językowych, które nie rozumieją niczego w ludzkim poczuciu zrozumienia „rozumiem”.
Przypisy końcowe
[1] Tutaj mówię z mojej specjalistycznej wiedzy, UXR i antropologii. Zachęcam innych z dyscyplin technicznych i nietechnicznych do wniesienia wkładu w tę prefiguratywną wizję projektową. Ponieważ proponowana przeze mnie interwencja powinna być interdyscyplinarna i uwzględniać różne perspektywy.
[2] Tmnit Gebru jest szczególnie urażona listem za cytowanie jej artykułu, którego jest współautorką, aby wzmocnić twierdzenie, że „ Systemy sztucznej inteligencji z inteligencją współzawodniczącą z ludźmi mogą stanowić poważne zagrożenie dla społeczeństwa i ludzkości, jak wykazały szeroko zakrojone badania ”. ponieważ pomija to, co twierdziła ona i jej współautorzy , porównywanie dużych modeli językowych z ludzką inteligencją jest jedną z największych szkód, jakie stwarza sztuczna inteligencja, powodując ogromne ryzyko w dół.
[3] Nie zamierzam brać udziału w tej debacie. Moje stanowisko jest takie, że sztuczna inteligencja jest technologią polityczną . Krytycznie podchodzę do wielu aspektów tworzenia modeli, w tym dyscypliny uczenia maszynowego, która jest empirycznie wątpliwa z perspektywy testów porównawczych; odchylenia strukturalne nieodłącznie związane ze zbiorami danych wykorzystywanymi do szkolenia tych modeli; oraz brak przejrzystości modelu, zwłaszcza GPT4 . Obawy te opierają się na szerszej krytyce, ta „dyscyplina naukowa” opiera się na problematycznej zachodniej epistemologii zakorzenionej w postkolonialnym globalnym kapitalizmie.
[4] Ratusze można obejrzeć tutaj: Listening to the American People | OSTP | Biały Dom .
[5] Projektowanie technologii obywatelskich i usług ma kluczowe znaczenie dla rozszerzenia i wdrożenia zasad UX dla sztucznej inteligencji poza produkty cyfrowe .
[6] Martwię się, że to zadanie stanie się „ brudną robotą ” zbliżoną do wyzyskujących form pracy, takich jak moderowanie treści .