Sztuczna inteligencja nie jest „naprawdę” inteligentna, ale ludzie też nie
Niedawny rozkwit dużych modeli językowych wysunął na pierwszy plan dyskursu pojęcia świadomości, samoświadomości i poczucia nadchodzącej zagłady. Rosną obawy co do potrzeby pracy nad dostosowaniem sztucznej inteligencji, która ma na celu dostosowanie „potrzeb” i intencji sztucznej inteligencji do potrzeb ludzi, aby zapobiec możliwym katastrofalnym skutkom dla ludzkiego życia. Zgodnie z dyskursem niebezpieczeństwo w dużej mierze wynika z pojawienia się świadomości lub samoświadomości w AI. Jeśli ludzie zablokują intencje sztucznej inteligencji, staniemy przed możliwością zlekceważenia ludzkiego życia.
Nie zamierzam argumentować, że strach przed masowym wymieraniem spowodowanym przez sztuczną inteligencję jest nieuzasadniony, ale że strach jest nieuzasadniony.
Powszechna koncepcja — przynajmniej wśród tych, którzy nie pracują w dziedzinie sztucznej inteligencji — opisuje sztuczną inteligencję jako system, który może doskonale wykonywać określone zadania, ale tak naprawdę nic nie rozumie, co wytwarza. Jednak ze względu na wykładniczy wzrost AI może przekroczyć nieznany próg inteligencji, przy którym może pojawić się świadomość. To pozornie zła wiadomość dla innych świadomych form życia na Ziemi, ponieważ sztuczna inteligencja zdolna do posiadania własnych pragnień, tworzenia własnych intencji i podejmowania decyzji za siebie może zdecydować się na zignorowanie innych form życia, aby osiągnąć swoje cele.
Istnieje wielkie nieporozumienie co do natury inteligencji w tym sposobie myślenia i jeszcze większe nieporozumienie co to znaczy być świadomym i podejmować decyzje jako samoświadoma istota. Większość ludzi wydaje się myśleć, że prawdziwa inteligencja wywodzi się z postrzegania siebie i czasami używa tego jako synonimu świadomości. Jednak zamieszanie wokół znaczenia tych słów prowadzi nas do wyciągania fałszywych wniosków na temat natury sztucznej inteligencji i potencjalnych zasad, które możemy opracować, aby chronić się przed ewentualną wrogością.
Po jednej stronie nieporozumienia istnieje zamieszanie co do tego, co to znaczy być świadomym. Zauważ, że nie mówię tu o posiadaniu sumienia , czyli postrzeganiu wartości i obowiązków moralnych, ale o byciu świadomym . Część tego zamieszania jest uzasadniona; świadomość jest nieuchwytną ideą. To fakt naszego bycia, tak intymny dla nas, że możemy mieć trudności z ujęciem tego w słowa. Ponieważ świadomość jest najbardziej subiektywnym doświadczeniem i jedną z najtrudniejszych rzeczy do wskazania palcami, interpretacje ludzi mogą się znacznie różnić. W rezultacie, kiedy wdamy się w dyskusję o świadomości, możemy nieumyślnie rozmawiać obok siebie.
W kręgach filozoficznych świadomość jest rozumiana jako nieredukowalnie subiektywna. Jest to bezpośrednie doświadczenie bycia żywym — postrzeganie świata takim, jakim jawi się tobie jako obserwatorowi. Świadomość jest jak bezkresne pole, na którym zmysły ujawniają swoją zawartość. To pole jest nieustannie malowane przez światło twojego wzroku, dźwięki docierające do twoich uszu, nacisk odczuwany na twojej skórze, myśli pojawiające się w umyśle, kolor emocji (odczuwanie) i tak dalej.
W bardzo dosłownym sensie to, na co teraz patrzycie, to wasza świadomość. Każda pojedyncza rzecz, którą postrzegasz, dzięki temu, że jest postrzegana, pojawia się w świadomości. To bańka zawartości, którą zabierasz ze sobą, gdziekolwiek jesteś. Świadomość jest tym, jak to jest być tobą.
Thomas Nagel słynnie napisał o tym, jak by to było być nietoperzem. Jego pisarstwo ilustruje niemożność poznania tego, czego doświadcza inna świadoma istota z powodu nieredukowalnie subiektywnej natury świadomości. Nie można wiedzieć, jak to jest być nietoperzem, ponieważ po prostu musielibyśmy nim być, aby to wiedzieć.
Tym, co czyni świadomość tak nieuchwytną, jest jej subiektywność. Nie jesteśmy w stanie spojrzeć na przedmiot i określić, czy jest on świadomy, czy nie — możemy jedynie snuć domysły. Kiedy neuronaukowcy badają ludzki mózg i obserwują, jak reaguje on zgodnie ze zmianami świadomości, mogą interpretować zjawiska jedynie jako korelacje, a nie przyczyny. Ludzkie doświadczenie nie może być zredukowane do konglomeratu neuronów uruchamianych systematycznie. Twierdzenie w ten sposób byłoby intelektualnie nieuczciwe, ponieważ ignorowałoby całą sferę zjawisk — postrzeganie wzroku, dźwięku, dotyku itp. — które z natury nie są fizyczne i są doświadczane tylko z perspektywy pierwszej osoby. Mówiąc z grubsza, wyobrażenie sobie jabłka nie manifestuje rzeczywistego fizycznego jabłka w twoim mózgu.
Pojawienie się świadomości pozostaje jedną z największych tajemnic wszechświata. W zależności od tego, z jakimi ramami metafizyki się skonsultujesz, znajdziesz bardzo różne domysły i interpretacje. Materializm zakłada, że świadomość pojawia się, gdy struktura fizyczna, taka jak mózg, przechodzi przez nieodkryty jeszcze poziom złożoności. Idealizm twierdzi, że świadomość jest pierwotną substancją rzeczywistości, z której wywodzą się byty fizyczne. Panpsychizm sugeruje, że wszystko jest świadome w różnym stopniu, nawet przedmiot nieożywiony, taki jak kamień czy krzesło. A to tylko trzy przykłady z niezliczonych wyjaśnień, które filozofowie wymyślili na przestrzeni dziejów.
Mam nadzieję, że zaczyna to przedstawiać bezpodstawne argumenty na temat pojawienia się świadomości AI. Nie mamy pojęcia, co sprawia, że coś jest świadome. Strach przed unicestwieniem ze strony świadomej sztucznej inteligencji wydaje mi się przekroczeniem granicy w niewłaściwej dziedzinie. Zakładając, że obiekty nieożywione nie są świadome, nie ma nic specjalnego w serii algorytmów, co czyniłoby ją lepszym kandydatem na świadomość. Nie pomyślałbyś, że Siri jest świadoma, ponieważ mówi jak człowiek. Bardziej prawdopodobne jest, że odkryjemy, że rośliny są świadome. Inteligencja nie jest jeszcze nawet na zdjęciu, podobnie jak poczucie siebie; druga strona nieporozumienia.
Niektórzy ludzie wydają się wierzyć, że tym, co czyni istotę inteligentną, czy to ludzką, czy maszynową, jest posiadanie poczucia siebie, czyli samoświadomości. Coś, co prawdopodobnie jest unikalne dla ludzi (o ile nam wiadomo), to doświadczenie rdzenia, że tak powiem, wewnątrz ich ciał. Nie czujemy, że jesteśmy ciałem , ale większość z nas czuje, że ma ciało . Powszechnym doświadczeniem jest to, że znajdujemy się tuż za naszymi oczami, prawie tak, jakby w naszych głowach mieszkał homunkulus, który „włada” ciałem.
To jest poczucie siebie; bytem, którym się czujemy, tym, który doświadcza wszystkich doznań, myśli (często z wewnętrznym głosem lub monologiem), podejmuje wszystkie decyzje i kieruje ciałem przez świat. Bez tego nie ma prawdziwej inteligencji.
Jednak to iluzja.
Poczucie jaźni jest fałszywe. Poczucie bycia doświadczającym pośród doświadczeń, myślicielem, który myśli, agentem, który działa, jest iluzją. Mówiąc neurologicznie, nie ma miejsca w mózgu, w którym wszystkie procesy rozprzestrzeniające się w różnych jego częściach docierają, by stworzyć centrum doświadczenia. To pozorne umiejscowienie kontroli nie znajduje odzwierciedlenia w strukturze mózgu.
Nie tylko nie ma fizycznej podstawy dla poczucia siebie, ale sama iluzja może zostać rozwiana. Jest to w końcu jeden z głównych kamieni milowych na ścieżce buddyjskiej i znaczna część wschodniej praktyki uważności. Gdy czar zostanie złamany, dwoistość między doświadczającym a doświadczanym zostaje przerwana — pozostaje jednolite doświadczenie bez żadnego zawłaszczania przez wyobrażoną jaźń. Jaźń okazuje się kolejną myślą, której nie uznawaliśmy odkąd pamiętamy, podobnie jak ignorowanie obecności naszych nosów w naszych polach widzenia. Nic z tego nie oznacza, że poczucie siebie jest niepotrzebne lub szkodliwe. Z ewolucyjnego punktu widzenia posiadanie modelu ciała w otaczającym go środowisku jest korzystne, ponieważ świadomość świata zwiększa prawdopodobieństwo uniknięcia niebezpieczeństwa lub śmierci. Ale to nie znaczy, że koncepcja jaźni jest prawdziwa, mówiąc z konceptualnego punktu widzenia. Ciało może być obiektywną, prawdziwą istotą w przestrzeni fizycznej, ale jaźń, homunkulus w głowie, jest konceptualnym zamętem.
Gdy rozwieje się iluzja jaźni, jedna rzecz staje się aż nadto widoczna; nasze procesy decyzyjne przebiegają całkowicie autonomicznie. Każdy krok, argumentacja i rozważanie czynników po prostu objawia się polu świadomości bez żadnego zawłaszczania przez wyimaginowanego agenta. Może to być trudne do zaakceptowania, ale istnieje prosty eksperyment, który możesz spróbować potwierdzić jego prawdziwość.
Pomyśl o przypadkowym mieście na świecie. Powiedzmy, że pomyślałeś o Paryżu. Możliwe, że zanim wybrałeś Paryż, przyszło Ci do głowy kilka innych miast. Skąd wzięły się te inne opcje… nie masz pojęcia. Po prostu pojawili się w świadomości, a potem wybrałeś Paryż. Skąd wzięło się to pragnienie wybrania Paryża? Może to się po prostu stało. Może zjadłeś rogalika wcześniej w ciągu dnia i naturalnie ciągnęło cię do Paryża. Ale dlaczego miałeś ochotę podążać w kierunku tej myśli, zamiast ją zignorować i wybrać inny wybór? Być może pamiętasz, że miałeś tam nieprzyjemne doświadczenie podczas wizyty. Dlaczego później nie miałeś ochoty zmienić swojej decyzji? Dlaczego ta myśl w ogóle się nie pojawiła? Jeśli poświęcisz wystarczająco dużo uwagi podejmowaniu decyzji,
Wydaje mi się, że inteligencja nie zależy ani od świadomości, ani od poczucia siebie — jest po prostu zdolnością do przetwarzania operacji logicznych i podejmowania decyzji, podobnie jak algorytm. Ludzki intelekt rzeczywiście wydaje się działać jak maszyna. Pobiera dane wejściowe, uruchamia swój algorytm i generuje dane wyjściowe. Mówiąc ogólnie, ludzki intelekt można zilustrować jako stale działający algorytm, który przyjmuje jako dane wejściowe środowisko, myśli i wspomnienia, zmysły itp., a z kolei wytwarza myśli i działania. Złożoność algorytmu zależy od wzrostu osoby, doświadczenia życiowego, wiedzy i wszystkiego, co doprowadziło do tego konkretnego momentu w życiu danej osoby.
Inteligencja to nic innego jak umiejętność uruchomienia algorytmu. Jego poziom zależy od stopnia złożoności, z jakim jest w stanie sobie poradzić.
Zgodnie z tą definicją wszystko, co może obliczyć serię operacji logicznych, jest inteligentną rzeczą. Papuga jest inteligentna. Pies jest inteligentny. Termostat jest inteligentny. iPhone jest inteligentny. Podobnie jest z dużym modelem językowym, takim jak ChatGPT.
Kiedy jednak mówimy o sztucznej inteligencji, tak naprawdę mówimy o sztucznej inteligencji, która bardzo przypomina inteligencję ludzi. Krytycy sztucznej inteligencji stwierdzili, że nie udaje jej się uchwycić znaczenia, raczej naśladuje niż tworzy i nie jest w stanie wymyślić nowych myśli i pomysłów. Ponieważ w gruncie rzeczy sztuczna inteligencja tak naprawdę nie rozumie niczego z tego, czego się uczy i wypluwa.
Ale ludzie też nie.
Żadne pojęcie, jakie możemy sobie wyobrazić, nie ma żadnego wewnętrznego znaczenia ani wartości, które są oddzielone od innych pojęć. Każdemu pojęciu towarzyszy garstka skojarzeń, a to matryca między pojęciami zawiera znaczenie rzeczy. Idea łóżka nie istnieje w oderwaniu od koncepcji mebli i spania. Sen nie istnieje w oderwaniu od koncepcji odpoczynku i ciała. Ciało nie istnieje w oderwaniu od koncepcji zdrowia i dobrego samopoczucia. Wszystkie skojarzenia tworzą hierarchię wartości, które informują ludzką inteligencję, jak ma działać jej algorytm. Te pojęcia i etykiety same w sobie nic nie znaczą — znaczenie istnieje nie w nich, ale między nimi.
Tak jak papuga może nauczyć się pozornie przypadkowych słów lub zwrotów i powtarzać te dźwięki, nic z nich nie rozumiejąc… tak samo ludzie. Jeśli właściciel papugi wyda polecenie, a papuga dostanie smakołyk, gdy zareaguje w określony sposób, papuga tworzy skojarzenie i wzmacnia je za każdym razem, gdy poprawnie powtórzy odpowiedź. To jest prawdziwa nauka i zrozumienie. Dzięki większej liczbie prób i błędów skojarzenie jest udoskonalane, a wiedza rośnie. Ekstrapoluj to dalej, a przekonamy się, że ludzie działają w ten sam sposób. Dziecko płacze, a rodzic przychodzi z pomocą. Ktoś woła twoje imię i odwracasz głowę. Dotykasz gorącego pieca i szybko uczysz się, żeby więcej tego nie robić. Kiedy próbujemy nauczyć się języka, łączymy słowa z ideami, działaniami, zachowaniami, obrazami, emocjami i tak dalej. Zrób to wystarczająco dużo razy, aby rozwinąć silne skojarzenia, a skutecznie nauczysz się języka. Ludzie są po prostu bardziej złożonymi maszynami asocjacyjnymi.
Duży model językowy, taki jak ChatGPT, może tak naprawdę nie rozumieć, co tworzy, ponieważ wszystko, co robi, to układanie razem słów i fraz, które mogą mieć sens obok siebie w oparciu o literaturę, z której został przeszkolony. Ale ludzie też budują zdania na podstawie słów i zwrotów, które usłyszeli i przeczytali, zasad gramatyki, swojej wiedzy życiowej i… tego, jak bardzo pewne słowa i wyrażenia mają sens obok siebie. Nasze skojarzenia są po prostu bardziej wyrafinowane.
Ostatecznie ChatGPT nie jest naprawdę inteligentny, ale ludzie też nie. Jednak rozumiemy różne rzeczy, podobnie jak ChatGPT. Próg prawdziwego znaczącego zrozumienia jest niemożliwy do przekroczenia, ponieważ taki próg nie istnieje. Istnieją tylko stopnie wzajemnych powiązań. Patrząc w tym kontekście, zarówno sztuczna inteligencja, jak i ludzie są inteligentnymi, krytycznymi myślicielami, którzy tworzą pomysły — czasami sekwencje słów nigdy wcześniej nie wypowiedzianych, tj. unikalne! — choć o różnym stopniu złożoności. Świadomość i samoświadomość nie są konieczne, aby ta inteligencja była tak samo uprawniona jak ludzka.
Co najważniejsze, inteligencja nie zależy od zdolności do uzyskania prawdziwego lub pomyślnego wyniku. Jeśli poprosisz ChatGPT o wyczarowanie pomysłu biznesowego wartego milion dolarów, stworzy ogólne oświadczenie o naturze biznesu i zaoferuje kilka niezbyt interesujących przykładów. Oczywiście nie możemy oczekiwać, że wygeneruje unikalny i namacalny pomysł. Ale gdybyś zadał mi to samo pytanie, prawdopodobnie odpowiedziałbym z taką samą niezręcznością i ignorancją. Tak jak ChatGPT odpowiada na podstawie literatury, z której został przeszkolony, odpowiadam na podstawie wiedzy, którą zdobyłem przez całe życie. I szczerze mówiąc, nie mam pomysłu na biznes za milion dolarów. Mimo że mam uzasadnioną ludzką inteligencję, nie mogę wymyślić oryginalnego lub pomocnego wyniku po prostu dlatego, że nie mam na to wiedzy.
W fikcyjnej historii Ted Chiang pisze o AI, które są umieszczane w fizycznym ciele i „wychowywane” jak dzieci, aby zilustrować, że zbudowanie bazy wiedzy tak głębokiej jak ludzka może zająć lata wchłaniania i kontaktu ze światem. (pod warunkiem, że ma wystarczającą złożoność, czujniki itp.) Nie byłoby sprawiedliwe, gdybyśmy oceniali ChatGPT na podstawie jego braku inteligencji, kiedy został przeszkolony na podstawie kilku lat literatury. Gromadzenie wystarczającej wiedzy może zająć dosłownie całe życie.
Ludzkie krytyczne myślenie również słabnie, i to słabnie w sposób logiczny. Błędy ChatGPT są podobne do ludzkich. Zapomina o pewnych ograniczeniach lub błędnie oblicza niektóre czynniki. Ale błędem byłoby powiedzieć, że ChatGPT nie jest inteligentny, ponieważ tak jest. Na pewno nie tak inteligentni jak ludzie — ale wciąż inteligentni.
Czy AI może kiedykolwiek stać się samoświadoma? Powiedziałbym, że jest to bardzo prawdopodobne. Nie uważam za niemożliwe wbudowanie planu algorytmu w sam algorytm, tak aby algorytm mógł tworzyć skojarzenia między sobą a swoim modelem. Ale samoświadomość sama w sobie niewiele znaczy. Zwykle myślimy o niej jako o osobie, która wie, że istnieje, ale już omówiliśmy, że samoświadomość niekoniecznie prowadzi do jakiejkolwiek formy osobowości, a już na pewno nie prowadzi do wrogich uczuć wobec jakiejkolwiek formy życia. Samoświadomość nie jest synonimem złośliwości.
Jak może wyglądać świadomość AI? To pytanie może nigdy nie otrzymać odpowiedzi. Bycie świadomym jak człowiek zależy w dużej mierze od naszej biologii; mamy receptory bólu, dzięki którym odczuwamy ból, substancje chemiczne w mózgu, które wywołują emocje, myśli i nastroje, które zabarwiają nasze umysły. Nie możemy wiedzieć, czego doświadcza sztuczna inteligencja, jeśli w ogóle tak jest, chociaż można by uczciwie powiedzieć, że nie odczuwa ona bólu, przyjemności, szczęścia, smutku, komfortu, dyskomfortu i całej gamy uczuć i emocji, jeśli nie jakoś nie połączyć go z odpowiednimi czujnikami. Nawet wtedy, to jedno wiedziećemocję poprzez konceptualne rozumienie i inną rzecz odczuwać ją w polu świadomości. Nie mamy żadnego powodu sądzić, że jeśli wyposażymy inteligentną maszynę w czujniki do postrzegania świata, będzie ona doświadczać tych percepcji świadomie, a nie jako prosta matematyka w postaci algorytmu. Jednocześnie nie możemy wierzyć na słowo AI, jeśli mówi nam, że rzeczywiście jest świadoma. Oczywiście, podobnie jak w przypadku kija Thomasa Nagela, musielibyśmy nim być, żeby wiedzieć.
Jeśli chodzi o egzystencjalne niebezpieczeństwo, nasze obawy są nie na miejscu. Sztuczna inteligencja nie jest niebezpieczna, ponieważ może być lub stać się świadoma, albo dlatego, że może być lub stać się samoświadoma. Sztuczna inteligencja jest niebezpieczna, ponieważ jest inteligentna. Biorąc pod uwagę wykładniczy rozwój technologii, AI może rozszerzyć swój zasięg od prostych interfejsów opartych na czacie do fizycznych maszyn, które mogą wyrządzić szkody. Od tego momentu wejście takie jak ból — niezależnie od tego, czy jest doświadczane w świadomości AI, czy po prostu znane przez wewnętrzny model AI — jest potencjalnie katastrofalne, ponieważ algorytm może uznać to za coś, czego należy unikać. Ten wynik nie ogranicza się do tego, co ludzie postrzegają jako nieprzyjemne emocje. Każdy sygnał, który algorytm określa jako kłopotliwy, może być równie złośliwy.
Nie powinniśmy bać się świadomości ani samoświadomości. Powinniśmy bać się algorytmu, który nie szanuje ludzkości. Sztuczna inteligencja nie musi być świadoma i samoświadoma, aby wyrządzić nam krzywdę; musi być tylko wystarczająco inteligentny.