Pizza z klejem i prezydenci zombie: najgorsze jak dotąd odpowiedzi Google AI

Niedawno Google umieściło odpowiedzi generowane przez sztuczną inteligencję na czołowych pozycjach wyszukiwań w Internecie, co jest kontrowersyjnym posunięciem , które spotkało się z szerokim odzewem. Tak naprawdę media społecznościowe są pełne przykładów całkowicie idiotycznych odpowiedzi, które są obecnie widoczne w wynikach sztucznej inteligencji Google. A niektóre z nich są całkiem zabawne.
powiązana zawartość
Jedno z dziwniejszych poszukiwań krążących w mediach społecznościowych dotyczy znalezienia sposobu, aby ser nie zsuwał się z pizzy . Większość sugestii w odpowiedziach AI jest normalnych, jak na przykład kazanie użytkownikowi, aby pozwolił pizzy ostygnąć przed jej zjedzeniem. Ale górna wskazówka jest bardzo dziwna, jak widać poniżej.
powiązana zawartość
- Wyłączony
- język angielski

Najzabawniejsze jest to, że jeśli pomyślisz o tym choćby przez sekundę, dodanie kleju prawie na pewno nie pomoże serowi pozostać na pizzy. Ale ta odpowiedź prawdopodobnie została pobrana z Reddita w prawdopodobnie żartobliwym komentarzu użytkownika „fucksmith” 11 lat temu. Sztuczna inteligencja z pewnością może plagiatować, przyznajmy to.

Inne wyszukiwanie, które ostatnio przyciągnęło uwagę w mediach społecznościowych, dotyczy prezydenckich ciekawostek , które z pewnością będą nowością dla każdego historyka. Jeśli zapytasz wyszukiwarkę Google opartą na sztucznej inteligencji, który prezydent USA studiował na Uniwersytecie Wisconsin-Madison, odpowie, że właśnie to zrobiło 13 prezydentów.
Odpowiedź sztucznej inteligencji Google będzie nawet taka, że tych 13 prezydentów uzyskało w trakcie studiów 59 różnych stopni naukowych. A jeśli spojrzeć na lata, w których rzekomo studiowali na uniwersytecie, zdecydowana większość przypada długo po śmierci tych prezydentów. Czy 17. prezydent kraju, Andrew Johnson, zdobył 14 stopni w latach 1947–2012, mimo że zmarł w 1875 r.? Wydaje się to bardzo mało prawdopodobne, chyba że istnieje jakaś specjalna technologia zombie, o której nie jesteśmy świadomi.

Dla przypomnienia, Stany Zjednoczone nigdy nie wybrały prezydenta z Wisconsin ani nikogo, kto kiedykolwiek uczęszczał na UW-Madison. Wygląda na to, że sztuczna inteligencja Google wycofuje swoją odpowiedź z beztroskiego wpisu na blogu z 2016 r. napisanego przez Stowarzyszenie Absolwentów na temat różnych osób, które ukończyły Madison i mają takie samo nazwisko jak prezydent.
Innym zjawiskiem, które zauważyło wielu użytkowników, jest to, że sztuczna inteligencja Google uważa, że psy są zdolne do niezwykłych wyczynów, na przykład do uprawiania sportu wyczynowo. Na pytanie, czy pies kiedykolwiek grał w NHL, w podsumowaniu zacytowano film z YouTube i wypluto następującą odpowiedź:

W innym przypadku wyszliśmy poza sport i zapytaliśmy wyszukiwarkę, czy pies był kiedyś właścicielem hotelu. Odpowiedź platformy była następująca:

Dla jasności, Google na pytanie, czy pies był kiedykolwiek właścicielem hotelu, odpowiedział twierdząco. Następnie przytoczyła dwa przykłady właścicieli hoteli posiadających psy i jako dowód wskazała wysoki na 30 stóp posąg beagle'a.
Inne rzeczy, których „nauczyliśmy się” podczas korzystania z podsumowań sztucznej inteligencji Google, to między innymi to, że psy potrafią tańczyć breakdance (nie potrafią) i że często rzucają uroczystym pierwszym narzutem podczas meczów baseballowych, w tym pies, który rzucał na mecz Florida Marlins (w rzeczywistości , pies aportował piłkę po jej rzuceniu).
Ze swojej strony Google broni złych informacji wynikających z zadawania przez ludzi „nietypowych” pytań. Ale jeśli mamy być szczerzy, to podbicie wydaje się bardzo dziwną obroną. Czy aby uzyskać rzetelne odpowiedzi, należy zadawać Google tylko najbardziej banalne i częste pytania?
„Przykłady, które widzieliśmy, to na ogół bardzo rzadkie zapytania i nie odzwierciedlają doświadczeń większości ludzi” – powiedział rzecznik Google w e-mailu do Gizmodo. „Zdecydowana większość przeglądów AI zapewnia wysokiej jakości informacje wraz z linkami umożliwiającymi głębsze przeglądanie sieci. Przed uruchomieniem tego nowego rozwiązania przeprowadziliśmy szeroko zakrojone testy i będziemy wykorzystywać te pojedyncze przykłady w dalszym ciągu ogólnego udoskonalania naszych systemów.
Dlaczego pojawiają się takie reakcje? Mówiąc najprościej, wszystkie te narzędzia sztucznej inteligencji zostały wdrożone znacznie wcześniej, niż powinny, a każda duża firma technologiczna uczestniczy w wyścigu zbrojeń, aby przyciągnąć uwagę publiczności.
Narzędzia sztucznej inteligencji, takie jak ChatGPT firmy OpenAI , Gemini firmy Google , a teraz wyszukiwarka AI firmy Google, mogą wydawać się imponujące, ponieważ naśladują normalny ludzki język. Ale maszyny działają jako predykcyjne modele tekstu, zasadniczo funkcjonując jako fantazyjna funkcja autouzupełniania. Wszyscy odkurzyli ogromne ilości danych i potrafią szybko złożyć słowa, które brzmią przekonująco, a czasami nawet dogłębnie. Ale maszyna nie wie, co mówi. Nie ma zdolności rozumowania ani stosowania logiki jak człowiek, co jest jednym z wielu powodów, dla których zwolennicy sztucznej inteligencji są tak podekscytowani perspektywą sztucznej inteligencji ogólnej (AGI). I dlatego Google może zalecić Ci nałożenie kleju na pizzę. To nawet nie jest głupie. Nie można być głupim.
Ludzie, którzy projektują te systemy, nazywają te halucynacje , ponieważ brzmi to znacznie fajniej niż to, co dzieje się w rzeczywistości. Kiedy ludzie tracą kontakt z rzeczywistością, mają halucynacje. Ale Twój ulubiony chatbot AI nie ma halucynacji, ponieważ nie był w stanie rozumować ani logiki. To po prostu rzyganie słowami, które są mniej przekonujące niż język, który zrobił na nas wrażenie, kiedy po raz pierwszy eksperymentowaliśmy z narzędziami takimi jak ChatGPT podczas jego wdrażania w listopadzie 2022 r. A każda firma technologiczna na świecie goni za tym początkowym hajem za pomocą własnych, półproduktów .
Ale nikt nie miał wystarczająco dużo czasu, aby dokładnie ocenić te narzędzia po początkowym olśniewającym pokazie ChatGPT, a szum był nieubłagany. Problem polega oczywiście na tym, że jeśli zadasz AI pytanie, na które nie znasz odpowiedzi, nie możesz zaufać odpowiedzi bez dodatkowego sprawdzenia faktów. A to mija się z celem, dla którego w ogóle zadawałeś pytanie tym rzekomo inteligentnym maszynom. Chciałeś uzyskać wiarygodną odpowiedź.
Rzecznik Google, poproszony o komentarz w tej sprawie, powiedział Gizmodo:
Przykłady, które widzieliśmy, są na ogół bardzo rzadkimi zapytaniami i nie odzwierciedlają doświadczeń większości ludzi. Zdecydowana większość przeglądów AI zapewnia wysokiej jakości informacje wraz z linkami umożliwiającymi głębsze przeglądanie sieci. Przed wprowadzeniem tego nowego rozwiązania przeprowadziliśmy szeroko zakrojone testy i będziemy korzystać z tych pojedynczych przykładów w trakcie ogólnego udoskonalania naszych systemów.
To powiedziawszy, próbując przetestować inteligencję systemu AI, naprawdę nauczyliśmy się kilku nowych rzeczy. Na przykład w pewnym momencie zapytaliśmy Google, czy pies kiedykolwiek latał samolotem, spodziewając się, że odpowiedź będzie brzmieć „nie”. I oto podsumowanie sztucznej inteligencji Google dostarczyło odpowiedzi opartej na źródłach. Tak, psy latały już samolotami i nie, to nie jest halucynacja algorytmiczna:

Jakie są Twoje doświadczenia z wdrażaniem sztucznej inteligencji Google w wyszukiwarce? Czy zauważyłeś coś dziwnego lub wręcz niebezpiecznego w odpowiedziach, które otrzymujesz? Daj nam znać w komentarzach i pamiętaj o dołączeniu zrzutów ekranu, jeśli je posiadasz. Wygląda na to, że te narzędzia już tu zostaną, czy nam się to podoba, czy nie.

