ChatGPT nieprawidłowo odpowiada na pytania dotyczące programowania w 52% przypadków: przestudiuj

May 25 2024
Co gorsza, programiści biorący udział w badaniu często przeoczali dezinformację.

Chatboty oparte na sztucznej inteligencji, takie jak ChatGPT OpenAI, są sprzedawane jako rewolucyjne narzędzia, które mogą pomóc pracownikom zwiększyć wydajność w pracy, a być może w przyszłości całkowicie ich zastąpić. Jednak nowe, oszałamiające badanie wykazało, że ChatGPT w 52% przypadków nieprawidłowo odpowiada na pytania dotyczące programowania komputerowego.

powiązana zawartość

9 najbardziej absurdalnych integracji ChatGPT
Wszystkiego najlepszego, ChatGPT

Badanie przeprowadzone na Uniwersytecie Purdue, po raz pierwszy zauważone przez serwis informacyjny Futurism , zostało zaprezentowane na początku tego miesiąca na konferencji interakcji komputer-człowiek na Hawajach i obejmowało 517 pytań programistycznych w serwisie Stack Overflow, które następnie przesłano do ChatGPT.

powiązana zawartość

9 najbardziej absurdalnych integracji ChatGPT
Wszystkiego najlepszego, ChatGPT
Dlaczego wszyscy pozywają firmy zajmujące się sztuczną inteligencją? | Technologia przyszłości
Udział
Napisy na filmie obcojęzycznym
  • Wyłączony
  • język angielski
Udostępnij ten film
Facebook Twitter E-mail
Link do Reddita
Dlaczego wszyscy pozywają firmy zajmujące się sztuczną inteligencją? | Technologia przyszłości

„Nasza analiza pokazuje, że 52% odpowiedzi ChatGPT zawiera nieprawidłowe informacje, a 77% jest gadatliwych” – wyjaśnia nowe badanie. „Niemniej jednak uczestnicy naszego badania użytkowników nadal w 35% przypadków preferowali odpowiedzi ChatGPT ze względu na ich kompleksowość i dobrze sformułowany styl językowy”.

Niepokojące jest to, że programiści biorący udział w badaniu nie zawsze wychwytywali błędy popełniane przez chatbota AI.

„Jednak w 39% przypadków przeoczyli również dezinformację w odpowiedziach ChatGPT” – wynika z badania. „Implikuje to potrzebę przeciwdziałania dezinformacji w odpowiedziach ChatGPT na pytania programistyczne i podnoszenia świadomości na temat zagrożeń związanych z pozornie poprawnymi odpowiedziami”.

Oczywiście jest to tylko jedno badanie, które można przeczytać w Internecie , ale wskazuje ono na problemy, z którymi może się utożsamić każdy, kto korzysta z tych narzędzi. Duże firmy technologiczne inwestują obecnie miliardy dolarów w sztuczną inteligencję, starając się dostarczać najbardziej niezawodne chatboty. Meta, Microsoft i Google ścigają się, by zdominować wyłaniającą się przestrzeń, która może radykalnie zmienić nasze relacje z Internetem. Ale na drodze stoi wiele przeszkód.

Najważniejszym z tych problemów jest to, że sztuczna inteligencja często jest zawodna, zwłaszcza jeśli dany użytkownik zadaje naprawdę unikalne pytanie. Nowa wyszukiwarka Google oparta na sztucznej inteligencji nieustannie wyrzuca śmieci , które często pochodzą z niewiarygodnych źródeł. W tym tygodniu wyszukiwarka Google wielokrotnie prezentowała artykuły satyryczne z magazynu The Onion jako wiarygodne informacje .

Ze swojej strony Google broni się, upierając się, że błędne odpowiedzi są anomaliami.

„Przykłady, które widzieliśmy, to na ogół bardzo rzadkie zapytania i nie odzwierciedlają doświadczeń większości ludzi” – powiedział rzecznik Google w e-mailu do Gizmodo na początku tego tygodnia . „Zdecydowana większość przeglądów AI zapewnia wysokiej jakości informacje wraz z linkami umożliwiającymi głębsze przeglądanie sieci”.

Ale ta obrona, mówiąca, że ​​„nietypowe zapytania” dają błędne odpowiedzi, jest szczerze śmieszna. Czy użytkownicy powinni zadawać chatbotom tylko najbardziej przyziemne pytania? Jak to jest akceptowalne, skoro obiecuje się, że te narzędzia mają być rewolucyjne?

W piątek OpenAI nie odpowiedziało natychmiast na prośbę o komentarz na temat nowego badania dotyczącego odpowiedzi ChatGPT. Gizmodo zaktualizuje ten post, jeśli otrzymamy odpowiedź.