OpenAI może mieć kłopoty z powodu halucynacji ChatGPT na temat ludzi

OpenAI ponownie jest przedmiotem kontroli w Unii Europejskiej — tym razem w związku z halucynacjami ChatGPT na temat ludzi .
powiązana zawartość
Organizacja non-profit zajmująca się prawami prywatności o nazwie noyb złożyła w poniedziałek skargę do austriackiego organu ochrony danych (DPA) przeciwko firmie zajmującej się sztuczną inteligencją w imieniu osoby fizycznej w związku z niemożnością poprawienia przez nią informacji o ludziach generowanych przez ChatGPT.
powiązana zawartość
- Wyłączony
- język angielski
Mimo że halucynacje lub tendencja dużych modeli językowych (LLM), takich jak ChatGPT, do tworzenia fałszywych lub bezsensownych informacji, są powszechne, skarga noyb koncentruje się na ogólnym rozporządzeniu UE o ochronie danych (RODO). RODO reguluje sposób gromadzenia i przechowywania danych osobowych osób w bloku .
Pomimo wymogów RODO „OpenAI otwarcie przyznaje, że nie jest w stanie poprawić nieprawidłowych informacji na ChatGPT” – stwierdził noyb w oświadczeniu, dodając, że firma „nie może również powiedzieć, skąd pochodzą dane ani jakie dane o poszczególnych osobach przechowuje ChatGPT” i że „jest świadomy tego problemu, ale wydaje się, że go to nie obchodzi”.
Zgodnie z RODO osoby fizyczne w UE mają prawo do sprostowania nieprawidłowych informacji na ich temat, co powoduje, że OpenAI jest niezgodne z tą zasadą ze względu na brak możliwości poprawienia danych, stwierdziła firma Noyb w swojej skardze.
Chociaż halucynacje „mogą być tolerowane” w przypadku zadań domowych, Noyb stwierdził, że są „niedopuszczalne”, jeśli chodzi o generowanie informacji o ludziach. Osoba składająca skargę w sprawie Noyb przeciwko OpenAI to osoba publiczna, która pytała ChatGPT o swoje urodziny, ale według noyb „wielokrotnie otrzymywała nieprawidłowe informacje”. Następnie OpenAI rzekomo „odrzuciło jego prośbę o sprostowanie lub usunięcie danych, argumentując, że poprawienie danych nie jest możliwe”. Zamiast tego OpenAI rzekomo powiedział skarżącemu, że może filtrować lub blokować dane w przypadku określonych monitów, np. imienia i nazwiska składającego skargę.
Grupa zwraca się do DPA o zbadanie, w jaki sposób OpenAI przetwarza dane i w jaki sposób firma zapewnia dokładne dane osobowe podczas szkolenia swoich menedżerów LLM. noyb zwraca się również do organu ochrony danych o nakazanie OpenAI zastosowania się do wniosku składającego skargę o dostęp do danych – prawo wynikające z RODO, które wymaga od firm pokazania osobom fizycznym, jakie dane na ich temat posiadają i jakie są ich źródła.
OpenAI nie odpowiedziało natychmiast na prośbę o komentarz.
„Obowiązek stosowania się do wniosków o dostęp dotyczy wszystkich firm” – stwierdziła w oświadczeniu Maartje de Graaf, prawnik ds. ochrony danych w firmie noyb. „Bez wątpienia możliwe jest prowadzenie ewidencji danych szkoleniowych, z których korzystano, i przynajmniej posiadanie pojęcia o źródłach informacji. Wygląda na to, że przy każdej „innowacji” kolejna grupa firm uważa, że jej produkty nie muszą być zgodne z prawem.”
Nieprzestrzeganie przepisów RODO może skutkować karami w wysokości do 20 milionów euro lub 4% całkowitego rocznego obrotu – w zależności od tego, która wartość jest wyższa – a nawet większymi odszkodowaniami, jeśli osoby fizyczne zdecydują się ich dochodzić. OpenAI boryka się już z podobnymi sprawami dotyczącymi ochrony danych w państwach członkowskich UE, Włoszech i Polsce .
Ten artykuł pierwotnie ukazał się w Quartz .

