OpenAI podobno rozwiązuje swój zespół ds. ryzyka egzystencjalnego AI

Według doniesień Wired , zespół OpenAI Superalignment, którego zadaniem jest kontrolowanie egzystencjalnego zagrożenia stwarzanego przez nadludzki system sztucznej inteligencji, został rozwiązany . Wiadomość nadeszła zaledwie kilka dni po tym, jak założyciele zespołu, Ilya Sutskever i Jan Leike, jednocześnie odeszli z firmy .
powiązana zawartość
Wired donosi, że zespół OpenAI Superalignment, uruchomiony po raz pierwszy w lipcu 2023 r., aby zapobiec zbójnictwu nadludzkich systemów sztucznej inteligencji w przyszłości, już nie istnieje. W raporcie stwierdza się, że prace grupy zostaną wchłonięte przez inne wysiłki badawcze OpenAI. Według Wired badania nad zagrożeniami związanymi z potężniejszymi modelami sztucznej inteligencji będą teraz prowadzone przez współzałożyciela OpenAI, Johna Schulmana. Sutskever i Leike byli jednymi z czołowych naukowców OpenAI zajmujących się zagrożeniami związanymi ze sztuczną inteligencją.
powiązana zawartość
- Wyłączony
- język angielski
Leike opublikował długi wątek w X piątek, w którym niejasno wyjaśniał, dlaczego opuścił OpenAI. Mówi, że od jakiegoś czasu walczy z kierownictwem OpenAI o podstawowe wartości, ale w tym tygodniu osiągnął punkt zwrotny. Leike zauważył, że zespół Superaligment „płynie pod wiatr”, usiłując uzyskać wystarczającą ilość danych obliczeniowych do kluczowych badań. Uważa, że OpenAI musi bardziej skoncentrować się na bezpieczeństwie, ochronie i dostosowaniu.
Zespół ds. komunikacji OpenAI skierował nas do tweeta Sama Altmana, gdy zapytano go, czy zespół Superalignment został rozwiązany. Altman twierdzi, że w ciągu najbliższych kilku dni napisze dłuższy post, a OpenAI ma „dużo więcej do zrobienia”. Tweet tak naprawdę nie jest odpowiedzią na nasze pytanie.
„Obecnie nie mamy rozwiązania umożliwiającego sterowanie lub kontrolowanie potencjalnie superinteligentnej sztucznej inteligencji, a także zapobieganie jej nieuczciwemu działaniu” – stwierdził zespół Superalignment w poście na blogu OpenAI po jego uruchomieniu w lipcu . „Ale ludzie nie będą w stanie niezawodnie nadzorować systemów sztucznej inteligencji znacznie mądrzejsi od nas, dlatego nasze obecne techniki dostosowywania nie będą skalowane do superinteligencji. Potrzebujemy nowych przełomów naukowych i technicznych.”
Nie jest obecnie jasne, czy taka sama uwaga zostanie poświęcona przełomom technicznym. Niewątpliwie w OpenAI istnieją inne zespoły skupione na bezpieczeństwie. Zespół Schulmana, który podobno przejmuje obowiązki Superalignment, jest obecnie odpowiedzialny za dostrajanie modeli AI po szkoleniach. Jednak Superalignment skupiał się szczególnie na najpoważniejszych skutkach zbuntowanej sztucznej inteligencji. Jak zauważył wczoraj Gizmodo, kilku najbardziej zagorzałych zwolenników bezpieczeństwa sztucznej inteligencji w OpenAI zrezygnowało lub zostało zwolnionych w ciągu ostatnich kilku miesięcy.
Na początku tego roku grupa opublikowała znaczący artykuł badawczy na temat kontrolowania dużych modeli sztucznej inteligencji za pomocą mniejszych modeli sztucznej inteligencji , co jest uważane za pierwszy krok w kierunku kontrolowania superinteligentnych systemów sztucznej inteligencji. Nie jest jasne, kto podejmie kolejne kroki w ramach tych projektów w OpenAI.
Startup Sama Altmana z AI rozpoczął się w tym tygodniu od zaprezentowania GPT-4 Omni , najnowszego, pionierskiego modelu firmy, który charakteryzował się bardzo niskimi opóźnieniami, co brzmiało bardziej ludzko niż kiedykolwiek. Wielu pracowników OpenAI zauważyło, że najnowszy model sztucznej inteligencji bardziej niż kiedykolwiek był bliższy elementom science fiction, a zwłaszcza filmowi „Ona”.

