Pracownicy OpenAI odpowiedzialni za bezpieczeństwo skaczą ze statku

May 17 2024
Startup Sama Altmana zajmujący się sztuczną inteligencją stracił niedawno kilku kluczowych członków zespołu Superalignment, który miał czuwać nad tym, aby sztuczna inteligencja nie zepsuła się.

Prawie rok temu OpenAI uruchomiło zespół Superalignment , którego ostatecznym celem jest kontrolowanie hipotetycznych superinteligentnych systemów sztucznej inteligencji i zapobieganie ich zwróceniu się przeciwko ludziom. Naturalnie wiele osób było zaniepokojonych – po co w ogóle istniał taki zespół? Teraz wydarzyło się coś bardziej niepokojącego: liderzy zespołu, Ilya Sutskever i Jan Leike , właśnie opuścili OpenAI.

Rezygnacja kierownictwa Superalignment jest najnowszym z serii znaczących odejścia z firmy, z których część miała miejsce w zespole Sutskevera i Leike'a zajmującym się bezpieczeństwem. W listopadzie 2023 r. Sutskever i zarząd OpenAI podjęli nieudaną próbę obalenia dyrektora generalnego Sama Altmana. Sześć miesięcy później firmę opuściło kilku pracowników OpenAI, którzy albo otwarcie wypowiadali się na temat bezpieczeństwa sztucznej inteligencji, albo pracowali w kluczowych zespołach ds. bezpieczeństwa.

W końcu Sutskever przeprosił za zamach stanu (moja wina, stary!) i podpisał list wraz z 738 pracownikami OpenAI (spośród 770 ogółem) z prośbą o przywrócenie Altmana i prezydenta Grega Brockmana. Jednakże, zgodnie z kopią listu uzyskaną przez The New York Times z 702 podpisami (najbardziej kompletny egzemplarz publiczny, jaki Gizmodo mógł znaleźć), kilku pracowników, którzy teraz odeszli, albo nie podpisało się pod wyrazem poparcia dla przywództwa OpenAI, albo okazywało opóźnienia Zrób tak.

Nazwiska członków zespołu Superalignment, Jana Leike, Leopolda Aschenbrennera i Williama Saundersa – którzy odeszli – nie pojawiają się w egzemplarzu „Los Angeles Times” obok ponad 700 innych pracowników OpenAI okazujących poparcie dla Altmana i Brockmana . Światowej sławy badacz sztucznej inteligencji Andrej Karpathy oraz byli pracownicy OpenAI Daniel Kokotajlo i Cullen O'Keefe również nie pojawiają się we wczesnej wersji listu i od tego czasu opuścili OpenAI. Osoby te mogły podpisać późniejszą wersję listu, aby zasygnalizować wsparcie, ale jeśli tak, wydaje się, że zrobiły to jako ostatnie.

Gizmodo skontaktował się z OpenAI z prośbą o komentarz na temat tego, kto odtąd będzie kierować zespołem Superalignment, ale nie otrzymaliśmy od razu odpowiedzi.

Mówiąc szerzej, bezpieczeństwo w OpenAI zawsze powodowało podziały. To właśnie spowodowało, że Dario i Daniela Amodei w 2021 roku założyli własną firmę zajmującą się sztuczną inteligencją , Anthropic, wraz z dziewięcioma innymi byłymi pracownikami OpenAI. Podobno obawy dotyczące bezpieczeństwa skłoniły członków zarządu OpenAI non-profit do usunięcia Altmana i Brockmana. Członkowie zarządu zostali zastąpieni przez kilku niesławnych przedsiębiorców z Doliny Krzemowej.

W OpenAI nadal wiele osób pracuje w firmie nad bezpieczeństwem. W końcu misją startupu jest bezpieczne stworzenie AGI, które przyniesie korzyści ludzkości! To powiedziawszy, oto bieżąca lista Gizmodo znanych zwolenników bezpieczeństwa sztucznej inteligencji, którzy opuścili OpenAI po obaleniu Altmana. Kliknij na komputerze lub po prostu przewijaj na urządzeniu mobilnym.