Doom vs Boom: bitwa o zapisanie przyszłości sztucznej inteligencji w prawie kalifornijskim

Kalifornijska ustawa, która próbuje uregulować duże, graniczne modele sztucznej inteligencji, powoduje dramatyczny konflikt w sprawie przyszłości sztucznej inteligencji. Od lat sztuczną inteligencję dzieli się na „przyspieszanie” i „zwalnianie” . Akceleratorzy chcą, aby sztuczna inteligencja szybko się rozwijała – poruszała się szybko i niszczyła rzeczy – podczas gdy zwalniacze chcieli spowolnienia rozwoju sztucznej inteligencji dla dobra ludzkości. Bitwa znalazła się w centrum uwagi całego kraju, gdy zarząd OpenAI na krótko usunął Sama Altmana , z których wielu odeszło od startupu w imię bezpieczeństwa sztucznej inteligencji. Teraz kalifornijska ustawa nadaje tej walce charakter polityczny.
Sugerowane czytanie
Sugerowane czytanie
- Wyłączony
- język angielski
Co to jest SB 1047?
SB 1047 to ustawa stanu Kalifornia, która nakłada na dużych dostawców modeli sztucznej inteligencji, takich jak Meta, OpenAI, Anthropic i Mistral, odpowiedzialność za potencjalnie katastrofalne zagrożenia związane z ich systemami sztucznej inteligencji. Projekt ustawy, którego autorem jest senator stanowy Scott Wiener, przeszedł przez Senat Kalifornii w maju i w tym tygodniu usunął kolejną poważną przeszkodę na drodze do wejścia w życie ustawy.
powiązana zawartość
powiązana zawartość
Czemu miało by mi zależeć?
Cóż, mogłoby to stać się pierwszym prawdziwym rozporządzeniem dotyczącym sztucznej inteligencji w USA, a dzieje się to w Kalifornii, gdzie mieszczą się wszystkie główne firmy zajmujące się sztuczną inteligencją.
Wiener opisuje projekt ustawy jako ustanawiający „jasne, przewidywalne, zdroworozsądkowe standardy bezpieczeństwa dla twórców największych i najpotężniejszych systemów sztucznej inteligencji”. Nie każdy jednak tak to widzi. Wiele osób w Dolinie Krzemowej podnosi sygnał alarmowy, że to prawo zabije erę sztucznej inteligencji, zanim się ona rozpocznie.
Co właściwie robi SB 1047?
Artykuł SB 1047 nakłada na dostawców modeli sztucznej inteligencji odpowiedzialność za wszelkie „katastrofalne szkody”, chociaż nie jest jasne, jakie to są szkody. Niemniej jednak jest to duże wydarzenie, ponieważ Dolina Krzemowa w przeszłości uchylała się od większości odpowiedzialności za wyrządzone szkody. Ustawa upoważnia prokuratora generalnego Kalifornii do podjęcia kroków prawnych przeciwko tym firmom, jeśli jeden z ich modeli sztucznej inteligencji wyrządzi poważną szkodę Kalifornijczykom.
SB 1047 zawiera również przepis dotyczący „wyłączenia”, który w rzeczywistości wymaga od firm zajmujących się sztuczną inteligencją stworzenia wyłącznika awaryjnego dla modelu sztucznej inteligencji w przypadku sytuacji awaryjnej.
Ustawa tworzy także „Frontier Model Division” w ramach Departamentu Technologii Kalifornii. Grupa ta miałaby regulować tych pionierskich dostawców modeli sztucznej inteligencji i egzekwować standardy bezpieczeństwa, których każda firma musiałaby przestrzegać. Jeśli przedsiębiorstwa nie zastosują się do postanowień Wydziału, mogą zostać pozwane i grozić im kary cywilne.
Kto popiera tę ustawę?
Oprócz senatora Wienera na tej ustawie swoje nazwiska umieścili dwaj wybitni badacze sztucznej inteligencji, nazywani czasami „ojcami chrzestnymi sztucznej inteligencji”, Geoffrey Hinton i Yoshua Bengio. Ci dwaj odegrali bardzo znaczącą rolę w wydawaniu ostrzeżeń o zagrożeniach związanych ze sztuczną inteligencją.
Mówiąc szerzej, ustawa ta jest zgodna z perspektywą spowolnienia, zgodnie z którą sztuczna inteligencja ma stosunkowo wysokie prawdopodobieństwo wymarcia ludzkości i jako taka powinna być uregulowana. Większość z tych osób to badacze sztucznej inteligencji, którzy nie próbują aktywnie utowarowić produktu AI, ponieważ, jak wiecie, uważają, że może to zakończyć ludzkość.
Projekt ustawy jest sponsorowany przez Centrum Bezpieczeństwa AI, na którego czele stoi Dan Hendrycks. W maju 2023 r. jego grupa opublikowała list otwarty, w którym stwierdziła, że ryzyko wyginięcia ludzkości spowodowane sztuczną inteligencją należy traktować tak samo poważnie, jak wojny nuklearne czy pandemie. Podpisali go Sam Altman, Bill Gates, Grimes i wielu wpływowych osobistości z branży technologicznej. Są wpływową grupą i kluczowym graczem w promowaniu tej ustawy.
W marcu 2023 r. decel wezwał do „wstrzymania” wszelkich prac nad rozwojem sztucznej inteligencji w celu wdrożenia infrastruktury bezpieczeństwa. Choć brzmi to ekstremalnie, w społeczności sztucznej inteligencji jest wielu mądrych ludzi, którzy naprawdę wierzą, że sztuczna inteligencja może zakończyć ludzkość. Ich pomysł jest taki, że jeśli istnieje jakiekolwiek prawdopodobieństwo, że sztuczna inteligencja zakończy ludzkość, prawdopodobnie powinniśmy to ściśle uregulować, na wszelki wypadek.
To ma sens. Kto więc jest przeciw SB 1047?
Jeśli jesteś na platformie X, wydaje się, że wszyscy w Dolinie Krzemowej są przeciwni ustawie SB 1047. Inwestorzy kapitału wysokiego ryzyka, założyciele startupów, badacze sztucznej inteligencji i liderzy społeczności zajmującej się sztuczną inteligencją typu open source nienawidzą tej ustawy. Ogólnie sklasyfikowałbym tych ludzi jako akceleratorów, a przynajmniej tam właśnie lądują w tej kwestii. Wielu z nich zajmuje się sztuczną inteligencją, ale niektórzy są także badaczami.
Ogólne przekonanie jest takie, że SB 1047 może zmusić dostawców modeli sztucznej inteligencji, takich jak Meta i Mistral, do ograniczenia lub całkowitego zaprzestania wysiłków w zakresie oprogramowania open source. Ta ustawa nakłada na nie odpowiedzialność za złe podmioty korzystające z ich modeli sztucznej inteligencji, a firmy te mogą nie wziąć na siebie tej odpowiedzialności ze względu na trudności z nakładaniem ograniczeń na generatywną sztuczną inteligencję oraz otwarty charakter produktów.
„To całkowicie zabije, zmiażdży i spowolni ekosystem startupów typu open source” – powiedziała Anjney Midha, partner generalny A16Z i dyrektor zarządu Mistral, w wywiadzie dla Gizmodo. „Ta ustawa przypomina próbę zahamowania postępu w prasie drukarskiej, zamiast skupiać się na tym, gdzie powinien się on znajdować, czyli na zastosowaniach prasy drukarskiej”.
„Open source to nasza największa nadzieja na pozostanie w czołówce poprzez połączenie przejrzystych testów bezpieczeństwa dla powstających modeli, zamiast pozwalać kilku potężnym firmom na kontrolowanie sztucznej inteligencji w tajemnicy” – powiedział Ion Stoica, profesor informatyki w Berkeley i prezes wykonawczy Databricks, w wywiad.
Midha i Stoica nie są jedynymi, którzy postrzegają regulacje dotyczące sztucznej inteligencji jako egzystencjalne dla branży. Sztuczna inteligencja typu open source od lat napędza najbardziej kwitnącą scenę start-upów w Dolinie Krzemowej. Przeciwnicy ustawy SB 1047 twierdzą, że ustawa przyniesie korzyści zamkniętym podmiotom Big Tech, a nie kwitnącemu, otwartemu ekosystemowi.
„Naprawdę postrzegam to jako sposób na zablokowanie rozwoju sztucznej inteligencji o otwartym kodzie źródłowym i część szerszej strategii spowalniania sztucznej inteligencji” – powiedział Jeremy Nixon, twórca AGI House, który służy jako centrum hackatonów dotyczących sztucznej inteligencji o otwartym kodzie źródłowym w Dolinie Krzemowej. „Ustawa wyszła od społeczności, która jest bardzo zainteresowana wstrzymywaniem sztucznej inteligencji w ogóle”.
To brzmi naprawdę technicznie. Czy prawodawcy mogą to wszystko osiągnąć?
Jest to absolutnie kwestia techniczna, co powoduje pewne problemy. SB 1047 dotyczy tylko „dużych” modeli granicznych, ale jak duży jest duży? Ustawa definiuje ją jako modele AI trenowane na 10^26 FLOPS, czyli konkretnej i bardzo dużej mocy obliczeniowej jak na dzisiejsze standardy. Problem w tym, że sztuczna inteligencja rozwija się bardzo szybko, a najnowocześniejsze modele z 2023 roku wydają się malutkie w porównaniu ze standardami z 2024 roku. Wbijanie flagi w piasek nie działa dobrze w przypadku pola poruszającego się tak szybko.
Nie jest również jasne, czy możliwe jest w ogóle całkowite zapobieganie nieprawidłowemu działaniu systemów AI. Prawda jest taka, że nie wiemy zbyt wiele o działaniu LLM, a dzisiejsze wiodące modele sztucznej inteligencji z OpenAI, Anthropic i Google są cały czas po jailbreaku. Dlatego niektórzy badacze twierdzą, że organy regulacyjne powinny skoncentrować się na złych aktorach, a nie na dostawcach modeli.
„W przypadku sztucznej inteligencji należy regulować przypadek użycia, działanie, a nie same modele” – powiedział w wywiadzie Ravid Shwartz Ziv, adiunkt studiujący sztuczną inteligencję na Uniwersytecie Nowojorskim wraz z Yannem Lecunnem. „Najlepsi badacze na świecie mogą spędzić nieskończoną ilość czasu nad modelem sztucznej inteligencji, a ludzie nadal są w stanie go jailbreakować”.
Kolejny techniczny element tej ustawy dotyczy modeli sztucznej inteligencji typu open source. Jeśli startup bierze Meta's Llama 3, jeden z najpopularniejszych modeli sztucznej inteligencji typu open source, i dostraja go tak, aby był czymś zupełnie innym, czy Meta nadal jest odpowiedzialna za ten model sztucznej inteligencji? Wydaje się, że na mocy tej ustawy Meta z pewnością mogłaby zostać pociągnięta do odpowiedzialności, jednak przeciwnicy ustawy uważają to za niesprawiedliwe i niewłaściwe podejście.
Szybkie pytanie: czy sztuczna inteligencja to rzeczywiście wolność słowa?
Niejasny. Wielu członków społeczności AI postrzega sztuczną inteligencję typu open source jako rodzaj wolności słowa (dlatego Midha nazywała ją prasą drukarską). Założenie jest takie, że kod leżący u podstaw modelu sztucznej inteligencji jest formą ekspresji, a wyniki modelu również są wyrażeniami. W przeszłości Kodeks w kilku przypadkach podlegał Pierwszej Poprawce.
Trzej profesorowie prawa argumentowali w artykule w Lawfare , że modele sztucznej inteligencji nie są do końca wolnością słowa. Po pierwsze, twierdzą, że wagi tworzące model sztucznej inteligencji nie są pisane przez ludzi, ale tworzone w wyniku szeroko zakrojonych operacji uczenia maszynowego. Ludzie ledwo są w stanie je przeczytać.
Jeśli chodzi o wyniki pionierskich modeli sztucznej inteligencji, systemy te różnią się nieco od algorytmów mediów społecznościowych, które w przeszłości uznawano za objęte Pierwszą Poprawką. Modele AI nie odzwierciedlają konkretnego punktu widzenia, mówią wiele rzeczy. Z tego powodu ci profesorowie prawa twierdzą, że SB 1047 nie może mieć wpływu na Pierwszą Poprawkę.
Więc, co dalej?
Projekt ustawy zmierza ku szybko zbliżającemu się sierpniowemu głosowaniu, które wyśle projekt ustawy na biurko gubernatora Gavina Newsoma. Aby to osiągnąć, musi pokonać jeszcze kilka kluczowych przeszkód, a nawet wtedy Newsom może nie podpisać umowy z powodu nacisków ze strony Doliny Krzemowej. Duża grupa branżowa z branży technologicznej właśnie wysłała Newsomowi list, w którym zastrzegła mu, aby nie podpisywał ustawy SB 1047.
Jednak Newsom może chcieć stworzyć precedens dla narodu w zakresie sztucznej inteligencji. Jeśli SB 1047 wejdzie w życie, może radykalnie zmienić krajobraz sztucznej inteligencji w Ameryce.

