Doom vs Boom: la battaglia per sancire il futuro dell'intelligenza artificiale nella legge della California

Jun 24 2024
Ecco tutto ciò che devi sapere sulla nuova legge sull'intelligenza artificiale della California e sulla lotta per accelerare o rallentare l'intelligenza artificiale che si sta riversando nella politica.

Un disegno di legge della California che tenta di regolamentare i grandi modelli di intelligenza artificiale di frontiera sta creando un drammatico stallo sul futuro dell’intelligenza artificiale. Per anni l’intelligenza artificiale è stata divisa in “accel” e “decel” . Gli acceleratori vogliono che l’IA progredisca rapidamente – si muova velocemente e rompa le cose – mentre i deceleratori vogliono che lo sviluppo dell’IA rallenti per il bene dell’umanità. La battaglia è finita sotto i riflettori nazionali quando il consiglio di amministrazione di OpenAI ha estromesso brevemente Sam Altman , molti dei quali da allora si sono separati dalla startup in nome della sicurezza dell'IA. Ora un disegno di legge della California sta rendendo questa lotta politica.

Lettura consigliata

AI questa settimana: il grande disastro TOS di Zoom
Le persone si innamoreranno del Flirty GPT-4 Omni
OpenAI afferma che Sora verrà lanciato nel 2024 e che i video di nudo non sono fuori discussione

Lettura consigliata

AI questa settimana: il grande disastro TOS di Zoom
Le persone si innamoreranno del Flirty GPT-4 Omni
OpenAI afferma che Sora verrà lanciato nel 2024 e che i video di nudo non sono fuori discussione
Le amiche AI ​​non sono tutte cattive | IA sbloccata
Condividere
Sottotitoli
  • Spento
  • Inglese
Condividi questo video
FacebookTwitterE - mail
Collegamento Reddit
Le amiche AI ​​non sono tutte cattive | IA sbloccata

Cos'è l'SB 1047?

SB 1047 è un disegno di legge dello stato della California che renderebbe i grandi fornitori di modelli di intelligenza artificiale – come Meta, OpenAI, Anthropic e Mistral – responsabili dei pericoli potenzialmente catastrofici dei loro sistemi di intelligenza artificiale. Il disegno di legge, redatto dal senatore dello stato Scott Wiener, è passato al Senato della California a maggio e ha superato un altro grosso ostacolo verso la sua trasformazione in legge questa settimana.

Contenuto relativo

Sembra proprio che i governi vogliano lasciare che la sorveglianza dell’intelligenza artificiale si scateni
Google e Microsoft offrono miseri 10 milioni di dollari per proteggere il mondo dall’intelligenza artificiale

Contenuto relativo

Sembra proprio che i governi vogliano lasciare che la sorveglianza dell’intelligenza artificiale si scateni
Google e Microsoft offrono miseri 10 milioni di dollari per proteggere il mondo dall’intelligenza artificiale

Perchè dovrebbe interessarmi?

Ebbene, potrebbe diventare la prima vera regolamentazione sull'intelligenza artificiale negli Stati Uniti con qualche efficacia, e sta accadendo in California, dove hanno sede tutte le principali aziende di intelligenza artificiale.

Wiener descrive il disegno di legge come la definizione di “standard di sicurezza chiari, prevedibili e basati sul buon senso per gli sviluppatori dei sistemi di intelligenza artificiale più grandi e potenti”. Non tutti però la vedono così. Molti nella Silicon Valley stanno lanciando campanelli d’allarme sul fatto che questa legge ucciderà l’era dell’intelligenza artificiale prima che inizi.

Cosa fa effettivamente SB 1047?

L'SB 1047 rende i fornitori di modelli di intelligenza artificiale responsabili di eventuali "danni catastrofici", anche se non è chiaro quali siano. Tuttavia, questo è un dato importante perché la Silicon Valley storicamente ha eluso la maggior parte delle responsabilità per i suoi danni. Il disegno di legge autorizza il procuratore generale della California a intraprendere azioni legali contro queste società se uno dei loro modelli di intelligenza artificiale provoca gravi danni ai californiani.

L’SB 1047 include anche una disposizione di “spegnimento” che richiede effettivamente alle società di intelligenza artificiale di creare un kill switch per un modello di intelligenza artificiale in caso di emergenza.

Il disegno di legge crea anche la “Frontier Model Division” all'interno del Dipartimento di Tecnologia della California. Quel gruppo regolerebbe questi fornitori di modelli di intelligenza artificiale di frontiera e applicherebbe gli standard di sicurezza che ciascuna azienda dovrebbe rispettare. Se le imprese non si attengono alla Divisione, potrebbero essere citate in giudizio e affrontare sanzioni civili.

Chi sostiene questo disegno di legge?

Oltre al senatore Wiener, due eminenti ricercatori sull’intelligenza artificiale che a volte vengono chiamati i “padrini dell’intelligenza artificiale”, Geoffrey Hinton e Yoshua Bengio, hanno messo i loro nomi su questo disegno di legge. Questi due sono stati molto importanti nel lanciare appelli di avvertimento sui pericoli dell'intelligenza artificiale.

Più in generale, questo disegno di legge è in linea con la prospettiva del decel, secondo cui l’intelligenza artificiale ha una probabilità relativamente alta di porre fine all’umanità e dovrebbe essere regolamentata come tale. La maggior parte di queste persone sono ricercatori di intelligenza artificiale e non cercano attivamente di mercificare un prodotto di intelligenza artificiale poiché, sai, pensano che potrebbe porre fine all'umanità.

Il disegno di legge è sponsorizzato dal Center for AI Safety, guidato da Dan Hendrycks. Il suo gruppo ha pubblicato una lettera aperta nel maggio 2023 affermando che il rischio di estinzione umana rappresentato dall’intelligenza artificiale dovrebbe essere preso sul serio quanto le guerre nucleari o le pandemie. È stato firmato da Sam Altman, Bill Gates, Grimes e da moltissime persone influenti nel campo della tecnologia. Sono un gruppo influente e un attore chiave nella promozione di questo disegno di legge.

Nel marzo 2023, le decelerazioni hanno chiesto una “pausa” su tutto lo sviluppo dell’intelligenza artificiale per implementare l’infrastruttura di sicurezza. Anche se sembra estremo, ci sono molte persone intelligenti nella comunità dell’intelligenza artificiale che credono davvero che l’intelligenza artificiale possa porre fine all’umanità. La loro idea è che se esiste una qualche probabilità che l’intelligenza artificiale metta fine all’umanità, probabilmente dovremmo regolamentarla rigorosamente, per ogni evenienza.

Ciò ha senso. Allora chi è contro SB 1047?

Se sei su X, sembra che tutti nella Silicon Valley siano contrari all'SB 1047. I venture capitalist, i fondatori di startup, i ricercatori di intelligenza artificiale e i leader della comunità di intelligenza artificiale open source odiano questo disegno di legge. Generalmente classificherei queste persone come accel, o almeno, è lì che arrivano a questo problema. Molti di loro lavorano nel settore dell’intelligenza artificiale, ma alcuni sono anche ricercatori.

Il sentimento generale è che SB 1047 potrebbe costringere i fornitori di modelli di intelligenza artificiale come Meta e Mistral a ridimensionare, o a interrompere completamente, i loro sforzi open source. Questo disegno di legge li rende responsabili dei cattivi attori che utilizzano i loro modelli di intelligenza artificiale e queste aziende potrebbero non assumersi tale responsabilità a causa delle difficoltà nel porre restrizioni all’intelligenza artificiale generativa e alla natura aperta dei prodotti.

"Ucciderà, schiaccerà e rallenterà completamente l'ecosistema delle startup open source", ha affermato Anjney Midha, socio generale di A16Z e direttore del consiglio di amministrazione di Mistral, in un'intervista a Gizmodo. “Questo disegno di legge è come cercare di limitare il progresso della macchina da stampa, invece di concentrarsi su dove dovrebbe essere, ovvero gli usi della macchina da stampa”.

“L’open source è la nostra migliore speranza per rimanere all’avanguardia riunendo test di sicurezza trasparenti per i modelli emergenti, piuttosto che lasciare che poche potenti aziende controllino l’intelligenza artificiale in segreto”, ha affermato Ion Stoica, professore di informatica a Berkeley e presidente esecutivo di Databricks, in un colloquio.

Midha e Stoica non sono gli unici a considerare la regolamentazione dell’IA come un fattore esistenziale per il settore. L'intelligenza artificiale open source ha alimentato la scena delle startup più fiorente della Silicon Valley negli ultimi anni. Gli oppositori della SB 1047 affermano che il disegno di legge andrà a vantaggio degli operatori storici chiusi di Big Tech invece di quel fiorente ecosistema aperto.

"Lo vedo davvero come un modo per ostacolare lo sviluppo dell'intelligenza artificiale open source, come parte di una strategia più ampia per rallentare l'intelligenza artificiale", ha affermato Jeremy Nixon, creatore dell'AGI House, che funge da hub per gli hackathon di intelligenza artificiale open source della Silicon Valley. "Il disegno di legge nasce da una comunità molto interessata a sospendere l'intelligenza artificiale in generale."

Sembra davvero tecnico. I legislatori possono essere così severi?

È assolutamente tecnico e questo ha creato alcuni problemi. SB 1047 si applica solo ai modelli di frontiera “grandi”, ma quanto è grande? Il disegno di legge lo definisce come modelli di intelligenza artificiale addestrati su 10 ^ 26 FLOPS, una quantità specifica e molto grande di potenza di calcolo secondo gli standard odierni. Il problema è che l’intelligenza artificiale sta crescendo molto rapidamente e i modelli all’avanguardia del 2023 sembrano minuscoli rispetto agli standard del 2024. Attaccare una bandiera nella sabbia non funziona bene per un campo che si muove così velocemente.

Inoltre, non è chiaro se sia possibile impedire completamente il comportamento anomalo dei sistemi di intelligenza artificiale. La verità è che non sappiamo molto su come funzionano i LLM e i principali modelli di intelligenza artificiale di oggi di OpenAI, Anthropic e Google vengono continuamente sottoposti a jailbreak. Ecco perché alcuni ricercatori sostengono che i regolatori dovrebbero concentrarsi sui cattivi attori, non sui fornitori di modelli.

“Con l’intelligenza artificiale, è necessario regolare il caso d’uso, l’azione e non i modelli stessi”, ha affermato in un’intervista Ravid Shwartz Ziv, un professore assistente che studia intelligenza artificiale alla New York University insieme a Yann Lecunn. "I migliori ricercatori al mondo possono dedicare infinite quantità di tempo a un modello di intelligenza artificiale e le persone sono ancora in grado di eseguirne il jailbreak."

Un altro aspetto tecnico di questo disegno di legge riguarda i modelli di intelligenza artificiale open source. Se una startup prende Llama 3 di Meta, uno dei modelli di intelligenza artificiale open source più popolari, e lo perfeziona per renderlo qualcosa di completamente diverso, Meta è ancora responsabile di quel modello di intelligenza artificiale? Secondo questo disegno di legge, sembra che Meta possa certamente essere ritenuto responsabile, ma gli oppositori del disegno di legge ritengono che questo approccio sia ingiusto e non giusto.

Domanda veloce: l’intelligenza artificiale è effettivamente libertà di parola?

Non chiaro. Molti nella comunità dell'intelligenza artificiale vedono l'intelligenza artificiale open source come una sorta di libertà di parola (ecco perché Midha la chiamava una macchina da stampa). La premessa è che il codice alla base di un modello di intelligenza artificiale è una forma di espressione e anche gli output del modello sono espressioni. Il Codice è storicamente soggetto al Primo Emendamento in diversi casi.

Tre professori di diritto hanno sostenuto in un articolo di Lawfare che i modelli di intelligenza artificiale non sono esattamente libertà di parola. Per prima cosa, dicono che i pesi che compongono un modello di intelligenza artificiale non sono scritti dagli esseri umani ma creati attraverso vaste operazioni di apprendimento automatico. Gli esseri umani riescono a malapena a leggerli.

Per quanto riguarda i risultati dei modelli di intelligenza artificiale di frontiera, questi sistemi sono leggermente diversi dagli algoritmi dei social media, che in passato si riteneva rientrassero nel Primo Emendamento. I modelli di intelligenza artificiale non hanno esattamente un punto di vista, dicono molte cose. Per questo motivo, questi professori di diritto affermano che l’SB 1047 potrebbe non interferire con il Primo Emendamento.

Allora, qual è il prossimo?

Il disegno di legge sta correndo verso un voto di agosto che si avvicina rapidamente e manderebbe il disegno di legge sulla scrivania del governatore Gavin Newsom. Bisogna superare alcuni altri ostacoli chiave per arrivarci, e anche allora Newsom potrebbe non firmarlo a causa delle pressioni della Silicon Valley. Un grande gruppo commerciale tecnologico ha appena inviato a Newsom una lettera dicendogli di non firmare SB 1047.

Tuttavia, Newsom potrebbe voler creare un precedente per la nazione sull’intelligenza artificiale. Se l’SB 1047 entrasse in vigore, potrebbe cambiare radicalmente il panorama dell’intelligenza artificiale in America.