Doom vs Boom: a batalha para consagrar o futuro da IA na lei da Califórnia

Um projeto de lei da Califórnia que tenta regular grandes modelos de IA de fronteira está criando um impasse dramático sobre o futuro da IA. Durante anos, a IA foi dividida em “aceleração” e “desaceleração” . Os que aceleram querem que a IA progrida rapidamente – movam-se rapidamente e quebrem as coisas – enquanto os que desaceleram querem que o desenvolvimento da IA desacelere para o bem da humanidade. A batalha ganhou destaque nacional quando o conselho da OpenAI destituiu brevemente Sam Altman , muitos dos quais desde então se separaram da startup em nome da segurança da IA. Agora, um projeto de lei da Califórnia está tornando esta luta política.
Leitura sugerida
Leitura sugerida
- Desligado
- Inglês
O que é SB 1047?
SB 1047 é um projeto de lei do estado da Califórnia que tornaria grandes fornecedores de modelos de IA – como Meta, OpenAI, Anthropic e Mistral – responsáveis pelos perigos potencialmente catastróficos de seus sistemas de IA. O projeto, de autoria do senador estadual Scott Wiener, foi aprovado no Senado da Califórnia em maio e eliminou outro grande obstáculo para se tornar lei esta semana.
Conteúdo Relacionado
Conteúdo Relacionado
Por que eu deveria me importar?
Bem, isso poderia se tornar a primeira regulamentação real de IA nos EUA com força, e está acontecendo na Califórnia, onde estão todas as principais empresas de IA.
Wiener descreve o projeto de lei como estabelecendo “padrões de segurança claros, previsíveis e de bom senso para desenvolvedores dos maiores e mais poderosos sistemas de IA”. Nem todo mundo vê dessa forma. Muitos no Vale do Silício estão alertando que esta lei acabará com a era da IA antes que ela comece.
O que o SB 1047 realmente faz?
O SB 1047 responsabiliza os fornecedores de modelos de IA por quaisquer “danos catastróficos”, embora não esteja claro quais são. No entanto, isso é importante porque o Vale do Silício historicamente evitou a maior parte da responsabilidade pelos seus danos. O projeto de lei autoriza o Procurador-Geral da Califórnia a tomar medidas legais contra essas empresas se um de seus modelos de IA causar danos graves aos californianos.
O SB 1047 também inclui uma disposição de “desligamento” que efetivamente exige que as empresas de IA criem um interruptor de interrupção para um modelo de IA em caso de emergência.
O projeto também cria a “Divisão de Modelo de Fronteira” dentro do Departamento de Tecnologia da Califórnia. Esse grupo regulamentaria esses fornecedores fronteiriços de modelos de IA e imporia padrões de segurança que cada empresa teria de cumprir. Se as empresas não cumprirem a Divisão, poderão ser processadas e enfrentar penalidades civis.
Quem apoia este projeto de lei?
Além do Senador Wiener, dois proeminentes investigadores da IA, por vezes chamados de “Padrinhos da IA”, Geoffrey Hinton e Yoshua Bengio, colocaram os seus nomes neste projecto de lei. Esses dois têm sido muito proeminentes na emissão de alertas sobre os perigos da IA.
De forma mais ampla, este projeto de lei está alinhado com a perspetiva de desaceleração, que acredita que a IA tem uma probabilidade relativamente elevada de acabar com a humanidade e deve ser regulamentada como tal. A maioria dessas pessoas são pesquisadores de IA e não estão ativamente tentando transformar um produto de IA em commodity, já que, você sabe, eles acham que isso pode acabar com a humanidade.
O projeto é patrocinado pelo Center for AI Safety, liderado por Dan Hendrycks. O seu grupo publicou uma carta aberta em Maio de 2023 dizendo que o risco da IA para a extinção humana deveria ser levado tão a sério como as guerras nucleares ou as pandemias. Foi assinado por Sam Altman, Bill Gates, Grimes e muitas pessoas influentes da tecnologia. Eles são um grupo influente e um ator-chave na promoção deste projeto de lei.
Em Março de 2023, os desaceleradores apelaram a uma “pausa” em todo o desenvolvimento de IA para implementar infra-estruturas de segurança. Embora pareça extremo, há muitas pessoas inteligentes na comunidade de IA que realmente acreditam que a IA pode acabar com a humanidade. A ideia deles é que, se houver alguma probabilidade de a IA acabar com a humanidade, provavelmente deveríamos regulá-la estritamente, apenas por precaução.
Isso faz sentido. Então, quem é contra o SB 1047?
Se você está no X, parece que todos no Vale do Silício são contra o SB 1047. Capitalistas de risco, fundadores de startups, pesquisadores de IA e líderes da comunidade de IA de código aberto odeiam esse projeto de lei. Eu geralmente classificaria essas pessoas como aceleradas ou, pelo menos, é aí que elas abordam esse assunto. Muitos deles estão no ramo de IA, mas alguns também são pesquisadores.
O sentimento geral é que o SB 1047 poderia forçar os fornecedores de modelos de IA, como Meta e Mistral, a reduzir ou parar completamente os seus esforços de código aberto. Este projeto de lei torna-os responsáveis por maus atores que utilizam os seus modelos de IA, e estas empresas podem não assumir essa responsabilidade devido às dificuldades de impor restrições à IA generativa e à natureza aberta dos produtos.
“Isso matará, esmagará e desacelerará completamente o ecossistema de startups de código aberto”, disse Anjney Midha, sócio geral da A16Z e diretor do conselho da Mistral, em entrevista ao Gizmodo. “Este projeto de lei é semelhante a tentar reprimir o progresso na imprensa, em vez de focar onde deveria estar, que são os usos da imprensa.”
“O código aberto é a nossa melhor esperança de permanecer à frente, reunindo testes de segurança transparentes para modelos emergentes, em vez de permitir que algumas empresas poderosas controlem a IA em segredo”, disse Ion Stoica, professor de Ciência da Computação de Berkeley e presidente executivo da Databricks, em um comunicado. entrevista.
Midha e Stoica não são os únicos que consideram a regulamentação da IA algo existencial para a indústria. A IA de código aberto impulsionou o cenário de startups mais próspero do Vale do Silício em anos. Os oponentes do SB 1047 dizem que o projeto beneficiará os titulares fechados da Big Tech, em vez daquele ecossistema aberto e próspero.
“Eu realmente vejo isso como uma forma de gargalar o desenvolvimento de IA de código aberto, como parte de uma estratégia mais ampla para desacelerar a IA”, disse Jeremy Nixon, criador da AGI House, que serve como um centro para os hackathons de IA de código aberto do Vale do Silício. “O projeto de lei surge de uma comunidade que está muito interessada em interromper a IA em geral.”
Isso parece muito técnico. Os legisladores podem conseguir tudo isso?
É absolutamente técnico e isso criou alguns problemas. O SB 1047 se aplica apenas a modelos de fronteira “grandes”, mas qual é o tamanho? O projeto de lei o define como modelos de IA treinados em 10 ^ 26 FLOPS, uma quantidade específica e muito grande de poder de computação para os padrões atuais. O problema é que a IA está a crescer muito rapidamente e os modelos de última geração de 2023 parecem minúsculos em comparação com os padrões de 2024. Enfiar uma bandeira na areia não funciona bem para um campo que se move tão rapidamente.
Também não está claro se é possível impedir totalmente o mau comportamento dos sistemas de IA. A verdade é que não sabemos muito sobre como funcionam os LLMs, e os principais modelos de IA atuais da OpenAI, Anthropic e Google são desbloqueados o tempo todo. É por isso que alguns investigadores afirmam que os reguladores devem concentrar-se nos maus actores e não nos fornecedores de modelos.
“Com a IA, você precisa regular o caso de uso, a ação, e não os modelos em si”, disse Ravid Shwartz Ziv, professor assistente que estuda IA na NYU ao lado de Yann Lecunn, em entrevista. “Os melhores pesquisadores do mundo podem gastar uma quantidade infinita de tempo em um modelo de IA, e as pessoas ainda conseguem desbloqueá-lo.”
Outra parte técnica deste projeto de lei diz respeito aos modelos de IA de código aberto. Se uma startup pegar o Llama 3 da Meta, um dos modelos de IA de código aberto mais populares, e ajustá-lo para ser algo completamente diferente, a Meta ainda é responsável por esse modelo de IA? Sob este projeto de lei, parece que Meta certamente poderia ser responsabilizada, mas os oponentes do projeto consideram esta abordagem injusta e não a correta.
Pergunta rápida: A IA é realmente liberdade de expressão?
Não está claro. Muitos na comunidade de IA veem a IA de código aberto como uma espécie de liberdade de expressão (é por isso que Midha se referiu a ela como uma impressora). A premissa é que o código subjacente a um modelo de IA é uma forma de expressão e os resultados do modelo também são expressões. O código historicamente caiu sob a Primeira Emenda em vários casos.
Três professores de direito argumentaram num artigo da Lawfare que os modelos de IA não são exatamente liberdade de expressão. Por um lado, dizem que os pesos que compõem um modelo de IA não são escritos por humanos, mas criados através de vastas operações de aprendizagem automática. Os humanos mal conseguem lê-los.
Quanto aos resultados dos modelos de IA de fronteira, estes sistemas são um pouco diferentes dos algoritmos de redes sociais, que no passado foram considerados abrangidos pela Primeira Emenda. Os modelos de IA não adotam exatamente um ponto de vista, eles dizem muitas coisas. Por essa razão, estes professores de direito dizem que o SB 1047 não pode colidir com a Primeira Emenda.
Então o que vem depois?
O projeto está caminhando para uma votação que se aproxima rapidamente em agosto, o que o enviaria à mesa do governador Gavin Newsom. É preciso superar mais alguns obstáculos importantes para chegar lá e, mesmo assim, Newsom pode não assiná-lo devido à pressão do Vale do Silício. Um grande grupo comercial de tecnologia acaba de enviar a Newsom uma carta dizendo-lhe para não assinar o SB 1047.
No entanto, Newsom pode querer estabelecer um precedente para a nação em matéria de IA. Se o SB 1047 entrar em vigor, poderá mudar radicalmente o cenário da IA na América.