Doom vs Boom: la batalla para consagrar el futuro de la IA en la ley de California

Jun 24 2024
Aquí encontrará todo lo que necesita saber sobre el nuevo proyecto de ley de IA de California y la lucha para acelerar o frenar la IA que se está extendiendo a la política.

Un proyecto de ley de California que intenta regular los modelos de IA de gran frontera está creando un dramático enfrentamiento sobre el futuro de la IA. Durante años, la IA se ha dividido en “aceleración” y “desaceleración” . Las aceleraciones quieren que la IA progrese rápidamente (se mueva rápido y rompa cosas), mientras que las desaceleraciones quieren que el desarrollo de la IA se ralentice por el bien de la humanidad. La batalla se convirtió en el centro de atención nacional cuando la junta directiva de OpenAI derrocó brevemente a Sam Altman , muchos de los cuales desde entonces se separaron de la startup en nombre de la seguridad de la IA. Ahora, un proyecto de ley de California está volviendo política esta lucha.

Lectura sugerida

IA esta semana: el gran desastre de los TOS de Zoom
La gente se enamorará del Flirty GPT-4 Omni
OpenAI dice que Sora se lanzará en 2024 y los videos de desnudos no están descartados

Lectura sugerida

IA esta semana: el gran desastre de los TOS de Zoom
La gente se enamorará del Flirty GPT-4 Omni
OpenAI dice que Sora se lanzará en 2024 y los videos de desnudos no están descartados
Las novias con IA no son del todo malas | IA desbloqueada
Compartir
Subtítulos
  • Apagado
  • Inglés
Comparte este video
Facebook Twitter Correo electrónico
Enlace Reddit
Las novias con IA no son del todo malas | IA desbloqueada

¿Qué es la SB 1047?

La SB 1047 es un proyecto de ley del estado de California que haría responsables a los grandes proveedores de modelos de IA, como Meta, OpenAI, Anthropic y Mistral, de los peligros potencialmente catastróficos de sus sistemas de IA. El proyecto de ley, escrito por el senador estatal Scott Wiener, fue aprobado por el Senado de California en mayo y superó otro obstáculo importante para convertirse en ley esta semana.

contenido relacionado

Seguro que parece que los gobiernos quieren dejar que la vigilancia mediante IA se vuelva loca
Google y Microsoft ofrecen miserables 10 millones de dólares para proteger al mundo de la IA

contenido relacionado

Seguro que parece que los gobiernos quieren dejar que la vigilancia mediante IA se vuelva loca
Google y Microsoft ofrecen miserables 10 millones de dólares para proteger al mundo de la IA

¿Por qué debería importarme?

Bueno, podría convertirse en la primera regulación real de IA en los EE. UU. con fuerza, y está ocurriendo en California, donde están las principales empresas de IA.

Wiener describe el proyecto de ley como el establecimiento de “estándares de seguridad claros, predecibles y de sentido común para los desarrolladores de los sistemas de inteligencia artificial más grandes y poderosos”. Aunque no todo el mundo lo ve así. Muchos en Silicon Valley están haciendo sonar la alarma de que esta ley acabará con la era de la IA antes de que comience.

¿Qué hace realmente la SB 1047?

La SB 1047 responsabiliza a los proveedores de modelos de IA por cualquier “daño catastrófico”, aunque no está claro cuáles son. Sin embargo, eso es importante porque históricamente Silicon Valley ha evadido la mayor parte de la responsabilidad por sus daños. El proyecto de ley faculta al Fiscal General de California a emprender acciones legales contra estas empresas si uno de sus modelos de IA causa daños graves a los californianos.

La SB 1047 también incluye una disposición de “apagado” que efectivamente requiere que las empresas de IA creen un interruptor de apagado para un modelo de IA en caso de una emergencia.

El proyecto de ley también crea la “División Modelo Fronterizo” dentro del Departamento de Tecnología de California. Ese grupo regularía estos proveedores de modelos de IA fronterizos y haría cumplir los estándares de seguridad que cada empresa tendría que cumplir. Si las empresas no cumplen con la División, podrían ser demandadas y enfrentar sanciones civiles.

¿Quién apoya este proyecto de ley?

Además del senador Wiener, dos destacados investigadores de IA a quienes a veces se les llama los “padrinos de la IA”, Geoffrey Hinton y Yoshua Bengio, pusieron sus nombres en este proyecto de ley. Estos dos han sido muy destacados a la hora de emitir llamadas de advertencia sobre los peligros de la IA.

En términos más generales, este proyecto de ley coincide con la perspectiva de desaceleración, que cree que la IA tiene una probabilidad relativamente alta de acabar con la humanidad y debería regularse como tal. La mayoría de estas personas son investigadores de IA y no intentan activamente comercializar un producto de IA porque, ya sabes, creen que podría acabar con la humanidad.

El proyecto de ley está patrocinado por el Centro para la Seguridad de la IA, dirigido por Dan Hendrycks. Su grupo publicó una carta abierta en mayo de 2023 diciendo que el riesgo de extinción humana de la IA debe tomarse tan en serio como las guerras nucleares o las pandemias. Estaba firmado por Sam Altman, Bill Gates, Grimes y mucha gente tecnológica influyente. Son un grupo influyente y un actor clave en la promoción de este proyecto de ley.

En marzo de 2023, las desaceleraciones exigieron una “pausa” en todo el desarrollo de la IA para implementar la infraestructura de seguridad. Aunque suene extremo, hay muchas personas inteligentes en la comunidad de IA que realmente creen que la IA podría acabar con la humanidad. Su idea es que si existe alguna probabilidad de que la IA acabe con la humanidad, probablemente deberíamos regularla estrictamente, por si acaso.

Eso tiene sentido. Entonces, ¿quién está en contra de la SB 1047?

Si estás en X, parece que todos en Silicon Valley están en contra de la SB 1047. Los capitalistas de riesgo, los fundadores de startups, los investigadores de IA y los líderes de la comunidad de IA de código abierto odian este proyecto de ley. Generalmente clasificaría a estas personas como aceleradas, o al menos, ahí es donde llegan en este tema. Muchos de ellos están en el negocio de la IA, pero algunos también son investigadores.

El sentimiento general es que la SB 1047 podría obligar a los proveedores de modelos de IA como Meta y Mistral a reducir o detener por completo sus esfuerzos de código abierto. Este proyecto de ley los hace responsables de los malos actores que utilizan sus modelos de IA, y es posible que estas empresas no asuman esa responsabilidad debido a las dificultades de imponer restricciones a la IA generativa y la naturaleza abierta de los productos.

"Acabará, aplastará y ralentizará por completo el ecosistema de startups de código abierto", dijo Anjney Midha, socia general de A16Z y directora de la junta directiva de Mistral, en una entrevista con Gizmodo. "Este proyecto de ley es similar a tratar de frenar el progreso de la imprenta, en lugar de centrarse en dónde debería estar, que son los usos de la imprenta".

"El código abierto es nuestra mejor esperanza para mantenernos a la vanguardia reuniendo pruebas de seguridad transparentes para los modelos emergentes, en lugar de permitir que unas pocas empresas poderosas controlen la IA en secreto", dijo Ion Stoica, profesor de Ciencias de la Computación de Berkeley y presidente ejecutivo de Databricks, en un entrevista.

Midha y Stoica no son los únicos que consideran que la regulación de la IA es existencial para la industria. La IA de código abierto ha impulsado la escena de startups más próspera de Silicon Valley en años. Quienes se oponen a la SB 1047 dicen que el proyecto de ley beneficiará a los titulares cerrados de las Big Tech en lugar de a ese ecosistema abierto y próspero.

"Realmente veo esto como una forma de obstaculizar el desarrollo de la IA de código abierto, como parte de una estrategia más amplia para frenar la IA", dijo Jeremy Nixon, creador de AGI House, que sirve como centro para los hackatones de IA de código abierto de Silicon Valley. "El proyecto de ley surge de una comunidad que está muy interesada en detener la IA en general".

Esto suena realmente técnico. ¿Pueden los legisladores ser tan estrictos?

Es absolutamente técnico y eso ha creado algunos problemas. La SB 1047 sólo se aplica a los modelos fronterizos “grandes”, pero ¿qué tan grande es grande? El proyecto de ley lo define como modelos de IA entrenados en 10^26 FLOPS, una cantidad específica y muy grande de potencia informática para los estándares actuales. El problema es que la IA está creciendo muy rápido y los modelos de última generación de 2023 parecen pequeños en comparación con los estándares de 2024. Pegar una bandera en la arena no funciona bien en un campo que se mueve tan rápido.

Tampoco está claro si es posible evitar por completo que los sistemas de inteligencia artificial se comporten mal. La verdad es que no sabemos mucho sobre cómo funcionan los LLM y los principales modelos de IA actuales de OpenAI, Anthropic y Google tienen jailbreak todo el tiempo. Es por eso que algunos investigadores dicen que los reguladores deberían centrarse en los malos actores, no en los proveedores de modelos.

“Con la IA, es necesario regular el caso de uso, la acción y no los modelos en sí”, dijo en una entrevista Ravid Shwartz Ziv, profesor asistente que estudia IA en la Universidad de Nueva York junto con Yann Lecunn. "Los mejores investigadores del mundo pueden dedicar cantidades infinitas de tiempo a un modelo de IA, y la gente aún puede liberarlo".

Otra parte técnica de este proyecto de ley se relaciona con los modelos de IA de código abierto. Si una startup toma Llama 3 de Meta, uno de los modelos de IA de código abierto más populares, y lo ajusta para que sea algo completamente diferente, ¿Meta sigue siendo responsable de ese modelo de IA? Según este proyecto de ley, parece que Meta ciertamente podría ser considerado responsable, pero los opositores al proyecto de ley consideran que este enfoque es injusto y no es el correcto.

Pregunta rápida: ¿Es la IA realmente libertad de expresión?

Poco claro. Muchos en la comunidad de IA ven la IA de código abierto como una especie de libertad de expresión (por eso Midha se refirió a ella como imprenta). La premisa es que el código subyacente a un modelo de IA es una forma de expresión, y los resultados del modelo también son expresiones. Históricamente, el código ha estado sujeto a la Primera Enmienda en varios casos.

Tres profesores de derecho argumentaron en un artículo de Lawfare que los modelos de IA no son exactamente libertad de expresión. Por un lado, dicen que los pesos que componen un modelo de IA no son escritos por humanos sino creados a través de vastas operaciones de aprendizaje automático. Los humanos apenas pueden leerlos.

En cuanto a los resultados de los modelos fronterizos de IA, estos sistemas son un poco diferentes de los algoritmos de redes sociales, que en el pasado se consideraban incluidos en la Primera Enmienda. Los modelos de IA no adoptan exactamente un punto de vista, sino que dicen muchas cosas. Por esa razón, estos profesores de derecho dicen que la SB 1047 puede no infringir la Primera Enmienda.

¿Qué es lo siguiente?

El proyecto de ley se acerca rápidamente a una votación en agosto que lo enviaría al escritorio del gobernador Gavin Newsom. Tiene que superar algunos obstáculos clave más para llegar allí, e incluso entonces, es posible que Newsom no lo firme debido a la presión de Silicon Valley. Un gran grupo comercial de tecnología acaba de enviarle a Newsom una carta diciéndole que no firme la SB 1047.

Sin embargo, es posible que Newsom quiera sentar un precedente para la nación en materia de inteligencia artificial. Si la SB 1047 entra en vigor, podría cambiar radicalmente el panorama de la IA en Estados Unidos.