파멸 대 붐: AI의 미래를 캘리포니아 법에 담기 위한 싸움

Jun 24 2024
캘리포니아의 새로운 AI 법안과 정치에 영향을 미치고 있는 AI 속도를 높이거나 늦추기 위한 싸움에 대해 알아야 할 모든 것이 여기에 있습니다.

대규모 프론티어 AI 모델을 규제하려는 캘리포니아 법안은 AI의 미래에 대한 극적인 대립을 만들고 있습니다. 수년 동안 AI는 '가속'과 '감속' 으로 구분되었습니다 . Accel은 AI가 빠르게 발전하기를 원합니다. 빠르게 움직이고 모든 것을 깨뜨릴 수 있습니다. 반면 Decel은 인류를 위해 AI 개발 속도를 늦추기를 원합니다. OpenAI 이사회가 Sam Altman을 잠시 축출하면서 이 싸움은 전국적인 주목을 받게 되었으며 , 그 중 다수는 AI 안전이라는 이름으로 스타트업에서 탈퇴 했습니다. 이제 캘리포니아 법안은 이 싸움을 정치적으로 만들고 있습니다.

추천 독서

이번 주 AI: Zoom의 대규모 TOS 재난
사람들은 유혹적인 GPT-4 Omni와 사랑에 빠지게 될 것입니다.
OpenAI는 Sora가 2024년에 출시될 것이며 누드 비디오는 테이블에서 벗어날 수 없다고 말합니다.

추천 독서

이번 주 AI: Zoom의 대규모 TOS 재난
사람들은 유혹적인 GPT-4 Omni와 사랑에 빠지게 될 것입니다.
OpenAI는 Sora가 2024년에 출시될 것이며 누드 비디오는 테이블에서 벗어날 수 없다고 말합니다.
AI 여자친구는 모두 나쁜 것은 아니다 | AI 잠금 해제
공유하다
자막
  • 끄다
  • 영어
이 영상을 공유해
페이스 북 트위터 이메일
레딧 링크
AI 여자친구는 모두 나쁜 것은 아니다 | AI 잠금 해제

SB 1047이란 무엇입니까?

SB 1047 은 Meta, OpenAI, Anthropic 및 Mistral과 같은 대규모 AI 모델 제공업체가 AI 시스템의 잠재적으로 치명적인 위험에 대해 책임을 지도록 하는 캘리포니아 주 법안입니다. 주 상원의원 Scott Wiener가 작성한 이 법안은 지난 5월 캘리포니아 상원을 통과했으며이번 주에 법이 되기 위한 또 다른 주요 장애물을 제거했습니다 .

관련된 컨텐츠

확실히 정부는 AI 감시를 과격하게 실행하기를 원하는 것 같습니다.
구글, 마이크로소프트, AI로부터 세상을 보호하기 위해 1천만 달러 제공

관련된 컨텐츠

확실히 정부는 AI 감시를 과격하게 실행하기를 원하는 것 같습니다.
구글, 마이크로소프트, AI로부터 세상을 보호하기 위해 1천만 달러 제공

왜 관심을 가져야 합니까?

글쎄요, 이는 미국에서 최초의 실제 AI 규제가 될 수 있으며 모든 주요 AI 회사가 있는 캘리포니아에서 일어나고 있습니다.

Wiener는 이 법안이 "가장 크고 강력한 AI 시스템 개발자를 위한 명확하고 예측 가능하며 상식적인 안전 표준"을 설정했다고 설명합니다. 하지만 모든 사람이 그렇게 보는 것은 아닙니다. 실리콘 밸리의 많은 사람들은 이 법이 AI 시대가 시작되기 전에 죽일 것이라고 경고하고 있습니다.

SB 1047은 실제로 무엇을 합니까?

SB 1047은 AI 모델 제공업체가 "재앙적인 피해"에 대해 책임을 지도록 규정하고 있지만, 그것이 무엇인지는 다소 불분명합니다. 그럼에도 불구하고 실리콘 밸리는 역사적으로 피해에 대한 대부분의 책임을 회피해 왔기 때문에 이는 큰 문제입니다. 이 법안은 AI 모델 중 하나가 캘리포니아 주민들에게 심각한 해를 끼칠 경우 캘리포니아 법무장관이 이들 회사에 대해 법적 조치를 취할 수 있는 권한을 부여합니다.

SB 1047에는 AI 회사가 긴급 상황 발생 시 AI 모델에 대한 킬 스위치를 만들도록 효과적으로 요구하는 "종료" 조항도 포함되어 있습니다.

이 법안은 또한 캘리포니아 기술부 내에 "프론티어 모델 부서"를 창설합니다. 해당 그룹은 이러한 첨단 AI 모델 제공업체를 규제하고 각 회사가 준수해야 하는 안전 표준을 시행합니다. 기업이 본 분과를 준수하지 않을 경우, 소송을 당하거나 민사 처벌을 받을 수 있습니다.

누가 이 법안을 지지합니까?

이 법안에는 위너 상원의원 외에 'AI의 대부'로 불리는 저명한 AI 연구자 제프리 힌튼(Geoffrey Hinton)과 요슈아 벤지오(Yoshua Bengio)도 이름을 올렸다. 이 두 사람은 AI의 위험성에 대한 경고를 발령하는 데 매우 두드러졌습니다.

보다 광범위하게, 이 법안은 AI가 인류를 멸망시킬 가능성이 상대적으로 높으며 그에 따라 규제되어야 한다고 믿는 감속 관점과 일치합니다. 이들 대부분은 AI 연구자들이고, AI 제품이 인류를 멸망시킬 수 있다고 생각하기 때문에 AI 제품을 상품화하려고 적극적으로 노력하지 않습니다.

이 법안은 Dan Hendrycks가 이끄는 AI 안전 센터의 후원을 받습니다. 그의 그룹은 2023년 5월 AI의 인류 멸종 위험을 핵전쟁이나 전염병만큼 심각하게 받아들여야 한다는 공개 서한을 발표했습니다. Sam Altman, Bill Gates, Grimes 및 수많은 영향력 있는 기술 전문가가 서명했습니다. 그들은 영향력 있는 그룹이자 이 법안을 홍보하는 데 핵심 역할을 합니다.

2023년 3월, 감속은 안전 인프라 구현을 위해 모든 AI 개발을 '일시 중지'할 것을 요구했습니다 . 극단적으로 들리겠지만, AI 커뮤니티에는 AI가 인류를 멸망시킬 수 있다고 진심으로 믿는 똑똑한 사람들이 많이 있습니다. 그들의 생각은 AI가 인류를 멸망시킬 가능성이 있다면 만일의 경우에 대비해 엄격하게 규제해야 한다는 것입니다.

말이 되네요. 그렇다면 SB 1047에 반대하는 사람은 누구입니까?

X를 지지한다면 실리콘 밸리의 모든 사람들이 SB 1047에 반대하는 것처럼 느껴집니다. 벤처 자본가, 스타트업 창업자, AI 연구원, 오픈 소스 AI 커뮤니티의 리더들은 이 법안을 싫어합니다. 나는 일반적으로 이 사람들을 액셀러레이터로 분류하거나 적어도 이 문제에 대해 언급합니다. 그들 중 다수는 AI 사업에 종사하고 있지만 일부는 연구원이기도 합니다.

일반적인 정서는 SB 1047이 Meta 및 Mistral과 같은 AI 모델 제공업체가 오픈 소스 노력을 축소하거나 완전히 중단하도록 강요할 수 있다는 것입니다. 이 법안은 AI 모델을 사용하는 악의적인 행위자에 대한 책임을 그들에게 부과하고 있으며, 이러한 기업은 생성 AI에 대한 제한의 어려움과 제품의 개방성으로 인해 그러한 책임을 지지 않을 수 있습니다.

A16Z 총괄 파트너이자 Mistral 이사회 이사인 Anjney Midha는 Gizmodo와의 인터뷰에서 “오픈 소스 스타트업 생태계를 완전히 죽이고, 분쇄하고, 속도를 늦출 것입니다.”라고 말했습니다. “이 법안은 인쇄기의 용도, 즉 인쇄기의 용도에 초점을 맞추는 것이 아니라 인쇄기의 진행 상황을 단속하려는 것과 유사합니다.”

버클리 컴퓨터 과학 교수이자 Databricks의 회장인 Ion Stoica는 "오픈 소스는 소수의 강력한 기업이 AI를 비밀리에 제어하도록 허용하는 대신 신흥 모델에 대한 투명한 안전 테스트를 함께 제공함으로써 앞서 나갈 수 있는 최선의 희망입니다."라고 말했습니다. 회견.

Midha와 Stoica만이 AI 규제를 업계의 실존적 측면으로 보는 유일한 사람은 아닙니다. 오픈 소스 AI는 수년 만에 가장 번창하는 실리콘 밸리 스타트업 현장을 강화해 왔습니다. SB 1047에 반대하는 사람들은 이 법안이 번성하는 개방형 생태계 대신 거대 기술 기업의 폐쇄적인 기존 기업에 도움이 될 것이라고 말합니다.

실리콘 밸리의 오픈 소스 AI 해커톤의 허브 역할을 하는 AGI House의 창시자인 Jeremy Nixon은 "나는 이것이 AI 속도를 늦추기 위한 광범위한 전략의 일환으로 오픈 소스 AI 개발에 병목 현상을 일으키는 방법이라고 생각합니다."라고 말했습니다. "이 법안은 일반적으로 AI를 일시 중지하는 데 매우 관심이 있는 커뮤니티에서 나온 것입니다."

이것은 정말 기술적인 것처럼 들립니다. 국회의원들이 이 모든 것을 빡빡하게 할 수 있습니까?

그것은 절대적으로 기술적이며 이로 인해 몇 가지 문제가 발생했습니다. SB 1047은 "대형" 프론티어 모델에만 적용됩니다. 그런데 크기가 얼마나 큽니까? 법안에서는 이를 오늘날 표준에 따라 구체적이고 매우 큰 양의 컴퓨팅 성능인 10^26 FLOPS로 훈련된 AI 모델로 정의합니다. 문제는 AI가 매우 빠르게 성장하고 있고, 2023년 최신 모델이 2024년 기준에 비해 작아 보인다는 점이다. 모래에 깃발을 꽂는 것은 이렇게 빠르게 움직이는 들판에서는 잘 작동하지 않습니다.

AI 시스템이 오작동하는 것을 완전히 방지하는 것이 가능한지도 확실하지 않습니다. 사실 우리는 LLM의 작동 방식에 대해 많이 알지 못하며 OpenAI, Anthropic 및 Google의 오늘날 주요 AI 모델은 항상 탈옥되어 있습니다. 그렇기 때문에 일부 연구자들은 규제 당국이 모델 제공자가 아닌 악의적인 행위자에게 초점을 맞춰야 한다고 말합니다.

NYU에서 Yann Lecunn과 함께 AI를 연구하고 있는 조교수인 Ravid Shwartz Ziv는 인터뷰에서 “AI를 사용하려면 모델 자체가 아닌 사용 사례와 행동을 규제해야 합니다.”라고 말했습니다. "세계 최고의 연구자들은 AI 모델에 무한한 시간을 할애할 수 있으며, 사람들은 여전히 ​​AI 모델을 탈옥할 수 있습니다."

이 법안의 또 다른 기술적 부분은 오픈 소스 AI 모델과 관련이 있습니다. 스타트업이 가장 인기 있는 오픈소스 AI 모델 중 하나인 Meta의 Llama 3를 가져와 완전히 다른 것으로 미세 조정한다면 Meta가 여전히 해당 AI 모델에 대한 책임이 있습니까? 이 법안에 따르면 Meta가 확실히 책임을 질 수 있는 것처럼 보이지만 법안 반대자들은 이것이 불공평하고 올바른 접근 방식이 아니라고 생각합니다.

빠른 질문: AI는 실제로 언론의 자유인가요?

불분명하다. AI 커뮤니티의 많은 사람들은 오픈 소스 AI를 일종의 표현의 자유로 봅니다. 이것이 바로 Midha가 이를 인쇄기라고 부르는 이유입니다. 전제는 AI 모델의 기본 코드가 표현의 한 형태이고 모델 출력도 표현이라는 것입니다. 코드는 역사적으로 여러 경우에 수정헌법 제1조의 적용을 받았습니다.

세 명의 법학 교수는 Lawfare 기사 에서 AI 모델이 정확히 표현의 자유는 아니라고 주장했습니다. 우선, AI 모델을 구성하는 가중치는 인간이 작성하는 것이 아니라 방대한 기계 학습 작업을 통해 생성된다고 말합니다. 인간은 거의 읽을 수도 없습니다.

프론티어 AI 모델의 결과물은 과거 수정헌법 제1조에 해당한다고 여겨졌던 소셜미디어 알고리즘과 조금 다르다. AI 모델은 특정 관점을 취하지 않고 많은 것을 말합니다. 이러한 이유로 이들 법학 교수들은 SB 1047이 수정헌법 제1조에 영향을 미치지 않을 수 있다고 말합니다.

그럼, 다음은 무엇입니까?

이 법안은 개빈 뉴섬(Gavin Newsom) 주지사의 책상으로 법안을 전달하기 위한 빠른 속도로 다가오는 8월 투표를 향해 달려가고 있습니다. 거기에 도달하려면 몇 가지 주요 장애물을 더 통과해야 하며, 그럼에도 불구하고 Newsom은 실리콘 밸리의 압력으로 인해 서명하지 않을 수도 있습니다. 한 대형 기술 무역 그룹은 방금 Newsom에게 SB 1047에 서명하지 말라고 편지를 보냈습니다.

그러나 Newsom은 AI 분야에서 국가의 선례를 만들고 싶어할 수도 있습니다. SB 1047이 발효되면 미국의 AI 환경이 근본적으로 바뀔 수 있습니다.