破滅か繁栄か: AI の未来をカリフォルニア州法に組み込むための戦い

Jun 24 2024
カリフォルニア州の新しい AI 法案と、政治に波及している AI を加速または減速させるための戦いについて知っておくべきことをすべて紹介します。

カリフォルニア州の法案は、最先端の大規模AIモデルを規制しようとしており、AIの将来をめぐって劇的な対立を生み出している。長年、AIは「加速派」と「減速派」 に分かれてきた。加速派はAIが急速に進歩すること、つまり素早く行動して物事を壊すことを望み、減速派は人類のためにAIの発展を減速させることを望んでいる。この争いは、OpenAIの取締役会がサム・アルトマン氏を一時的に解任した ことで全国的な注目を集めるようになり、その後、多くのメンバーがAIの安全性を理由にこのスタートアップから離れている 。現在、カリフォルニア州の法案がこの争いを政治的なものにしている。

推奨読書

今週のAI: Z​​oomの大きな利用規約の失敗
人々は魅力的なGPT-4 Omniに夢中になるでしょう
OpenAIはSORAが2024年に打ち上げられると発表、ヌード動画も検討中

推奨読書

今週のAI: Z​​oomの大きな利用規約の失敗
人々は魅力的なGPT-4 Omniに夢中になるでしょう
OpenAIはSORAが2024年に打ち上げられると発表、ヌード動画も検討中
AI ガールフレンドは悪いものばかりではない | AI Unlocked
共有
字幕
  • オフ
  • 英語
この動画を共有します
Facebook Twitterメール
Redditリンク
AI ガールフレンドは悪いものばかりではない | AI Unlocked

SB 1047 とは何ですか?

SB 1047は、Meta、OpenAI、Anthropic、Mistral などの大手 AI モデル プロバイダーに、自社の AI システムの潜在的に壊滅的な危険性に対する責任を負わせるカリフォルニア州法案です。同法案は、カリフォルニア州上院議員のスコット ウィーナー氏が起草したもので、5 月にカリフォルニア州上院を通過し、今週、法律化に向けてもう 1 つの大きなハードルをクリアしました。

関連性のあるコンテンツ

政府はAI監視を野放しにしたいと思っているようだ
GoogleとMicrosoft、AIから世界を守るためにわずか1000万ドルを提供

関連性のあるコンテンツ

政府はAI監視を野放しにしたいと思っているようだ
GoogleとMicrosoft、AIから世界を守るためにわずか1000万ドルを提供

なぜ気にする必要があるのですか?

これは米国で最初の、実質的な効力を持つ AI 規制となる可能性があり、主要な AI 企業が集まるカリフォルニアで実施されています。

ウィーナー氏はこの法案について、「最大かつ最も強力な AI システムの開発者向けに、明確で予測可能、かつ常識的な安全基準を設定する」と述べている。しかし、誰もがそのように考えているわけではない。シリコンバレーでは、この法律によって AI 時代が始まる前に終焉を迎えることになると警鐘を鳴らす人が多い。

SB 1047 は実際に何をするのでしょうか?

SB 1047 は、AI モデル プロバイダーに「壊滅的な損害」に対する責任を負わせるが、それがどのような損害なのかはやや不明瞭である。とはいえ、シリコン バレーはこれまでその損害に対する責任をほとんど逃れてきたため、これは大きな意味を持つ。この法案は、AI モデルの 1 つがカリフォルニア州民に重大な損害を与えた場合、カリフォルニア州司法長官がこれらの企業に対して法的措置を取る権限を与えるものである。

SB 1047 には、緊急事態に備えて AI 企業に AI モデルのキル スイッチを作成することを事実上義務付ける「シャットダウン」条項も含まれています。

この法案では、カリフォルニア州技術局内に「フロンティアモデル部門」も創設される。この部門は、これらのフロンティア AI モデルプロバイダーを規制し、各企業が遵守しなければならない安全基準を施行する。企業がこの部門の規定に従わない場合は、訴訟を起こされ、民事罰を受ける可能性がある。

この法案を支持するのは誰ですか?

ウィーナー上院議員のほかに、ジェフリー・ヒントン氏とヨシュア・ベンジオ氏という「AIのゴッドファーザー」と呼ばれることもある2人の著名なAI研究者もこの法案に署名している。この2人はAIの危険性について警鐘を鳴らすことで非常に有名である。

もっと広い意味では、この法案は、AI が人類を滅ぼす可能性が比較的高いため、そのように規制されるべきであると考えるデセルの見解と一致しています。これらの人々のほとんどは AI 研究者であり、AI が人類を滅ぼす可能性があると考えているため、AI 製品を積極的に商品化しようとしているわけではありません。

この法案は、ダン・ヘンドリックス氏が率いるAI安全センターが後援している。同氏のグループは2023年5月に公開書簡を発表し、AIが人類を絶滅させるリスクは核戦争やパンデミックと同じくらい深刻に受け止められるべきだと述べた。この書簡にはサム・アルトマン氏、ビル・ゲイツ氏、グライムス氏、そして多くの影響力のあるテクノロジー関係者が署名した。彼らは影響力のあるグループであり、この法案を推進する上で重要な役割を果たしている。

2023年3月、デセルズは安全インフラを実装するためにすべてのAI開発を「一時停止」する よう呼びかけました。極端に聞こえるかもしれませんが、AIコミュニティにはAIが人類を滅ぼす可能性があると本気で信じている賢い人がたくさんいます。彼らの考えは、AIが人類を滅ぼす可能性があるなら、念のため厳しく規制すべきだということです。

それは理にかなっています。では、SB 1047 に反対しているのは誰ですか?

X を使っていると、シリコンバレーの誰もが SB 1047 に反対しているように感じます。ベンチャー キャピタリスト、スタートアップの創設者、AI 研究者、オープン ソース AI コミュニティのリーダーたちは、この法案を嫌っています。私は一般的に、これらの人々をアクセラレーターとして分類します。少なくとも、この問題に関しては彼らはアクセラレーターとして分類しています。彼らの多くは AI のビジネスに携わっていますが、研究者もいます。

SB 1047 により、Meta や Mistral などの AI モデル プロバイダーは、オープンソースへの取り組みを縮小、または完全に停止せざるを得なくなる可能性があるというのが一般的な見方です。この法案により、プロバイダーは AI モデルを使用する悪質な行為者に対して責任を負うことになりますが、生成 AI に制限を課すことの難しさや製品のオープンな性質のため、これらの企業はその責任を負わない可能性があります。

「この法案はオープンソースのスタートアップエコシステムを完全に殺し、潰し、減速させるだろう」と、A16Zのゼネラルパートナーでミストラルの取締役であるアンジニー・ミドハ氏はギズモードのインタビューで語った。「この法案は、印刷機の進歩を抑制しようとするのと同じようなもので、本来あるべきところ、つまり印刷機の用途に焦点を当てていない。」

「オープンソースは、少数の有力企業が秘密裏にAIを管理するのではなく、新興モデルに対する透明性のある安全性テストを統合することで、先頭に立つための最大の希望です」と、バークレー大学のコンピューターサイエンス教授でデータブリックスの会長であるイオン・ストイカ氏はインタビューで語った。

AI 規制が業界にとって存在意義を持つと考えているのは、ミダ氏とストイカ氏だけではない。オープンソース AI は、ここ数年で最も活気のあるシリコンバレーのスタートアップ シーンを牽引してきた。SB 1047 の反対派は、この法案は、活気のあるオープンなエコシステムではなく、大手テクノロジー企業の閉鎖的な既存企業に利益をもたらすと主張している。

「これはオープンソースのAI開発をボトルネックにする手段であり、AIを減速させるというより広範な戦略の一部だと私は本当に思っています」とシリコンバレーのオープンソースAIハッカソンの拠点となっているAGIハウスの創設者ジェレミー・ニクソン氏は語った。「この法案はAI全般を停止することに非常に関心のあるコミュニティから生まれたものです。」

これは本当に技術的な話ですね。立法者はここまで厳密にできるのでしょうか?

これは確かに技術的な問題であり、いくつかの問題を引き起こしています。SB 1047 は「大規模な」フロンティア モデルにのみ適用されますが、大規模とはどの程度の規模でしょうか。法案では、10^26 FLOPS でトレーニングされた AI モデルと定義されています。これは、今日の基準では特定の非常に大きな計算能力です。問題は、AI が非常に急速に成長しており、2023 年の最先端モデルは 2024 年の基準と比較すると非常に小さいように見えることです。砂に旗を立てるだけでは、これほど急速に進歩している分野ではうまくいきません。

また、AI システムの不正行為を完全に防止できるかどうかも明らかではありません。実のところ、LLM の仕組みについてはあまりわかっておらず、OpenAI、Anthropic、Google の今日の主要な AI モデルは頻繁にジェイルブレイクされています。そのため、一部の研究者は、規制当局はモデ​​ル プロバイダーではなく、不正行為者に焦点を当てるべきだと主張しています。

「AIでは、モデル自体ではなく、ユースケースやアクションを規制する必要がある」と、ヤン・ルカンとともにニューヨーク大学でAIを研究している助教授ラビッド・シュワルツ・ジブ氏はインタビューで語った。「世界最高の研究者がAIモデルに無限の時間を費やしても、人々はそれをジェイルブレイクすることができる」

この法案のもう 1 つの技術的な部分は、オープンソース AI モデルに関連しています。スタートアップ企業が、最も人気のあるオープンソース AI モデルの 1 つである Meta の Llama 3 を採用し、それを微調整してまったく異なるものにした場合、Meta は依然としてその AI モデルに対して責任を負うのでしょうか。この法案では、Meta が責任を負うことは間違いないと思われますが、法案反対派は、これは不公平であり、適切なアプローチではないと考えています。

質問です: AI は本当に言論の自由を持っているのでしょうか?

不明瞭です。AI コミュニティの多くの人は、オープンソース AI を一種の言論の自由と見なしています (Midha がそれを印刷機と呼んだのはこのためです)。前提は、AI モデルの基盤となるコードは表現形式であり、モデルの出力も表現であるということです。コードは歴史的に、いくつかの例で憲法修正第 1 条に該当しました。

3 人の法学教授はLawfare の記事で、AI モデルは言論の自由そのものではないと主張しました。まず、AI モデルを構成する重みは人間が書いたものではなく、膨大な機械学習操作によって作成されたものであると彼らは言います。人間はそれを読むことさえほとんどできません。

最先端の AI モデルの出力に関して言えば、これらのシステムは、過去に憲法修正第 1 条に該当すると考えられてきたソーシャル メディア アルゴリズムとは少し異なります。AI モデルは特定の視点をとっているわけではなく、さまざまなことを述べています。そのため、これらの法学教授は、SB 1047 が憲法修正第 1 条に抵触しない可能性があると述べています。

それで、次は何でしょうか?

この法案は、ギャビン・ニューサム知事の机に送られる予定の 8 月の採決に向けて急ピッチで進んでいる。そこに到達するには、さらにいくつかの重要なハードルをクリアする必要があるが、それでも、シリコンバレーからの圧力により、ニューサム知事は署名しない可能性がある。大手テクノロジー業界団体が、ニューサム知事に SB 1047 に署名しないよう求める書簡を送ったばかりだ。

しかし、ニューサム知事は、AI に関して国家に前例を作りたいと考えているのかもしれない。SB 1047 が発効すれば、アメリカの AI 環境は根本的に変わる可能性がある。