いいえ、AI の空は落ちていません
AI の警戒心がまだ現実よりもはるかに進んでいないかのように、イーロン マスク、スティーブ ウォズニアック、ディープラーニングのパイオニアであるヨシュア ベンジオを含む AI 研究者と技術パーソナリティのグループが、炎を扇動する公開書簡を書きました。この書簡は、強力な AI システムのトレーニングを 6 か月間猶予することを求めています。手紙の主催者の 1 人であるマサチューセッツ工科大学 (MIT) の Max Tegmark 教授は、進行中の AI を改善するための競争は「自殺競争のようなもの」であると述べています。唯一の問題は、主張されているリスクが非現実的であり、想定されている AI の最先端が笑えるほど根拠がなく、提案された対策が非常に有害であることです。
少し落ち着いて、AI とは何か、AI がどこに向かっているのか、AI に対して何をすべきか (もしあれば) を見てみましょう。
手紙の執筆者が最も恐れていることは、AI が「私たちの情報チャネルをプロパガンダと虚偽であふれさせる」ことです。しかし、仲間の人間のおかげで、それらはすでに殺到しています.AIの開発を遅らせることは、何よりもまず、唯一のスケーラブルなオプションである誤った情報を自動的に検出して停止する能力を妨げます. AI によって生成された虚偽への恐怖は、人間は愚かであるという有害な仮定を作り、AI によって生成された虚偽を額面どおりに単純に受け取り続けるでしょう。しかし、ChatGPT で遊んだことがある人なら誰でも既によく知っており、人々が AI とのやり取りの経験を積むにつれて、これは急速に改善されるでしょう.
手紙の執筆者はまた、AI が「すべての仕事を自動化する」ことを恐れています。また、自動化が破壊するよりも多くの雇用を組織的に生み出してきた過去 200 年の経験も無視しています。ほとんどの職業では、AI は一部のタスクを自動化しますが、他のタスクは自動化しません。これにより、労働者の生産性が向上し、日常業務が軽減されます。AI ができることのコストを下げると、その補完物の需要が高まり、消費者の懐に残るお金が増え、そのお金を他のことに使うことができます。以前の自動化の波のように (アプリ開発者など)、AI は多くのまったく新しい職業を生み出すでしょう。これらはすべて、労働需要を低下させるのではなく、むしろ増加させます。AI 革命はすでに順調に進んでいますが、失業率は記憶にある限り最低です。AI を減らすのではなく、増やす必要があります。
ただし、ジョブ AI ポカリプスはほんの始まりにすぎません。「最終的に数を上回り、賢く、時代遅れになり、私たちに取って代わる可能性のある人間以外の心を開発する必要がありますか?」手紙は尋ねます。「私たちの文明の制御を失う危険を冒すべきでしょうか?」これは、AI と人間の知性を混同するという基本的な誤謬に陥ります。(すべての人の中で、AI 研究者はこれよりもよく知っているはずです。) AI には、私たちの文明を制御する欲求や能力はありません。それらは非常に複雑な最適化システムであり、コンピューター コードで設定した目標を達成しようとすることしかできません。通常、これらの目標を達成するには指数関数的な計算能力が必要ですが、結果を確認するのは簡単です。(がんを治すのは難しい。治療が効いたかどうかをチェックするのは難しい。)ほとんどの AI システムは人間のようには見えず、欲望、感情、意識、または意志を持っていません。彼らは役に立つことをするだけで、そして、彼らがうまくやればやるほど、より良いものになります。なぜ彼らの発達を妨げるのですか?それらをより安全にする最善の方法は、よりインテリジェントにすることです。
しかし、これらすべての仮説上の問題に対する AI 警報者の解決策は、ご想像のとおり、広範な新しい規制です。AI だけでなく、「計算能力の大規模なプール」 (おそらくクラウド全体) についても同様です。政府は AI に介入し、その開発を指示する必要があります。なぜこれが害よりも良いことなのかは、私の賢明な同僚たちによって完全に取り組まれていません. 彼らは過去のモラトリアムについて言及し、彼らのモラトリアムを支持していますが、それらはすべて生物学と医学にあり、利害関係はまったく異なります. 彼らは「広く支持されている」一連の AI 原則に言及しており、その署名者のほとんどは実際には AI 研究者です。彼らは、AI の「深刻なリスク」は、深刻な科学的研究ではなく、物議を醸す書籍やイデオロギー主導の記事の短いリストを使用して「広範な研究によって示されている」という主張を支持しています。
「強力な AI システムは、その効果が肯定的であり、リスクが管理可能であると確信した場合にのみ開発する必要があります」と書簡は主張しています。火、車輪、印刷機、蒸気機関、電気、車、コンピューター、その他数え切れないほどのテクノロジーで同じことをしなくてよかったです。Yann LeCun や Andrew Ng などの AI リーダーは、AI モラトリアムのアイデアに公然と反対しています。「科学はAIを規制しなければならないと言っている」と言われる前に、一般の人々は少なくとも、この議論には2つの側面があることを知っておくべきです. そして、AI の想定される危険性についてパニックに陥る前に、そのようなパニックがもたらす損害について検討する必要があるかもしれません。