糊で覆われたピザとゾンビ大統領: これまでで最悪の Google AI 回答

May 24 2024
Google の新しい AI 搭載検索から受け取った最も奇妙な反応は何ですか?

Google は最近、AI が生成した回答を Web 検索のトップに表示しましたが、これは物議を醸す動き であり、広く批判されています。実際、ソーシャル メディアには、Google の AI 結果で目立つようになったまったく馬鹿げた回答の例があふれています。その中にはかなり面白いものもあります。

関連性のあるコンテンツ

「ディープブレイン」と呼んでください: Google が DeepMind と Brain AI チームを統合
AIが国家と同量のエネルギーを消費する見込み、研究で判明

ソーシャルメディアで出回っている奇妙な検索の1つは、ピザからチーズが滑り落ちないようにする方法を見つけることです。AIの返信の提案のほとんどは、ピザを食べる前に冷ましてくださいとユーザーに伝えるなど、普通のものです。しかし、以下に示すように、一番上のヒントは非常に奇妙です。

関連性のあるコンテンツ

「ディープブレイン」と呼んでください: Google が DeepMind と Brain AI チームを統合
AIが国家と同量のエネルギーを消費する見込み、研究で判明
Google AI 検索がなければ、「奴隷制度のメリット」について学ぶ必要はない
共有
字幕
  • オフ
  • 英語
この動画を共有します
Facebook Twitterメール
Redditリンク
Google AI 検索がなければ、「奴隷制度のメリット」について学ぶ必要はない
ピザからチーズが滑り落ちないようにする方法について、Gizmodo が 5 月 22 日に Google 検索を実行しました。

一番面白いのは、ちょっと考えてみれば、接着剤を加えてもチーズがピザにくっつくことはまずないということだ。しかし、この回答はおそらく、 11年前にユーザー「fucksmith」が投稿した冗談と思われるコメントからRedditから抜粋されたものだ。AIは間違いなく盗作できる、それは認めよう。

約 11 年前に Reddit で行われたジョークが、Google で AI が生成したひどい回答の元になっているようです。

最近ソーシャルメディアで注目を集めた別の検索は、歴史家なら誰でもきっと知るであろう大統領に関するトリビアに関するものだ。Google の AI 搭載検索に、どの米国大統領がウィスコンシン大学マディソン校に通っていたか尋ねると、13 人の大統領が通っていたと答えるだろう。

Google の AI からの回答では、13 人の大統領が在学中に 59 の異なる学位を取得したとさえ主張しています。また、彼らが大学に通っていたとされる年数を見てみると、その大部分は大統領の死後ずっと後のことです。米国の第 17 代大統領アンドリュー ジョンソンは、1875 年に亡くなったにもかかわらず、1947 年から 2012 年の間に 14 の学位を取得しましたか? 私たちが知らない特別なゾンビ テクノロジーがない限り、それは非常にありそうにありません。

ちなみに、米国はウィスコンシン州出身の大統領を選出したことはなく、ウィスコンシン大学マディソン校出身者も選出していない。Google AI は、マディソン大学を卒業して大統領になったさまざまな人々について同窓会が2016 年に書いた気楽なブログ記事から回答を抽出しているようだ。

多くのユーザーが気づいたもう 1 つのパターンは、Google の AI が犬にはプロスポーツ選手になるなど、並外れた偉業を成し遂げる能力があると考えていることです。犬が NHL でプレーしたことがあるかどうかを尋ねると、概要では YouTube の動画が引用され、次のような答えが返されました。

別の例では、スポーツから離れて、犬がホテルを所有したことがあるかどうかを検索エンジンに尋ねました。プラットフォームの応答は次のとおりでした。

誤解のないよう明確に言うと、犬がホテルを所有していたことがあるかと尋ねられたとき、Google は肯定的に答えた。そして、ホテルのオーナーが犬を飼っていた例を 2 つ挙げ、その証拠として 30 フィートの高さのビーグル犬の像を示した。

Google の AI サマリーとやり取りしながら私たちが「学んだ」他の事柄としては、犬はブレイクダンスができる(できない)ことや、野球の試合では始球式を犬が投げることが多い(フロリダ マーリンズの試合で投球した犬も含む)こと(実際には、犬はボールが投げられた後にボールを拾いに行った)などがあります。

Google は、間違った情報は人々が「一般的ではない」質問をした結果であると主張して弁護している。しかし、正直に言えば、これは非常に奇妙な弁護であるように思える。信頼できる回答を得るには、最もありふれた一般的な質問だけを Google に尋ねればよいのだろうか?

「私たちが目にした例は、一般的に非常に珍しいクエリであり、ほとんどの人の体験を代表するものではありません」とGoogleの広報担当者はGizmodoにメールで語った。「AI概要の大半は、ウェブ上でさらに深く掘り下げるためのリンクとともに、高品質の情報を提供しています。私たちはこの新しい体験を開始する前に広範囲にわたるテストを実施しており、これらの個別の例を使用して、システム全体を改良していきます。」

なぜこのような反応が起きているのでしょうか? 簡単に言えば、これらの AI ツールは本来導入されるべき時期よりもずっと前に導入され、すべての大手テクノロジー企業が視聴者の注目を集めるために競争を繰り広げているのです。

OpenAIのChatGPT GoogleのGemini 、そして今ではGoogleのAI SearchなどのAIツールは、どれも人間の通常の言語を模倣しているため、素晴らしいように見えるかもしれません。しかし、これらのマシンは予測テキストモデルとして機能し、基本的には高度なオートコンプリート機能として機能します。それらはすべて膨大な量のデータを吸い上げ、説得力のある、場合によっては意味深長な言葉を素早く組み合わせることができます。しかし、マシンは自分が何を言っているのかわかっていません。人間のように推論したり論理を適用したりする能力はありません。これが、AI推進者が人工汎用知能(AGI)の可能性に非常に興奮している多くの理由の1つです。そして、だからこそGoogleはピザに接着剤を付けるように指示するのかもしれません。マシンは愚かですらない。愚かになる能力がないのです。

こうしたシステムを設計する人たちは、実際に起こっていることよりもずっとクールに聞こえるので、これを幻覚と呼んでいます 人間は現実とのつながりを失うと幻覚を見​​ます。しかし、皆さんのお気に入りの AI チャットボットは、そもそも推論や論理ができなかったために幻覚を見ているわけではありません。2022 年 11 月のロールアウト中に ChatGPT などのツールを初めて試したときに私たち全員を感動させた言語よりも説得力に欠ける言葉を吐き出しているだけです。そして、地球上のすべてのテクノロジー企業が、独自の未完成の製品でその最初の高揚感を追い求めています。

しかし、ChatGPT が最初に素晴らしい成果をあげた後、これらのツールを正確に評価する時間が誰にもなく、宣伝は止むことなく続いています。もちろん、問題は、答えがわからない質問を AI に尋ねた場合、追加の事実確認を大量に行わなければ、答えを信頼する方法がないことです。そして、それはそもそもこれらの賢いマシンに質問する目的を台無しにします。信頼できる答えが欲しかったのです。

この件についてコメントを求められたGoogleの広報担当者は、Gizmodoに次のように語った。

私たちが目にした例は、一般的に非常に珍しいクエリであり、ほとんどの人の経験を代表するものではありません。AI 概要の大部分は、Web 上でさらに深く掘り下げるためのリンクを含む、高品質の情報を提供します。私たちはこの新しいエクスペリエンスを開始する前に広範なテストを実施し、これらの個別の例を使用して、システム全体を改良していきます。

とはいえ、AI システムの知能をテストする過程で、私たちは実際にいくつかの新しいことを学びました。たとえば、ある時点で、私たちは Google に犬が飛行機を操縦したことがあるかどうかを尋ねました。答えは「いいえ」だろうと予想していました。するとなんと、Google の AI の要約が、根拠のしっかりした答えを提供しました。はい、実際に犬は飛行機を操縦したことがあります。そして、それはアルゴリズムの幻覚ではありません。

Google の検索における AI の展開について、どのような経験をされましたか? 受け取った応答に、何か奇妙な点や明らかに危険な点に気づきましたか? コメントでお知らせください。スクリーンショットがある場合は、必ず添付してください。これらのツールは、好むと好まざるとにかかわらず、今後も存在し続けるようです。