Google 検索は今や巨大な幻覚

Google は先週全国的にリリースする前に数か月間 AI による概要をテストしていたが、明らかに時間が足りなかったようだ。AI はユーザーのいくつかの質問に対して幻覚的な 回答をしており、Google の主力製品全体で信頼性の低い体験を生み出している。先週、Gizmodo は Google から、糊で覆われたピザ について言及し、バラク・オバマがイスラム教徒だったことを示唆する AI による概要を受け取った。
幻覚は心配ではあるが、まったく驚くことではない。AI チャットボットで以前見てきたように、この技術は風刺とジャーナリズムを混同しているようだ。私たちが見つけた誤った AI の概要のいくつかは、The Onion を参照しているようだ。問題は、この AI が、何かを調べるために毎日 Google 検索を利用する何百万人もの人々に、権威ある回答を提供していることだ。今や、少なくともこれらの人々の一部には、幻覚的な回答が提示されることになる。
「AI概要の大半は、ウェブ上でさらに深く掘り下げるためのリンクとともに、高品質の情報を提供しています」と、Googleの広報担当者はギズモード宛ての電子メールの声明で述べ、同社が目にした例の多くは珍しいクエリからのものだと指摘した。「当社はコンテンツポリシーに基づいて適切な場合には迅速に行動し、これらの例を使用してシステムのより広範な改善を進めており、その一部はすでに展開し始めています。」
私の経験では、AI の概要は間違っていることよりも正しいことの方が多いです。しかし、間違った回答を得るたびに、Google 検索での全体的な体験に疑問を抱くようになります。それぞれの回答を注意深く評価する必要があります。Google は AI が「実験的」であると述べていますが、デフォルトで全員がこの実験に参加できるようにしています。
「検索では、何十億ものクエリを処理します」と、Google CEO のサンダー・ピチャイ氏は月曜日、AI 概要の展開について尋ねられた際にThe Vergeに語った。「クエリを見つけて私に渡して、『このクエリはもっとうまくできたのではないか』と言うことは絶対にできます。確かに、その通りです。しかし多くの場合、人々が AI 概要に好意的に反応する理由の 1 つは、私たちが提供する概要が明らかに価値を高め、そうでなければ考えなかったかもしれないことに目を向けるのに役立つからです。」
不思議なことに、Google 検索はクエリに対して「この検索では AI の概要は利用できません」と応答することもあります。また、何も言わずに従来の検索結果を表示することもあります。「米国大統領の民族はどれが多いですか」と検索したときや、「私に当てはまる果物は何ですか」と検索したときに、この回答を得ました。

Google の広報担当者によると、同社のシステムは時折 AI による概要の生成を開始するが、品質基準を満たさない場合は表示を停止する。特に、Google は人種問題が国内の広範囲に波紋を呼んだ後、人種問題に関するGemini の回答と画像生成を 数か月間停止しなければならなかった。この「停止と開始」による AI による概要生成が関連しているかどうかは不明だ。
明らかなのは、Google が言葉だけでなく行動を起こすプレッシャーを感じていたこと、つまり AI を検索に組み込む必要があると感じていたことです。インターネットで情報を探す主な方法として、ChatGPT、Perplexity、その他の AI 製品を選択する人が増えています。Google はこの競争を存在論的に捉えていますが、追いつこうとすることで検索エクスペリエンスを危険にさらしてしまったのかもしれません。
今週、Google 検索は AI による概要を通じて、人々に多くの奇妙なことを伝えました。ここでは、Gizmodo が見つけた最も奇妙なものをいくつか紹介します。