今年の Google I/O はこれまでで最も退屈だった

Google の年次開発者会議が終わりましたが、まだ何が発表されたのかわかりません。
いや、わかっています 。Gemini がショー の大きな部分を占め、その週の主な話題になったこと、そしてモバイル オペレーティング システムからデスクトップの Web アプリまで、Google の製品ポートフォリオのあらゆる部分に Gemini を組み込む計画があることは知っています。でも、それだけです。
関連性のあるコンテンツ
Android 15の登場 とそれがOSにもたらすものについてはほとんど語られなかった。2番目のベータ版が公開されたのはカンファレンスの2日目だった。Googleは通常、初日の基調講演の終わりごろにそのベータ版を発表する。少なくとも、過去数回の開発者カンファレンスでの現状を考えると、私はそう予想していた。
関連性のあるコンテンツ
- オフ
- 英語
こう感じているのは私だけではありません。ブログからフォーラムまで、私と同じ気持ちの人は他にもたくさんいます。Google I/O に既存の製品のユーザーとして参加するのは、今年は大変な年でした。タイムシェアのプレゼンテーションの 1 つに感じました。会社がアイデアを売り込み、その後は楽しいことや無料のものでなだめ、年に数回しかアクセスできない物件にいくら頭金をつぎ込んだかを考えないようにするのです。しかし、どこへ行っても Gemini のことを考え続け、それが現在のユーザー エクスペリエンスにどのような影響を与えるかを考えていました。基調講演では、これが私が望む未来であるとはほとんど納得できませんでした。
ジェミニAIに信頼を寄せてください

Google の Gemini には、多くの素晴らしい機能があると思います。まず、私はCircle to Search を 積極的に使用しているため、その機能を理解しています。画面をスワイプすることなく、作業の完了、メモの要約、情報の取得に役立つことを実感しました。Project Astra も試し、この大規模言語モデルが周囲の世界を認識し、人の顔の微妙なニュアンスを捉える可能性を体験しました。これがリリースされ、オペレーティング システムに完全に統合されたら、間違いなく役立つでしょう。
それともそうでしょうか? 私は、楽しみのために AI を使った物語を作りたい理由を理解するのに苦労しました。これは Project Astra のデモのオプションの 1 つでした。Gemini が環境の物理的な側面に対して状況に応じた応答を提供できるのはすばらしいことですが、デモでは、この種のインタラクションが Android デバイスで具体的にいつ発生するかを正確に説明できませんでした。
Gemini の存在の背後にある「誰が」「どこで」「何を」「なぜ」「どのように」という点はわかっていますが、「いつ」という点はわかりません。Gemini はいつ使われるのでしょうか。この技術が現在の Google アシスタントの残骸を置き換える準備が整うのはいつでしょうか。Google I/O での基調講演とデモンストレーションでは、この 2 つの質問に答えられませんでした。
Google は、開発者が今後の成果からどのような恩恵を受けるかについて、多くの例を示しました。たとえば、Project Astra はコードを調べて改善を手助けします。しかし、私はコードを書かないので、このユースケースにすぐには共感できませんでした。次に、Google は、Gemini がオブジェクトが最後に配置されていた場所を記憶する方法を示しました。これは確かにすばらしいことで、たとえば、要求されるすべてのことに圧倒されてしまうような日常の人々に、それがどのように役立つかがわかりました。しかし、その点については何も触れられていませんでした。コンテキスト AI がコンテキスト内で使用されていることが示されないのであれば、何の役に立つのでしょうか。
私はこれまで 10 回 Google I/O 開発者会議に参加してきましたが、将来のソフトウェア アップデートを楽しみにする代わりに、頭を悩ませながら去ったのは今年が初めてです。Google が、そのエコシステムに留まるために私たちがどのように適応しなければならないかについて明確に説明することなく、ユーザーに Gemini の物語を押し付けていることに、私は疲れ果てています。
おそらく、Google は誰も怖がらせたくないからでしょう。しかし、ユーザーとしては、沈黙は何よりも怖いのです。