今年のGoogle I/Oは史上最も退屈だった

今年のGoogle I/Oは史上最も退屈だった

Google の年次開発者会議が終わりましたが、まだ何が発表されたかわかりません。

ええ、知っています。Geminiが番組の大きな部分を占めていたこと、つまり今週の主役だったことは知っています。そして、モバイルOSからデスクトップのウェブアプリまで、Googleの製品ポートフォリオのあらゆる部分にGeminiを組み込む計画があることも知っています。でも、それだけだったんです。

Android 15の登場と、それがOSにもたらすものについてはほとんど語られませんでした。2つ目のベータ版が公開されたのは、カンファレンスの2日目になってからでした。Googleは例年、初日の基調講演の終盤でいきなりベータ版を発表します。少なくとも、ここ数回の開発者カンファレンスではそれが常だったため、私はそう予想していました。

こう感じているのは私だけではありません。ブログやフォーラムなど、私と同じ気持ちの人は他にもたくさんいます。Google I/Oに既存製品のユーザーとして参加するのは、大変な一年でした。まるでタイムシェアのプレゼンテーションのようでした。会社がアイデアを売り込み、その後は楽しい特典や無料のものでごまかし、年に数回しかアクセスできない物件にどれだけの頭金を支払ったかを考えさせないようにする、そんな感じでした。しかし、私は行く先々でGeminiのことを考え続け、それが現在のユーザーエクスペリエンスにどのような影響を与えるのかを考えていました。基調講演では、これが私が望む未来だと確信することはほとんどできませんでした。

ジェミニAIに信頼を寄せてください

写真:フローレンス・イオン/ギズモード
写真:フローレンス・イオン/ギズモード

GoogleのGeminiには、多くの素晴らしい機能があると信じています。まず、私はCircle to Searchを頻繁に使っているので、その魅力は理解できます。画面をスワイプすることなく、仕事を片付けたり、メモを要約したり、情報を取得したりできるのを実際に体験しました。Project Astraも試用し、この大規模言語モデルが周囲の世界を認識し、人の顔の微妙なニュアンスを捉える可能性を実感しました。Geminiがリリースされ、OSに完全に統合されたら、間違いなく役立つでしょう。

それともそうでしょうか?Project Astraのデモの選択肢の一つだったAIを使った物語を、なぜ面白半分に作ろうとするのか、私には理解しがたい部分がありました。Geminiが周囲の物理的な状況に応じて状況に応じた反応を返せるのは素晴らしいのですが、デモではAndroidデバイス上で具体的にどのようなタイミングでこのようなインタラクションが発生するのか、説明されていませんでした。

Geminiの存在の背後にある「誰が」「どこで」「何を」「なぜ」「どのように」という情報は分かっていますが、「いつ」という情報は分かりません。私たちはいつGeminiを使うのでしょうか?この技術が現在のGoogleアシスタントの残骸を置き換える準備が整うのはいつでしょうか?Google I/Oでの基調講演とデモンストレーションでは、この2つの疑問に答えることができませんでした。

Googleは、開発者が今後の技術からどのような恩恵を受けるのか、多くの例を示しました。例えば、Project Astraはコードを分析し、改善を支援します。しかし、私はコードを書かないので、このユースケースにはすぐには共感できませんでした。次にGoogleは、Geminiがオブジェクトが最後に配置された場所を記憶する方法を示しました。これは確かに素晴らしい機能で、例えば、求められることの多さに圧倒されているような日常生活を送る人々にとって、これがいかに役立つかは理解できました。しかし、その点については何も触れられていませんでした。コンテキストAIが実際に使用されている様子が示されなければ、一体何の役に立つのでしょうか?

Google I/O開発者会議には10回参加してきましたが、将来のソフトウェアアップデートへの期待を抱くどころか、頭を掻きながら去ったのは今年が初めてです。GoogleがユーザーにGeminiのストーリーを押し付け、そのエコシステムに留まるために私たちがどのように適応しなければならないのかを明確に示さないことに、もううんざりです。

おそらくGoogleは誰かを怖がらせたくないからだろう。しかし、ユーザーとしては、沈黙は何よりも恐ろしい。

Tagged: