GoogleはAI分野でAppleに先んじました。Appleの最も野心的なIntelligence機能の一部が延期され、それに伴うSiriの幹部人事異動のニュースから、その可能性は十分に予想されていました。しかし今、Googleは一部のAndroidデバイスでGeminiに、より多くのコンテキスト対応機能を展開しています。
Googleは 今週、Project Astraを利用したGeminiのカメラと画面共有機能の提供を開始したことを確認した。これは、Gemini Advancedの有料プランとGoogle One AI Premiumプランのユーザーが利用できる。これらの機能を使うと、まるで教室に放送しているかのように画面を共有したり、ライブカメラを使って周囲のものに関するGeminiのインプットを得たりできる。Geminiを現実世界に持ち込んでGoogle Lensのように物体を識別させたり、自分のプロジェクトでGeminiのガイダンスを受けたりすることもできる。Googleが例に挙げているのは、お店でタイルを買うのを手伝ってもらうことだ。
今のところ、この機能を呼び出せるユーザーからの報告はインターネット上に散見される程度で、Redditのユーザーからの報告もその一つです 。そのため、今回の展開はそれほど本格化していないように思われます。Googleに確認したところ、展開は進行中とのことですが、私自身はまだアクセスできていません。最初にこの機能を使用したと報告したユーザーは、Google Pixelデバイスではなく、Xiaomiスマートフォンです。9to5Googleは、Gemini Liveで画面共有機能を実現し、 YouTube動画で紹介できるレベルにまで達したと報じています。

© YouTube
これはGoogleがGemini Liveをカメラアクセスで動作させる様子を紹介するために作成した動画のスクリーンショットです。Geminiは周囲の世界を「見る」能力があり、それが強みとなっています。iPhoneにはApple Intelligenceが「Visual Intelligence」と呼ぶ機能があり、カメラを使って物体やテキストを識別します。現在の実装は非常に限定的で、ユーザーと会話したり、GoogleのデモでGeminiが行っているようにタイルの色についてやり取りしたりすることはありません。Googleがこれらの機能をどのように磨き上げていくのか、興味深いところです。もしかしたら、ついにその有用性をユーザーに納得させる日が来るかもしれません。そうなれば、Appleが後れを取っていることへの批判はさらに強まるでしょう。
昨年、Googleの年次開発者会議でProject Astraを見学し、カメラ認識機能を実際に体験しました。その時は特に印象に残りませんでしたが、Appleが同様の機能でいかに失敗してきたかを考えると、GoogleがGeminiのカメラレンズを通した認識機能をデビューから1年も経たないうちに実現させたのは、なかなか感銘的です。
Pixel 9 Proにライブビデオと画面共有機能が導入されるのを楽しみにしています。実際にどのように活用できるか試してみたいと思います。Googleは対応デバイスを具体的には明らかにしていませんが、今後数週間のうちにPixelまたはSamsung Galaxyデバイスで確認してみることをお勧めします。