私の初代レイバンスマートグラスを見た人が必ず知りたいことが一つあります。それはAIやカメラ、あるいは驚くほど優れたオープンイヤーオーディオとは全く関係ありません。皆さんが今この記事を読んでいる時におそらく一番気になるのは、スクリーンが付いているかどうかです。答えは?残念ながら、今のところは答えはノーです。
Meta Connect 2025で、MetaはついにRay-Ban Displayスマートグラスを発表しました。名前からお察しの通り、スクリーンが内蔵されています。一見すると大したことないように思えますが、私たちの生活にはスクリーンがあふれています。実際、多すぎるほどです。しかし、発表に先立ち実際に使ってみて、きっとあなたは、意識しているかどうかはさておき、人生にもう一つスクリーンが欲しくなるだろうと確信しました。まずは、私が言うこのスクリーンの中で何が起こっているのか、正確に知りたいと思うでしょう。
AmazonでMeta Ray-Banを見る
ベストバイでメタレイバンを見る
答えは?もちろん、アプリです。ディスプレイは、以前の報道で示唆されていたモノクロではなく、実際にはフルカラーで、通知、ナビゲーション、さらには写真や動画などのヘッドアップディスプレイ(HUD)として機能します。ディスプレイの詳細な仕様については、私のハンズオン体験記事の関連記事をこちらでご覧ください。しかし今は、画面の感触に焦点を当てたいと思います。答えは?最初は少し違和感がありました。

重さ69g(スクリーンのない初代メガネより約10g重い)のRay-Ban Displayは、画面を顔の前に押し付けないように最大限の努力をしていますが、それでも画面は確かにそこにあり、まるで本物のクリッピーのように、通知でユーザーの気をそらそうと待ち構えています。そして、スクリーン付きのスマートグラスについてどう思うかはさておき、800ドルも出してもディスプレイがあるのは良いことです。目が画面に慣れれば(私の場合は1分ほどかかりました)、すぐに作業に取り掛かれます。そこでMeta Neural Bandの出番です。
Neural BandはMetaのsEMGリストバンドで、同社が長年披露してきた技術をWhoopフィットネスバンドほどのサイズに小型化しました。手の電気信号を読み取り、つまむ、スワイプする、タップする、手首を回すといった動作を入力としてグラスに記録します。最初はリストバンドがゴツゴツしたり、体に目立ちすぎるのではないかと心配していましたが、全く問題ありません。このスマートグラスはまさに極限まで軽量です。また、初代Ray-Banよりも明らかに厚みがあるにもかかわらず、軽くて快適に着用できました。

軽量で控えめなデザインよりも重要なのは、レスポンスの良さです。Neural Bandを手首にしっかりと装着すると(最初は少し緩かったですが、慣れれば快適になりました)、UIの操作は直感的に操作できました。人差し指と親指でつまむと「選択」、中指と親指でつまむと「戻る」、スクロール操作は握りこぶしを作り、その上に親指をまるで骨と肉でできたマウスのように動かします。Vision ProとQuest 3を少し足したような感じですが、ハンドトラッキングは必要ありません。滑らかに動く時は、まるで魔法のようです。
個人的には、入力にはまだ多少のばらつきがあり、入力が認識されるまでに1、2回試さなければならないこともありますが、ほとんどの場合うまく機能していると言えるでしょう(少なくとも、文字通り初めてのデバイスに期待するよりもはるかに優れています)。とはいえ、このエクスペリエンスは時間とともによりスムーズになり、UIを適切に操作できるよう十分に訓練すれば、さらに良くなると思います。将来のアプリケーションについては言うまでもありません!Metaはすでに手書き機能のリリースを計画していますが、リリース時には利用できません。私は直接見ることができました… ある程度。自分では手書きを使うことができませんでしたが、Metaの担当者が使っているのを見て、うまく機能しているように見えました。ただし、自分で使ってみるまで、どれほどうまく機能するかはわかりません。

操作についてはこれくらいにして、実際に操作してみましょう。Meta Ray-Ban Displayのほぼすべての機能を少しだけ体験してみましたが、スマートフォン関連の機能もすべて含まれています。特に気に入ったのはPOVモードでの撮影です。メガネのディスプレイにウィンドウが表示され、レンズを通して撮影しているものが表示されます。これで、写真を撮るときに推測したり確認したりする必要がなくなりました。さらに、指をつまんで手首をひねる(ダイヤルを回すように)だけでズームインできるのも「すごい!」と思いました。細かい操作ですが、手をかざすだけでカメラを操作できると、まるで魔法使いになったような気分になります。
もう1つの注目すべき機能はナビゲーションで、これはメガネのディスプレイに地図を表示して、現在地を示します。デモではメガネを装着したまま歩き回ることはできないため、この機能のテストには限界がありましたが、地図は非常に鮮明で、屋外でも使用できるほど明るく表示されました(日光の下でもテストしましたが、5,000ニットの明るさで十分でした)。Metaは、車に乗っているときも自転車に乗っているときもナビゲーションを使用するかどうかはユーザー次第ですが、高速移動していることが検知されると、画面を見る危険性について警告が表示されます。自転車に乗っているときにHUDがどれほど注意をそらすかは分かりませんが、いずれ本格的にテストする予定です。

実際に使えるかもしれないもう一つの興味深い機能はビデオ通話です。通話相手のビデオが右下隅に表示されます。この機能の面白いところは、通話相手の主観視点なので、通話相手もあなたの視線を捉えることができることです。通話相手は、あなたが見ているものだけでなく、あなた の姿も見たいと思っていることが多いので、どんな状況でもこの機能を使うわけではありませんが、少なくともちゃんと機能していることは確認できました。
仕事と言えば、ライブトランスクリプション機能も搭載されています。これは、周囲の音を聞き取り、相手の話をスマートグラスのディスプレイに重ねて表示します。この機能を使ってみて、2つのことを考えました。1つ目は、アクセシビリティに革命をもたらす可能性があるということです。聴覚に障害がある場合、実際にライブトランスクリプションを見る ことができるのは非常に便利です。2つ目は、この機能は翻訳にも役立つ可能性があるということです。Metaは既にこの点を念頭に置いています。スマートグラスを使って他の言語を翻訳する機会はありませんでしたが、その可能性は十分にあります。
ただし、ここで私が予測する1つの問題は、スマートグラスが近くで交わされている他の会話を拾ってしまう可能性があることです。Meta社もこの点を考慮しており、Ray-Ban Displayのマイクは実際にビームフォーミングを行って、見ている人物にのみ焦点を合わせているとのことで、実際に試してみる機会を得ました。Meta社の担当者の1人が部屋で私に話しかけている間、他の人たちはごく普通の音量でそれぞれ会話をしていました。結果は?まあ、まちまちでした。音声は主に私が見ている人物に焦点を合わせていましたが、それでもあちこちで不要な言葉を拾ってしまいました。騒がしい場所では避けられないことのように思えますが、どうなるかは分かりません。もしかしたら、ビームフォーミングとAIがこれらのギャップを埋めてくれるかもしれません。

MetaのRay-Ban Displayスマートグラスのキラー機能をお探しなら、必ずしもそれがあるかどうかは分かりませんが、Neural Bandとの組み合わせはまさにゲームチェンジャーとなるはずです。スマートグラスのUI操作は、この分野で常に課題となっており、これまでキラーソリューションと呼べるものは見当たりませんでした。しかし、初期のデモを見る限り、Metaの「脳波を読み取る」リストバンドは、少なくともこのスケールでの手や目のトラッキングが可能になるまでは、私たちが待ち望んでいたブレークスルーになる可能性があると言えるでしょう。
Meta Ray-Ban Display を自分で使用する機会があれば、すべてがどのように機能するかについてさらに詳しく知ることができますが、現時点では、Meta は依然としてスマート グラス レースの先頭に立っており、その先行は非常に大きなものになったと言えます。
AmazonでMeta Ray-Banを見る
ベストバイでメタレイバンを見る