AIガジェットは今、苦境に立たされていると言っても過言ではないでしょう。HumaneとそのAI Pinは、会社が解散しHPに売却されたことで、完全に過去のものとなりました。Humaneの対抗馬であるRabbitは、最近R1デバイスに大規模なソフトウェアアップデートを導入しましたが、まだ健在です。しかし、オレンジ色のガジェットについて私が言える良い点は、これくらいです。
さらに悪いことに、AIガジェット分野の救世主と目されるサム・アルトマン氏とジョナサン・アイブ氏は、5月にIOという新会社を設立し、次世代のビッグデバイスを開発する計画を発表したが、彼らもまた苦戦しているようだ。今週フィナンシャル・タイムズが報じたところによると、アルトマン氏とアイブ氏は、彼らのガジェット(「手のひらサイズ」のデバイス)を実用化したり、プライバシーを確保したり、さらにはクラウドAIで完全に駆動させたりすることに苦戦しているようだ。これはあまり良い状況ではない。
大変な騒動ですが、そうした苦難にもかかわらず、 「AI」という名前を冠し、衰退傾向にないデバイスが一つ あります。それは手のひらやシャツの上ではなく、顔に装着するデバイスです。私が言っているのはスマートグラス、特にMetaの「AIグラス」です。スマートグラスは今まさに注目を集めており、Ray-BanのブランドイメージもあってMetaがその中心にいます。MetaのスマートグラスをR1やAi Pinのようなデバイスと同列に扱うのは奇妙に思えるかもしれませんが、Metaはそうは考えていません。特にスクリーンのないバージョンは、AIがスマートグラスの中心にあるのです。

Ray-Ban Meta AIグラスをご存知ない方のために知っておくべき唯一のことは、「Hey Meta」が、このグラスをスマートに感じさせる鍵だということです。内蔵の音声アシスタントで、音楽を再生したり、写真や動画を撮影したり、WhatsAppやInstagramで通話したり、天気やバッテリー残量を確認したりといった、音声アシスタントの一般的な機能も使えます。しかし、「Hey Meta」はそれだけではありません。音声アシスタント機能に加え、Ray-Ban Meta AIグラスはコンピュータービジョンも搭載しています。
AIグラスに搭載されたカメラとマイクのおかげで、Meta AIを使えば(理論上は)通常の音声アシスタントではできない多くのことができる。例えば、テキストや音声を翻訳したり、アート作品や店内の商品に関するコンテキストを提供したり、見ているものを説明してもらえたりするなどだ。これはアクセシビリティの観点から見て非常に便利な機能だ。しかし、MetaのAIグラスがHumaneのAi PinやRabbitのR1と異なるのは、販売実績を見ればわかるように、スマートグラスは人々が実際に使いたいフォームファクターだということだ。Metaは2023年のAIグラス発売以来200万組を販売している。これはiPhoneのレベルには及ばないが、比較的新しいデバイスカテゴリーとしては決して悪いスタートではない。これらの数字をHumaneが販売した1万個のAi Pinと比較すると、成功はさらに期待できる。
誤解しないでください。人々がスマートグラスを購入する理由はさまざまで、そのほとんどは AI とは関係ないはずです。しかし、スマートグラスが第一の関心事ではないからといって、人々がそれを使わないというわけではありません。むしろ、スマートフォンの同様のツールよりも、その傾向が強いかもしれません。
Googleなどの企業は、Geminiを通じてPixelデバイスにAIを重点的に搭載してきたが、その採用は低調だ。機能は新しく、認知度もまだ低い。また、特にスマートフォンでコンピュータービジョンを使う場合は、スマートフォンを取り出して機能に移動し、目的の作業を行う必要があるため、抵抗が大きい。スマートグラスの場合はどうだろうか。それほど障壁はない。タッチベースのUIではなく音声コマンドに重点が置かれているため、コンピュータービジョンは、スマートグラスの使い方のより自然な一部となっている。スマートグラスでは、デバイスは常に手元にあり、常に欲しいものに向けられている。ピンやカードサイズのコンピューター、さらにはスマートフォンというどこにでもあるガラス板に対して、スマートグラスが優位に立っているのは、そのフォームファクター(そしてある意味ではそのフォームファクターの制約)によるものだ。

さて、これらのコンピュータービジョン中心の機能が使いこなせるかどうかは全く別の問題です。Ray-Ban Meta Gen 1とGen 2を徹底的に使ってきた経験から言えるのは、スマートグラスの高度なAIコマンドは、たとえ本当に使いたいと思っても、うまく機能するかどうかは当たり外れがあるということです。例を挙げましょう。
母とビーチで波打ち際でサメの歯を探していたら、歯らしき貝殻を見つけました。サメの歯のように見えますが、本当にサメの歯だと断言できるでしょうか? レイバンのMeta AIメガネをかけた状態で、手に持った貝殻(というか歯)を見て、「ねえMeta、これがサメの歯かどうか、どうすればわかるの?」と尋ねました。答えは? ええ、サメの歯を持っているんです。素晴らしい! ただ、明らかに歯ではない黒い貝殻を拾ったのですが、メガネで見ると全部 歯でした。ちょっと残念です。
私の要求は確かに無理難題ではありますが(おそらく、このような質問に答えるには相当な難解な知識が必要でしょう)、一方で、まさにMeta AIが真価を発揮すべき時です。しかし、私の答えが満足のいくものであったかどうかはさておき、私がわざわざMeta AIを使ってみたという事実自体が大きな意味を持ち、それはほとんどのAIデバイスが持ち合わせている以上のものです。AI機能に人々を慣れさせることは、AI中心のデバイスにとって大きな課題であり、デバイスの使い方を訓練すること、あるいは神に祈ってでも再訓練することは容易ではありません。Metaと、ますます混沌としたスマートグラスのラインナップにとって、Meta AIが実際に役立つようになるまでにはまだまだ長い道のりが待ち受けていますが、AIガジェットの失敗例の中で、スマートグラスはむしろ失敗を繰り返す存在なのかもしれません。