Metaが長らく約束してきた、Ray-Banスマートグラス向けのAI搭載視覚機能がついに登場します。搭載されたAIが、グラスに搭載された12MPカメラとマイクを通して周囲の環境を視覚、聴覚、そして解釈できるようになります。同社は火曜日の夜遅く、これらの新しいAI視覚機能がベータ版で利用可能になったと発表しました。視覚と聴覚を備えたモバイルAIには多くの利点がありますが、Metaの経営陣は、この新機能を可能な限り不自然で陳腐な方法で披露していると言えるでしょう。
MetaのCEO兼フロントマンであるマーク・ザッカーバーグは、スタイルで知られているわけではない。スティーブ・ジョブズの黒のタートルネックやサム・バンクマン=フリードの普段着のショートパンツとスリープシャツに比べれば、彼の服装に特別な特徴はない(もっとも、SBFは近いうちにクラシックなオレンジ色の囚人服を流行らせるかもしれないが)。火曜日の夜、ザッカーバーグはスマートグラスの将来的なAI機能を披露する最良の方法は、散らかったクローゼットにスマートグラスを持ち込むことだと判断した。そして、レトロなレインボーストライプが入った大きめのネイビーブルーのポロシャツを取り出した。

「ねえMeta、このシャツに合うパンツは何がいいか教えて」とザッカーバーグは眼鏡をかけながら尋ねた。これは、ChatGPTが9月に同様の機能をリリースして以来、視覚対応AIに尋ねた質問としては最も愚かな質問かもしれない。Metaのチャットボットは「ストライプのシャツのようですね」とロボットのように答え、ダークウォッシュのジーンズか無地のパンツを勧めた。もし私がその派手なヴィンテージポロシャツを手に持ち、レインボーストライプに合うパンツは何だろうと考えていたとしたら、AIの答えは全く役に立たないと思うかもしれない。
ザッカーバーグ氏は、AIがミームをスペイン語から英語に翻訳する様子を映した別の動画をインスタグラムに投稿しました。現時点では、AIの音声はまだぎこちなくロボットっぽいですが、Facebook MessengerとWhatsApp内でユーザーがチャットできる、有名人の声を当てたAIペルソナが実装されています。Metaは最終的にこの機能をより人間らしくする努力をしていく可能性が高いでしょう。
レイバンのメガネに追加された機能の中で最も便利なのは、Bing AIを通じてリアルタイム情報にアクセスできることでしょう。Metaによると、リアルタイム検索は近い将来、段階的に米国の全ユーザーに展開される予定です。Gizmodoはこれらの新機能をテストする機会はありませんでしたが、Metaは視覚対応AIのより可能性の高い用途をいくつか提案しています。例えば、「ハイキング中に撮影した写真にキャプションを付ける」や、手に持っている物の説明を依頼するなどです。視覚ベースのAIには、視覚障碍者や弱視者向けの現実世界でのナレーションなど、より優れた用途が明らかにありますが、Metaは今回の最初のベータ版では、その範囲を限定しているようです。
同社は、前回のMeta Connectカンファレンスで初めてこのAI統合について触れ、VRヘッドセット「Quest 3」も披露しました。これまでは、内蔵マイクが簡単なコマンドを拾い、Metaの会話型AIチャットボットに話しかけることができました。私は決してドリップ派ではないので(決してそうではありません)、ザッカーバーグのスタイル選択についてあまり厳しくコメントすることはできませんが、AIによる漠然としたスタイルアドバイスは、私にとってもザッカーバーグ自身にとってもあまり役に立たないのではないかと考えています。