NVIDIAは、人工アプリケーションをローカルで実行するためのJetsonコンピューターの新バージョン(249ドル)をリリースした。手のひらサイズのOrin Nanoは、前モデルの半分の価格で速度と効率を2倍に向上させ、約70%多くの計算タスクを処理できるとNVIDIAは述べている。
Orin Nano は、独自の人工知能アプリケーションをトレーニングしたい愛好家や、クラウドに接続せずに高度なアプリケーションを実行したいロボットやその他の産業用ツールの開発者に最適です。
YouTubeで公開されたこの製品発表の短い動画では、NVIDIAのCEOであるジェンスン・フアン氏が自宅のキッチンに立ち、オーブンからトレイを取り出して、手のひらサイズの小型コンピューターを披露しています。フアン氏によると、このコンピューターは1秒間に約「70兆」回の演算処理が可能で、消費電力はわずか25ワットとのことです。

「ずっと昔、私たちは全く新しいタイプのプロセッサを開発しました。それはロボット工学用のプロセッサでした」とフアン氏は語る。「当時は誰も私たちが何を作っているのか理解していませんでした。でも、いつかディープラーニングモデルが進化し、あらゆるものに対応するロボットが登場するだろうと想像していました。」Jetsonコンピューターはロボットを動かすために開発されましたが、現在ではMetaのLlamaのような大規模な言語モデルも実行できます。
サム・アルトマン氏のスタートアップ企業World(旧Worldcoin)は、虹彩スキャンによる本人確認を目指しており、同社のスキャンデバイスOrbにJetpackモジュールを搭載しています。10月のブログ投稿で、Worldは「最新版のOrbは、最先端のNVIDIA Jetsonモジュールを搭載し、AIパフォーマンスが前バージョン比で約5倍向上しました。これにより、より高速でシームレスな本人確認が可能になります」と述べています。
本質的には、Orin Nanoは他のハードウェアに接続してAI機能を駆動できるポータブルな頭脳です。AmazonやGoogleのようなクラウドハイパースケーラー(AI向けに大規模なデータセンターを構築する企業)は、サーバーとAIモデルへのアクセスに料金を請求しており、そのコストは積み重なっていく可能性があります。倉庫ロボットなど、特定のアプリケーションでは、稼働時間の保証と最小限の遅延が求められる場合があります。遠隔地のクラウドホスティングプロバイダーに接続するのは理想的ではありません。とはいえ、Orin Nanoのようなコンピューターは、より軽量なAIアプリケーションの実行にしか対応しておらず、大規模なAIモデルのトレーニングと推論が可能な数万ドルもするNvidiaのハイエンドGPUを置き換えるものではありません。
それでも、AIの運用がますます安価になり、利用しやすくなっている世界では、スタートアップ企業は真の知的財産を持つことの価値をすぐに理解するでしょう。AIモデルをスマートホームカメラに押し込むだけでは、誰でも簡単に実行できる時代ではもはや十分ではありません。