新型iPad Proタブレットに搭載され、iPhone 12にも搭載されるという噂もあり、ここ数年AndroidスマートフォンにもLiDARの形態が登場しています。LiDARとは一体何なのでしょうか?そして、なぜモバイルデバイスにLiDARが必要なのでしょうか?ここでは、この技術の仕組み、活用方法、そして近い将来スマートフォンのカメラと同じくらい普及する可能性がある理由について解説します。
LiDAR(「光検出と測距」、または「レーザー画像検出と測距」、あるいは単に「光とレーダー」など、お好みに応じて使い分けてください)という言葉を耳にしたことがあるなら、それは自動運転車との関連かもしれません。LiDARは現在、車両が自分の進行方向や周囲の状況を把握するために使用されている主要技術の一つです。
LiDARの歴史は自動運転車よりもはるかに古く、1960年代に誕生しました。当初は衛星や軍事目標の追跡を目的としており、その基本的な考え方は、光を使って物体の位置を追跡するという、今日のLiDAR技術の根底にある考え方と同じです。
光、特にレーザー光が物体に当たって戻ってくるまでの速度を測定することで、その物体の位置を特定できます。これは初期のLiDARシステムの仕組みであり、Appleの最新タブレットにも搭載されています。
1980年代にはLiDAR技術が大幅に進歩し、赤外線レーザーシステムが航空機を用いた建物や地形の測量に広く利用されるようになりました。これらの技術は現在も利用されており、深海からマヤ文明の隠れた集落まで、あらゆるものの計測に利用されています。

LiDARデータは、レーザー光が戻ってくるまでの時間だけでなく、反射角度も記録することで、他の情報と組み合わせて非常に正確な3Dマップを作成することができます。業務用LIDARシステムは、スマートフォンに搭載されているGPSユニットと組み合わせられることが多く、GPSも今では一般的な技術となっています。
LiDARは、前述の通り、自動運転車にも非常に役立ちます(ただし、イーロン・マスクはLiDARのファンではありません)。車両に搭載されたLiDARスキャナーは、運転者自身では見えない物体も含め、リアルタイムで物体を「見る」ことができ、ポイントクラウドと呼ばれる空間上の点群の3次元マップを作成します。これにより、自動運転車はLiDARのポイントクラウドを回避できるようになります。
特定のLiDAR構成は、大気中の汚染物質を検出できるほど感度が高く、空港の交通量を監視することも可能です。これらのアプリケーションに共通するのは、データ収集とデータ分析の微妙なバランスに依存していることです。これは、タブレットやスマートフォンを使用する場合に留意すべき有用なフレームワークです。
さて、モバイルデバイスの話に戻りますが、最新の深度センサーを説明する際に「LiDAR」という言葉を初めて使ったのはAppleです。iPhoneやiPadには長年、深度センサーが搭載されています(ポートレートモードで撮影した写真の背景をぼかすのに使われています)。しかし、LiDARはそれを全く新しいレベルに引き上げます。

Appleによると、新型iPad Proに搭載されたLiDARスキャナーは、光子レベルのセンサーを最大5メートル(16フィート以上)の距離まで、ナノ秒単位の速度で捉えることができるとのこと(瞬く間にあらゆるシーンを捉えることができる)。A12Z Bionicチップセットも、データの解釈という点で大きな役割を果たしていることは間違いない。近い将来、LiDARが低価格スマートフォンに搭載される可能性は低いだろう。
最も大きな違いは、Appleの得意分野の一つである拡張現実(AR)で見られるでしょう。例えば、iOSとiPadOSに新たに搭載された計測アプリは、LiDARを活用することで、より高速で、より正確で、よりきめ細かな計測が可能になります。iPad Proでは、長さ、奥行き、高さを大まかに計測するだけの目新しいものではなく、本格的な計測ツールとして活用できます。
LiDARの登場により、Appleデバイスは初めて、飛行機が長年海や山の地形を測量してきたように、周囲の環境を3Dで詳細に測量できるようになりました。テーブルの上にMinecraftを置くだけでなく、テーブルの上、床の上、そして猫の周りでも、何の不具合もなくMinecraftを操作できるようになるのです。
リビングルームに家具を配置できるARアプリでは、これらのオブジェクトは既存の空間の一部のように見え、既存のオブジェクトにぶつかっているように見えるようになります。また、ARゲームでは、角の後ろやフェンスの上からキャラクターが現れる様子を、これまで以上にリアルに再現できるようになります。

オブジェクトの配置はより正確で本物らしくなり、リアルタイムのモーションキャプチャはより包括的になり、シーンの中央にある物理的なオブジェクトは、使用している AR アプリによってより適切に処理されるようになります (LiDAR がもたらす改善は、利用可能な場合は、自動的に Apple の ARKit フレームワークに組み込まれます)。
現時点では、LiDARに必要な処理能力とスマートフォンに搭載されるセンサーのせいで、この技術はハイエンドデバイスに限定されていますが、他のモバイル技術と同様に、時間の経過とともにコスト削減と実用化が進むはずです。Appleがこの技術を継続するのであれば、範囲と精度は年々向上していくと予想されます。
だからといって、スマートフォンへのLiDAR搭載が必然というわけではありません。他の深度検知技術も利用可能であり、人工知能は標準的なカメラセンサーを用いた深度検知の精度をさらに向上させていくでしょう。しかし、LiDARはあらゆる照明条件で非常に高速かつ正確に動作するため、AppleがLiDARに注力している理由の一つでもあります。
しかし、Appleの最新iPadに搭載されているLiDARの形態は、多くのハイエンドAndroidスマートフォンが採用しているものとは大きく異なります。多くのAndroidスマートフォンで採用されている深度センサーは、正式にはTime-of-Flightセンサー、またはToFセンサーと呼ばれ、多くの意味ではLiDARです。LiDARと同様に、ToFセンサーは反射光を用いてカメラエフェクトやARのための距離を測定します。しかし、ToFセンサーはスキャナーレスLiDARシステムであり、単一の光パルスで空間全体をマッピングします。一方、AppleはスキャナーLiDARを採用しており、複数の光点を用いてより頻繁かつ高精度に計測を行います。
スマートフォンは最初の iPhone から 13 年が経過し、私たちを驚かせる能力を失ってしまったとしても、さらに高速化、スマート化、高性能化が進む可能性があり、LiDAR がその証拠です。