メタバースのキラーアプリは仮想戦争?

メタバースを最も早く実現するのは軍隊かもしれない。軍事部門には3D疑似戦闘環境に対する明確なニーズと潤沢な予算があり、気まぐれな消費者の機嫌を取る必要がないからだ。


メタバースに必要な主要技術―拡張現実と仮想現実、ヘッドマウントディスプレイ、3Dシミュレーション、人工知能による仮想環境―は、すでに防衛の世界で見られるものだ。

例えば、拡張現実、人工知能、ビデオゲームグラフィックスを組み合わせることで、戦闘機のパイロットが数Gをかけながら、中国やロシアの戦闘機などの仮想敵と空中戦をする練習ができるようになった。

軍事空戦訓練用のアプリケーションを提供する拡張現実(AR)技術企業であるRed 6は6月、ARをベースにしたシミュレーション内で初の複数機による訓練飛行に成功したと発表している。

Red 6のARシステムでは、カスタマイズされたヘルメットとARバイザーを装着したパイロットが、Windows 10 PCと数個のセンサー、ゲームエンジンのUnreal Engineを含む設備とともに実際に飛行をする。

Red 6のAR機器を付けて飛行訓練に臨むパイロット。出典:Unreal Engine

ARバイザーを通して、パイロットは実際の環境と、3D立体視で映し出された1機または複数のCGの敵機を見ることができる。敵機は実機と同じように動くので、パイロットは自分や機体を危険にさらすことなく、脅威をリアルに体験することができる。

クラウド基盤の仮想戦闘環境

クラウドがサポートするスケーラブルなメタバースに向けた業界の進歩という点では、米国陸軍より進んでいる組織はない。米陸軍の「Synthetic Training Environment(STE、合成訓練環境)プロジェクトは、2017年から開発が進められている。

STEは、従来のサーバーベースのアプローチとは根本的に異なる。例えば、クラウドアーキテクチャ上に1対1の地球のデジタルツインをホストし、シミュレーションに高忠実度の地形データをストリームする予定だ。 クラウドのスケーラビリティにより、従来のサーバーでは対応できなかった人口密度や地形の複雑さなどの本質的な詳細を、より現実的に表現することが可能になる。

統合視覚拡張システムを使って、訓練シミュレーション・ソフトウェア「Squad Immersive Virtual Trainer」で訓練する兵士たち(アメリカ陸軍)

STEの目標は、AIベースの車両や歩行者などの何百万ものシミュレーション対象を、利用可能なデータリソースから自動的に引き出して、一度にレンダリングすることだ。

陸軍とMicrosoftの220億ドル契約

軍事部門によるメタバースの試みにおいて、最もインパクトが大きいと見られるのが、Microsoftが米陸軍と「HoloLens」を今後10年間で最大12万台を供給する総額220億ドルの契約を結んでいることだ。

この契約は、メタバースに対し明確なキャッシュフローを約束した契約の中で最大のものだ。ただし、統合オーディオビジュアルシステム(IVAS)プロジェクト(開発中の軍事用HoloLensの改良型のコードネーム)には遅れが生じ、Microsoft内のデバイス担当部門は、HoloLens 3がキャンセルされたり、会社全体の拡張現実戦略についてチームがよく分からないなど、良い状態ではないとBusiness Insiderは伝えている。