一度は諦めた「ARグラス」を再始動させるGoogle、今度は“引けない“理由とは?

2

2025年06月04日 13:41  ITmedia NEWS

  • チェックする
  • つぶやく
  • 日記を書く

ITmedia NEWS

写真

 Googleが再びスマートグラスに参入する。先日のGoogle I/O 2025では、新プラットフォームである「Android XR」を使い、同社のAIであるGeminiと連携するグラス型デバイスを発表した。


【写真を見る】Googleが開発中の「メガネ型デバイス」などをじっくり見る(全12枚)


 このデバイスの狙いはどこにあり、2012年に発表した「Google Glass」とどこが違うのだろうか。


●Android XRとはなにか


 Google I/Oで公開されたデバイスは、前述のように「Android XR」というプラットフォームの上で動いている。名前でわかるように、基盤となるのはAndroidであり、そこに、仮想現実・拡張現実(XR)向けの機能と最適化したGoogle純正アプリ、Google Playストアなどを加えたものと考えていい。


 Metaなどの他社のXR機器の多くも、Androidの核となるオープンソース版である「Android Open Source Project(AOSP)」をベースにしている。だが、その上で動くXR向けのUIや、アプリケーションストアなどのエコシステムは独自のものだ。


 そして、他とAndroid XRの大きな違いが「複数の使い道に対応し、アプリ開発に一貫性がある」ことだ。


 Google I/Oで筆者は2つのAndroid XR対応機器を体験した。


 1つは「Project Moohan」。Googleが韓国Samsung Electronics、米Qulacommとともに開発中のデバイスで、年末までには発売を予定している(日本での発売は未定)。


 こちらはMeta Quest 3やApple Vision Proに近い、他の機器と接続せずに使える単独のデバイス。ビデオシースルー型のMixed Realityであり、使い勝手のイメージはVision Proに近い、かなりハイエンドなデバイスだ。画質もかなり高く、YouTubeやGoogleマップなどを非常に没入感のある形で楽しめる。GoogleによるVision Pro対抗、といってもいいだろう。


 もう1つがスマートグラス型のプロトタイプだ。こちらはGoogle I/Oの基調講演でデモされたものとほぼ同じもので、Googleの内製による開発機材。別途スマートフォンを用意し、そちらとワイヤレス接続して使う。カメラやマイクで周囲の情報を把握し、情報・画像を表示する機能はあるものの、画像は常に視野の一部に固定される。XRというよりも「情報表示型デバイス」といった印象が強い。


 例えばGoogleマップと連動し、「次にどこをどちらに曲がるべきか」をチェックしつつ歩くこともできる。以下の画像はAndroid XRの公式ページからの抜粋だが、解像度こそ劣るものの、実際にほぼこの通りの表示が体験できた。


 Googleはこれらのデバイスを、Android XRという1つのプラットフォームでカバーする。Googleはアプリ開発者のエコシステムを重視し、一貫したプラットフォームを使って、できれば一度の、1つのアプリ開発でハイエンドからスマートグラスまで対応することを目指しているわけだ


 他社は現状、ハイエンドなものとスマートグラス的なアプローチを別のプラットフォームに分ける傾向がある。UIや体験、ハードウエア用件が大きく異なるので、分ける理由も理解できる。


●技術進化と他社競合がAndroid XRを産んだ


 Googleは2012年に「Google Glass」を発表した。だが結局コンシューマ市場向け製品の発表までは辿り着けず、ビジネス向けも結局終息した。


 その一方、2020年代に入ってから、Googleは現在の「Android XR」に相当する技術の開発を進めていた。2023年以降、何度か発表が延期され、昨年末にようやく開発者向けにプラットフォームが発表された。そして初の製品であるProject Moohanが発売に至り、その後来年にかけて、スマートグラスタイプの製品が出てくることになるだろう。


 Android XRとGoogle Glassはどこが違うのか? ポイントは3つある。


 1つは、技術が大幅に進化したという点だ。2010年代、メガネ型デバイスに組み込めるディスプレイやカメラ、マイクの性能には制限が大きかった。その後、VR用機器や産業用スマートグラスなどの開発が続き、利用可能な技術が増えてきた。プロセッサーという面で、クアルコムの全面協力を得られているのも大きいだろう。


 2つ目は「他社のあとを追いかけられる」点。ハイエンド・イマーシブ体験向けはMeta Quest 3やVision Proがあるが、それに加え、スマートグラスではMetaの「Ray-Ban Meta」のスマッシュヒットがある。


 Ray-Ban Metaはスマホと連携するサングラス型のスマートグラス。カメラとマイクを搭載し、スマホとはワイヤレス接続する。そして、スマホのアプリとクラウドが連携して提供される「Meta AI」と連動し、色々な質問に答えてくれる。ディスプレイは備えていないが、音声で自分だけがスマホ・AIからの情報を聞くことができる。もちろんカメラでの静止画・動画の撮影も可能だ。


 この製品は2023年末の発売以降、200万台以上が出荷されている(日本国内では未出荷)。ハードウエアとしては比較的シンプルな構造なので、Ray-Ban Metaの成功以降、多数の企業が同様のデバイスの製品化を進めている。


 実はAndroid XRも、今回デモされた「ディスプレイ付き」以外に、ディスプレイのないモデルも開発可能となっている。これはまさにRay-Ban Metaの後追いだ。


●AI=Geminiの存在こそが本質的な変化


 そして3つ目の条件がもっとも大きい。


 それは「AIとしてGeminiがある」ことだ。


 10年前にももちろんAIはあったが、音声認識やシンプルな画像認識などが中心だった。音声で特定の命令を聞くことはできたが、自由な質問をすることも、使っている人を取り巻く周囲の状況を把握することもできなかった。


 しかし現在は、生成AIの進化により、画像・音声を含めた認識と理解、そして人間との自然なコミュニケーションが可能になってきている。会話についてはすでにかなり滑らかになり、人間と聞き分けることも難しくなった。目の前に何があるのか、それがどんなことを意味しているのかという情報を取得する精度は高まっており、Google Glassの時に目指した理想を「ちゃんと実現する」可能性が高まっている。


 Google I/Oでは自動翻訳のデモが行われたが、これもGeminiのようなAIが実用的になり、スマホとの連動で使えるようになってきたから……という部分が大きい。


 さらに重要なのは、スマートフォンやWebサービスの上で蓄積した情報や行動を、AIが活用して「自分向けのアシスタント」とする世界も見えてきた、という点だ。


 現状ではどこまで複雑なことができるかは見えていない。だが、Googleは「Project Astra」として、カメラや音声から得た情報をもとに人間と高度なコミュニケーションを伴い、一連の作業を行う様を公開している。Project Astraは未来の姿だが、そのための道具としては「カメラやマイクを備えたスマートグラス」が望ましい。


 GoogleはGeminiの高度化を進めており、ソフトウエアの進化で価値が大きく変わっていくだろう。だとすれば、その進化を支える人とのインターフェースになるデバイスが必要になる。


 GoogleがAndroid XRを作ったのは、元々はXRデバイス対策だったかもしれないが、今はその技術を応用し、「AIの価値を最大化するデバイス」を普及させるための方法論でもある。同社がGeminiに社運を賭けるなら、スマートグラスを作るのは必然でもあるのだ。



このニュースに関するつぶやき

  • とっとと伊達メガネに装着する小型プロジェクターみたいなんどっかださないかな
    • イイネ!0
    • コメント 0件

つぶやき一覧へ(2件)

ランキングIT・インターネット

前日のランキングへ

ニュース設定