みんなのケータイ

GoogleマップのARナビをPixel 3 XLで体験してみた

【Pixel 3 XL】

 徒歩ナビアプリとしても普段から愛用している「Googleマップ」。最近になってAR機能が発表されました。Pixelシリーズでまずは利用できる、とのことで、「Pixel 3 XL」ユーザーの筆者もさっそく試してみることに。

 GoogleマップのAR(拡張現実)機能は、米国で開催された開発者向けイベント「Google I/O」で紹介されたもの。目的地までのナビゲーションで、カメラで捉えた周辺の映像に、目的地の方向を示す矢印などを合成します。

 使い方はかなり簡単。目的地までの住所を入力し、ルートをはじき出すと画面下部に「ARを開始」というボタンが表示されますので、そこをタップすればARナビへ切り替わります。あとは画面上にカメラが捉えた周囲の風景と、進むべき方向のガイドに従うだけ。

 行くべき方向に矢印がアニメーションで示される様はまさに未来。画面の小さなスマートフォンですが、これはかつてのGoogle Glassのようなデバイスで使いたくなるUI。視界いっぱいに現実世界とARなオブジェクトがミックスされたらきっと楽しくなる……! と予感させてくれる出来映えです。

 ARナビを始めると、周囲の風景にある特徴点を表示します。ARナビ表示中に歩けば、画面上には警告が表示されます。スマートフォンを下ろせば画面上はARナビ→通常のナビへ切り替わります。つまり「どちらへ行けばいいか、ARナビで確認し、通常マップをちらちら見ながら目的地へ行く」といった使い方になるようなユーザーインターフェイスです。地下鉄の出口から出た瞬間、どちらの方向へ行くべきか、判断する際にとても役立ちそう。

 「Google I/O」での解説によれば、Googleはストリートビューとして世界中の街並みの写真を収集。そのデータと、ユーザーのスマートフォンで捉えた風景のデータ、グーグル自身のAR技術「ARCore」、そしてマシンラーニング(機械学習)を組み合わせて、今回のARナビを作り上げたそうです。たとえばマシンラーニングという面では、人々が歩ける歩道はどこか、ストリートビューのデータだけではなく航空写真、衛星写真などからも学習し、歩道橋や地下道、横断歩道、あるいは公園の遊歩道などを自動的に判別してきたそう。

特徴点と照合
マッチしたらカラフルな印になって誘導に切り替わります

 10年以上にわたり、世界中で収集したストリートビューのデータが、まさにスマートフォンでもARという形で活用されているのですが、あいにくと中国やアフリカなどのデータはないそう。

 ちなみに夜、利用する際はどうなるでしょうか。周囲が明るければ、スマートフォンの補正機能(HDR)もあって、うまくARナビが動作するようですが、そうでなければ周囲を認識できずARの合成ができないというのが開発者向けイベントでの説明。少なくとも、国内の都市部では、ある程度利用できるのかなあ……と期待できそうです。

 ARでナビゲーションすることの強みは何でしょうか。それは、現実世界との組み合わせだとグーグルの中の人は語ります。都市における道路や区画の大きさや形状はさまざま。碁盤の目のような区画もあれば、目的地がビルの高層階にあり、そこまで地下街を通らなければならないような街もあります。地図の見方も人によって違っている。

Google I/Oで示された都市の形の違い

 世界中にさまざまな街、さまざまな人がいる中で、ARは現実世界にオブジェクトを置くことが、とてもわかりやすい案内になるというのです。なるほど、それはとても納得できます。そうした点を考慮した上で、ARナビの矢印の形やアニメーション効果が設計されています。

 とはいえ、ARナビはまだα版。開発の比較的初期段階にあり、改善できる点は多いようです。たとえば、Pixel 3 XLで使ってみると、ちょっと動作が重く感じることがあります。2D地図との切り替えにもたつく場面が何度かあったのです。

 こうした点は、今後の開発で改善されるのでは、と期待したいところ。安定していけばAndroidのみならず、iPhoneでもそのうち利用できるようになるかもしれませんね。