視線で操作、握って操作、眼鏡型機器も――ドコモのCEATEC展示


 NTTドコモは、10月2日~6日に開催される展示会「CEATEC JAPAN 2012」で同社が出展する内容の一部を公開した。

 実用化は未定ながら、新たな利用スタイルを提案するデバイス、スマートフォンの急激な普及を受けて開発された新基軸の操作方法、実用化が間近なサービスなど、幅広い内容となっている。

 なおドコモでは「CEATEC JAPAN 2012」において、発表済の秋発売モデルのほか、今後発表を予定している冬モデルの一部機種を先行的に展示する。

眼鏡にカメラを搭載、自分を撮影

 今回披露された展示内容で、最もユニークだったのは“メガネ型ウェアラブル端末”と名付けられたデバイスだ。用途としては、ハンズフリーでのテレビ電話を行う際、現状は携帯電話を手に持って自分自身の姿をとらえて、相手に伝える形となるが、こうした使い方は煩雑で利用が進まない要因になっている、とドコモ担当者は分析。現在の情報機器は、携帯電話やスマートフォンと、手に持つデバイスながら、将来的にはメガネ型デバイスに変化する可能性もあるとして、今回は、メガネに7つのカメラを搭載して、ハンズフリーで自分自身の姿を捉える、というスタイルを提案している。

カメラ付きの眼鏡型デバイス別の角度から見たところ。背後のディスプレイは、カメラで捉えたユーザーの姿をCGと実写(目付近は実写)で合成した姿

 7つのカメラは、左右のレンズの内側(計2カ所)と、レンズ横のヒンジ部の上下(計4カ所)、そして背後に設置されている。カメラは魚眼レンズを用いており、広い範囲を捉えられる。内側のカメラでユーザー自身を捉え、それをコンピューター上で合成すると、実写映像を使ったバーチャルなユーザーの姿が生成される。この生成された姿をテレビ電話の相手に見せる、という形になる。カメラで捉えきれない口付近などは、CGとなる。カメラ1つあたりで720p、30fpsという映像を映し出し、現在のデモ環境では、ウェアラブル端末ではなく、パソコンに伝送して映像が処理される。

 ヘッドマウントディスプレイなどメガネ型デバイスは数多く提案されているところだが、たとえばAR(拡張現実)などを実現するメガネ型デバイスは、周囲にある現実の物体に対して、新たな価値を加えて、ユーザー自身が体験する、といった流れで利用する。

 そうした外部に対してアクションを行うデバイスに対して、今回のドコモのデバイスは、ユーザーがかけたメガネは「外部ではなく、内側のユーザー自身を撮影するところが、今までにないポイント」(担当者)とされる。メガネをかけるユーザー自身は、新たな付加価値的な情報を得るわけではなく、ただ、自分の姿を見られるだけ、と受け身の格好。それでも通話相手に、自然な姿を伝えられるということで、未来に向けた研究成果の1つとなっている。

握って操作、視線で操作

 スマートフォン、タブレットの普及を受けて開発された、新たな操作方法も紹介されている。1つは「Grip UI」と呼ばれるもの。これは、端末の外装(側面と背面)に“触覚センサー”と呼ばれる機器を取り付けておき、ユーザーがスマートフォンを握ると、それを検知して、ロック画面を解除したり、アプリを起動したりできるというもの。

 センサーの詳細は明らかにされていないが、圧力を検知しているとのことで、軽く握っているだけで、スリープ状態のスマートフォンの画面が点灯し、さらにロックが解除される、という操作が体験できるようになっていた。さらに端末の上部を握っているとブラウザが立ち上がるようになっていた。既存の操作方法の置き換えではなく、新たな操作方法として追加、といった形が想定されているという。人によって視点が異なるため、利用開始前には、調整(キャブリレーション)が必要となる。

握りしめると、その要素をサーモグラフィのように表現したところ。赤色のところは圧力が強くかかっている外装にセンサーを配置するとのことだが、一見してもわからない
概要設定メニュー

 またスウェーデンのTobii Technologyのアイトラッキング技術を用いているのが「i beam」と名付けられたタブレット。赤外線を照射し、瞳からの反射を捉えて、視線の向きを検知するという技術を活用し、タブレットの画面のうち、操作したいところを見つめると、アプリを起動したり、電子書籍のページをめくったりできる。Tobii社は、もともと四肢障害者向け製品の開発を手がけ、最近では店舗を訪れた客の視線を検知するなど法人向けサービスも提供する。

 19日のデモでは、外部機器とタブレットを用意して、視線を検知し、操作できる様子が披露された。10月の「CEATEC」会場では、赤外線装置を含む外部装置がタブレットと一体化した上で、来場者が体験できるという。

タブレットに外部機器を付けてアイトラッキングを実現外部機器
一体型タイプの視線を捉える部分概要
視線による操作で電子書籍を見ているところ一部のワードでは、意味を説明する辞書機能も

2012年度内の実用化を目指す“次期ドコモ ドライブネット”

 現在、ドコモではスマートフォンを利用するカーナビゲーションサービス「ドコモ ドライブネット」を提供している。同サービスの次の姿として、今回、音声意図解釈機能と動態管理機能が披露された。

 音声意図解釈機能は、「しゃべってコンシェル」のエンジンを利用して、ユーザーが話しかけた内容を解釈して、ユーザーの意図を汲み取ったナビルートを提案できるというもの。たとえば「ディズニー」とだけ喋りかける場合、運転していない状況であれば、ユーザーが求める結果が複数想定できるが、「ドコモ ドライブネット」利用中であればディズニーランドやディズニーストアへのルートである可能性が高いと判断され、ルートが提案されることになる。

 一方、動態管理機能は法人に向けた機能となる。配送業者など、複数の車の位置、運行状態を企業側のパソコンで一元管理できるほか、配送途中で新たに荷物の引き取りを受注した場合に、ドライバーへ立ち寄るべき場所を通知できる機能などが用意される。ドライバー側からは、休憩中、配達中などのステータスを報告できる。従来よりも通信頻度は増えるものの、スマートフォン側ではサーバーからの返答を待つことなく通信を終える仕組みになっているとのことで、全体としてもバッテリー消費はさほど多くならないという。

ロボがインターフェイスになる「しゃべってロボ」

 未来の新たな利用スタイルとして参考出展されるのが「しゃべってロボ」だ。今回のデモでは、NEC製のロボット(PaPeRo)を用いていた。

 「しゃべってロボ」は、宅内に設置されたロボットに話しかけると、必要な情報をロボットがクラウドから入手して、伝えるというもの。ユーザーが欲しい情報を探して、とロボットに話しかければ、クラウドから得た情報をロボットがユーザーに伝える。たとえば事前にスケジュールを登録しておき、当日になってロボットに「今日の予定は?」と質問するとロボットが読み上げることになる。これはドコモが進める“パーソナルクラウド”(個人の興味の対象などを扱うクラウド)を活用するサービスとなる。

 現在ドコモでは、スマートフォンに話しかけて、クラウド側で質問への回答などを探し出す「しゃべってコンシェル」を提供している。今回展示された「しゃべってロボ」は、新たな利用を提案するもので、商用化は未定だが、愛らしく振る舞うロボットというインターフェイスを介して「しゃべってコンシェル」で、よりパーソナルなデータを扱い、ユーザーの行動を支援するサービスになりそうだ。




(関口 聖)

2012/9/19 18:09