ニュース
KDDI総研、「アップサイクル」「感覚が伝わるテレビ通話」「未来の栄養管理」の3つのソリューションを公開
2021年11月29日 06:00
KDDIとKDDI総合研究所は25日、現在開発を進めている3つのソリューションを発表した。
粗大ゴミのアップサイクルを目指す「GOMISUTEBA」、触覚技術を活用し遠隔地でもそばにいる感覚でコミュニケーションできる「Sync Sofa」、リアルタイムで食事の解析とアドバイスを行うソリューションで、いずれも2030年を見据えた次世代社会構想「KDDI Accelerate 5.0」の取り組みの一環で研究開発される。
今回は、それぞれの取り組みについてKDDI総研の担当者から話を聞いた。
粗大ゴミのアップサイクルを促す「GOMISUTEBA」
はじめに話を聞いたのは、粗大ゴミのアップサイクルを促す取り組みとして、サイバー空間を活用するプロジェクト「GOMISUTEBA」。
「アップサイクル」と聞き慣れない単語が出てくるが、「GOMISUTEBA」が目指す取り組みは、家具などの「粗大ゴミ」に付加価値をつけて新たなものに生まれ変わり再利用されることを目指す取り組み。
今回の取り組みにあたって、一般のユーザーを対象に実際にアーティストとともにアップサイクルした家具を製作し、アーティストが製作したことを伏せて販売したところ、「ごみでできていること」を承知の上で購入するユーザーが現れたという。これにより、アップサイクルの受容性は確認できた一方で、課題も確認できたとする。
KDDI総研 フューチャーデザイン2部門 部門長の小林 亜令氏によると、製作物がこれまで使われてきた傷や汚れと行った質感を写真ではなかなか確認しづらいという声が聞かれたという。
また、製作する側からも、「どこにどんな素材となる廃棄物があるのかがわからない」といったケースや「アップサイクルをするには高度な技術が必要」であることが課題となっているという。
たとえば、椅子を作るとき、椅子の座面と足を調達するためには、現状では各集積場に足繁く通い見つけ出すことが必要だという。また、違うもの同士を接合させる場合、ジョイント部となる部材が必要で、これまでは相当の技術がないと作成するのが難しいと説明する。
「GOMISUTEBA」では、これらの課題解決のために、「回収した素材/製作物の3Dモデル化」「3Dモデルをサイバー空間で閲覧できる機能」「3Dデータを元にしジョイント部を生成できる機能」などの開発に取り組んでいる。
素材の3Dデータ化
素材をKDDI総研の「自由視点VR」技術を活用し3Dデータ化し、素材の使用感が再現されたものを画面上で確認できるようにする。
たとえば、前述の椅子の例では、座面と足のそれぞれのパーツを3Dデータ化することで、現地に赴かなくてもモニター越しに使用したい素材を選定できる。
将来的には、全国の集積地点に集められた素材を3Dデータ化し、それらをサイバー上に集積することで、全国の素材から選定できるようにしたいという。
また、現在3Dモデル化には、倉庫などでカメラなど機材を使用して実施しているが、将来的にスマートフォンなどユーザー自身でも3Dデータ化できる取り組みも研究している。
3Dプリンターでジョイントモジュールを作成
家具製造技術を持たないユーザーでも作成できるよう、前述の3Dモデルを使用し、双方を接合できる部材「ジョイントモジュール」を簡単に生成できるようにする。
足の形に応じた凹凸を再現し、接着剤があれば誰でも簡単に製作できるようにする。
これまでの3Dモデル化ソフトやLidarなどの3Dスキャナでは、質感が現れなかったり細い部分、色が黒っぽい部分などをモデル化するのが難しかったという。
今回採用した同社方式では、カメラなど汎用機材のみで正確なモデリングができると説明する。
隣にいる感覚でコミュニケーションできる
次に話を聞いたのは、ソファ型コミュニケーションシステム「Sync Sofa」。「Sync Sofa」は、遠隔地にいる相手と同じソファに座って会話するような感覚でコミュニケーションできるもの。
たとえば、相手が座ったり背もたれにもたれたときに、リアルで伝わるような振動や感覚が、リアルタイムに自分が座っているソファで再現される。
また、ユーザーの目線にあわせて、相手が立体的に見えるような映像合成技術や、相手の発話位置に応じて聞こえ方が変わる音場合成技術「音のVR」を採用し、リアルにその場に相手がいる感覚でコミュニケーションが楽しめる。
ユーザーが相手の顔を見えるように前屈みで相手を見ると、これまで横顔だけだった相手の顔を見られたり、相手が立ったり座ったりすると、相手の発話位置に応じた聞こえ方を感じられる。
さらに、相手がユーザーの背中をさするような動作をすると、ソファを介しあたかも直接さすってくれてるような触感を生成できるなど、ユーザーの身体の広範囲で触感を再現できる。
ユースケースとして、オンラインでのファンサービスイベントや、YouTuberなど動画配信者のイベントなどへの活用を想定している。
また、現在感覚の伝達は一方通行であるため、今後双方向で再現できるように取り組むほか、五感の再現/表現技術のさらなる知見の獲得や、より大規模な空間を対象にした再現の研究開発を推進していくという。
未来の栄養管理シーン
最後に、ユーザーの負担を抑えた個人で健康管理できる栄養管理ソリューションについて聞いた。
生活習慣病の防止が叫ばれているなか、栄養指導サービスではこれまで「医療による栄養指導」と「栄養管理アプリ」などで実施されてきた。
これらの栄養指導サービスには課題があり、「医療による栄養指導」では、人間が指導するため精度が高く詳細な指導を受けられるが、時間と負荷がかかるため、数週間~数カ月おきといった頻度での指導になる。
一方、「栄養管理アプリ」では、毎食受けられ時間がかからない一方で、ユーザー自身が食事の内容を入力したり、食事の画像を解析する形となるため、食べ残しや食べるスピードなど、詳細な指導が受けられず、精度が不十分である場合があるという。
今回のソリューションでは、食事を動画で解析することで、食事の順序や速度、分量、食べ残しなどを含めて解析できる。現段階で6000種以上の食事の認識に対応しており、お菓子のパッケージや「とんかつが何切れあるか」といった詳細な内容まで認識し解析できる。
また、AIによる対話エージェントを用意し、食事中に動画解析では得られなかった情報をユーザーに質問することで補完したり、食生活を質問して把握できる。
対話エージェントは食事中に適切なアドバイスをすることもでき、「食事のスピード」や「日々の食事で足りていない要素」などをアドバイスすることで、食生活の行動変容につなげられるとしている。
実際の流れは、食卓に食事を配置し「いただきます」などのトリガーとなる言葉を発話することで、食事のメニューや分量を解析する。
もし、「味噌汁は減塩のものか?」など画像解析では不十分な内容は、対話エージェントが「今日のお味噌汁は減塩?」といった質問をユーザーに投げかけ、「減塩だよ」と回答すると、減塩の味噌汁に自動的に解析を修正する。このほか食事中に「果物が足りていない」など、アドバイスが投げかけられる場合もあるという。
食事を終えた後、同様に「ごちそうさま」などトリガーとなる言葉を発話することで、食事後の分量を測定し、実際に食べた分で栄養指導する。