インタビュー

Android開発をリードするGoogleのキーパーソン、Chau氏に聞くAndroid開発で大切にしているポイントとは

3日、グーグルのAndroid Platform & Pixel Software のバイスプレジデント 兼 ジェネラルマネージャーであるシーン・チャウ(Seang Chau)氏が日本メディアのインタビューに応えた。

 AndroidとPixelを統括する部門をリードする存在であり、主にAndroidにおける製品・エンジニアリング・デザインを統括する人物だ。

生成AIの広がりで、プログラミングコードの生成、メールの作成、スケジュール管理など、仕事や生活のさまざまな場面で役立てることができるようになってきた。グーグルがAndroidを通じて、どんな体験を実現しようとしているか聞いた。

Android 16がこれまでより早く登場する理由

――Android 16の登場時期について教えて下さい。2025年第2四半期に登場するとのことですが、Android 15までと比べて、1四半期、早いタイミングとなります。その理由や背景を教えてください。

Chau氏
 Androidのリリース時期を変更することを決めた理由は、大きく2つあります。

 ひとつは、Androidを採用するOEMパートナー(メーカー)から、前倒しを求めるフィードバックが数多くあったためです。

 これまでのAndroidでは、最新バージョンが毎年第3四半期(9月~12月)に登場していましたが、それでは新製品へ搭載することが難しいと。

 最新のAndroidを載せた、最新デバイスを発売しやすくするというのが前倒しの理由です。

 もうひとつは、年末に近い時期でのリリースとなるため、既存製品へのアップグレードも難しいというものでした。年末は休日が多いですよね。そんなタイミングで、万が一、最新バージョンへのソフトウェア更新を公開してなにかトラブルがあれば……と考えると、年末は避けたくなるというものです。これにより、最新のAndroidが公開されるまでに、数カ月待たされることもなくなります。OEMパートナーが夏、秋、または年末に新製品を発売できるようにすると。

 また、Androdではm開発者向けのSDK(ソフトウェア開発キット)を頻繁にアップデートするようにしていきます。APIを強制的に終了したり、APIの動作を変更したりすることはありません。ただ、APIを追加できるようにしたい。

 グーグル社内の開発者だけでなく、外部のサードパーティの開発者であっても、新しい機能を活用できます。生成AIはスピーディに発展していますので、開発者が活用できる新しいAPIを確実に有効にしたいと考えました。

 もし、最新のAndroidを8月~9月にリリースすると、次のAPIの更新を含む2回目のリリースを公開するまでわずか2~3カ月しかなく、年次のAndroidのリリースと更新されたAPIの間に大きな分離をあえて設ける方が理にかなっています。

 そのため、6月と12月のAPIをアップデートできるように、四半期、前倒ししたということです。

AndroidとAI

――AIについて教えてください。Androidスマートフォンは、それぞれ異なるチップセット、つまりCPUやGPU、NPU(AI処理用のプロセッサー)を備えます。異なる環境となる各製品へ、どのようにしてAIサービスを提供する考えなのでしょうか。

Chau氏
 現時点では、各製品のGPUやNPUで、AIモデルがきちんと動作するようにしたいと考えています。

 Google Deepmindと協力してNanoモデルを開発する場合、最初にGPUで作業します。電力は消費しますが、GPUは、一般的にAIモデルをテストする最速の方法だからです。AIモデルのパフォーマンスを評価できますよね。
 これまでに、TPUとNPUでの動作について、多くの時間を割きました。OEMパートナーには、CPUで動作するもの、あるいはGPU向けとしてAIモデルが提供されています。

 もともとCPUモデルをやっていましたが、現在、モバイル環境では、より優れているGPUモデルに移行しました。

 そしてNPUで処理するモデルで作業できるように、クアルコムやメディアテックと協力しています。

 AIモデルを、たとえばユーザーインターフェイス(UI)のどこで使用したいかなどについて、OEMパートナーと協力します。

 チップセットで動作させるには、一般的にOEMパートナーではなく、SoCパートナーと一緒に開発を進めるわけです。

 NPUは、たとえばGoogleのTPUと同じ機能を備えていない場合があります。そこで、SoCパートナーと協力して、AIモデルのアーキテクチャと機能を確実にします。

 たとえば、コンテキストウィンドウは、クアルコムのNPUで実行されているモデルとGoogle TPUで実行されているモデルで異なる場合があります。

――クラウドで提供されるAIモデルはバージョンアップがスピーディに実施されています。一方で、オンデバイスのAIモデルは入れ替えが難しいように思えます。

Chau氏
 オンデバイスでのAIモデルは、アップデートしたいです。Pixel 8シリーズで「Gemini Nano」をリリースしました。比較的、小さなAIモデルでした。テキストのみで、パラメーターは約1B(10億)サイズです。

 Pixel 9/9 Proでは、メモリー(RAM)を増量しています。それまでより4GB、追加しました。メモリーが増えたことで、パラメーター数が4B(40億)となるAIモデル「Gemini Nano 2」を搭載できました。マルチモーダル対応です。もともとのGemini Nanoでは、画像を認識して説明することはできませんでした。

 8GBというメモリーでは、4Bサイズの「Gemini Nano 2」を動作させることはとても難しい。つまりPixel 8シリーズに「Gemini Nano2」を載せることはできません。AI以外の機能を快適に動作させつつ、「Gemini Nano 2」を動作させる、といったことが難しいのです。

 8GBというメモリーサイズは、一般的に悪くはないスペックです。でもAIモデルのサイズが変わると、十分とは言えなくなります。

 ご指摘のように、AIモデルのアーキテクチャーとモデルウェイト(1B、4Bといったサイズを示す言葉)は頻繁に更新される可能性があります。

 モデルウェイトはグーグルが提供し、デバイス上で更新できるようになっています。「AICore」として提供しており、モデルウェイトをアップデートし、AI関連機能を向上できます。

 一方、基礎となるAIモデルをアップデートするとどうなるでしょうか。

 これは、AIモデルを使用する機能の動作が変わる可能性があるということになります。

 たとえば、私たち自身のアプリケーションが大規模言語モデル(LLM)を使う場合、試験して、品質を確かめ、スマートフォンの動作に影響をもたらさないかチェックします。
 しかしAIモデルを用いるサードパーティアプリでは、大きな影響を与える可能性があります。

 基礎となるAIモデルを頻繁に変更しすぎると、サードパーティのエコシステムに関する問題が発生し得る。どうバランスするか、取り組んでいるところでして、更新頻度やどの程度の影響をもたらすのか。もしAIモデルをアップデートすると、更新するたびに、AIからの回答が変化する可能性があるわけです。

 たとえば会話調で利用するAIサービス「Gemini Live」の処理は、ほとんどクラウド上で処理しています。

 繰り返しになりますが、グーグル自身のサービス、つまりファーストパーティのユースケースでは、AIモデルのアップデート時にサービスやアプリへの影響をチェックでき、求める品質を維持できます。

――AIの進化に消費者は少し混乱するかもしれません。

Chau氏
 ユーザーがAIの使い方を理解していなくても、ユーザーの助けになる、ということは、グーグルを含めた開発者自身が理解しておくべきことでしょう。

 我々の過去の体験から、ユーザーはAIについて聞くことに少しうんざりしています。AIがどう役立つのかわかりませんから。

 使い方も、どのアプリにアクセスしていいかもわからない。どのメニューを選べばいいかもわかりません。

 AIとうたわない機能のほうが、より支持される傾向があると思います。

 たとえば「かこって検索」は、AIが支えるものとはアピールしません。どう使えるのか、どんなふうに役立つのかといったことを伝えていきます。

 似たようなサービスでもある「Googleレンズ」では、スクリーンショットを撮って、Googleレンズを呼び出し、調べたいところを指定するという手順を踏みます。

 でも、「かこって検索」では、ただ、調べたいところをぐるっと指で囲うようになぞるだけです。こういった体験を伝えているわけです。

 つまりAI機能の開発時には、ユーザーの利用の流れを考えます。

 あるいは、「消しゴムマジック」も良い例です。デバイス上で処理されるAIサービスですが、消したい場所の周囲をコピーしてスタンプしていくのではなく、生成AIが消したように新たに描いています。

 生成AI、LLMはユーザーの意図を汲み取ることに非常に優れています。AIを使っていても、すべて説明する必要はなく、やりたいことをするだけで、うまく処理される。そこにフォーカスしていくべきだと考えています。

Galaxy S25シリーズのアプリ連携

――話は変わって、Galaxy S25シリーズでは、複数のアプリをシームレスに連携させる仕組みがありますが、連携できるアプリの種類はGoogleマップと、サムスンのアプリ、Spotifyなど限られています。

Chau氏
 グーグルでは、2023年、AIのエクステンションを実現させています(当時、グーグルのAIはBardという名称)。AIがマップ、通話アプリ、Gmailなどと繋がり、より複雑な要求に応えられるようになった仕組みです。

 たとえば、応援しているバスケチームの次の試合を調べてカレンダーへ追加する、といった使い方です。AIが検索して、カレンダーと連携して予定を入れるというわけです。

 Galaxy S25シリーズで導入された機能は、そのエクステンション、今はもうエクステンションと呼んではいませんが、ともかくグーグル以外のアプリと連携できるようサムスン側の仕組みと統合したのです。

 連携するために、アプリはどのように互いにやり取りするか、APIを定義しています。

 対応アプリを増やすには、Geminiからそのアプリをどう使えるようにするか、という話と同じ意味になります。対応アプリは増やす予定ですし、まずはOEMメーカーのアプリ、そしてサードパーティアプリと広げていきます。

Pixelとのギャップ

――OEMメーカーのAndroidデバイスと、Pixelシリーズを見ると、いくつかの機能の違いがあります。たとえば、取材陣はPixelシリーズの録音アプリの文字起こしをとても便利に感じています。それがために、他のAndroid製品でもこのレコーダーが使えたらな、と感じることがあります。こうしたPixelとほかのAndroidとのギャップを埋める計画はありますか?

Chau氏
 Pixelシリーズの録音アプリについて言えば、そのSoC(Tensor)に対して、高いレベルで最適化されています。

 Gemini Nano 2ではマルチモーダルをサポートし、音声入力もサポートしています。文字起こしと同様の仕組みを実現できるわけです。

 こうした取り組みは、今後も続けていきます。Pixelの録音アプリには、話者を識別する仕組みもありますが、オンデバイスで処理するGemini Nanoでも同じような機能を実現できる可能性があります。

――OEMメーカー次第で、同様のアプリを開発できると……グーグルからアプリが提供されるわけではないのですね。

Chau氏
 Pixelの録音アプリについては、Pixelチームが開発したものであり、Androidチームが開発したものではないんです。なので、私からOEMメーカーに渡すことはできません。Pixelチームからすると「それは私たちのアプリですよ」と主張したくなるでしょう。

Androidが目指すもの

――あらためて、Chauさんの立場で目指すものはどういったものでしょうか? KPIですとか。

Chau氏
 KPIについてはお話できませんが、何を優先しているか、ということはお伝えできます。

 ひとつは、今年、そして来年以降もしばらくはAIです。さきほどお伝えしたようにAIと呼ぶ必要はないと考えていますが、ユーザーにとって、より便利にするには、どうするか、といった考え方です。

 もうひとつはクロスデバイス機能です。スマートフォンを持ち、タブレットを追加したとき、どう連携させるか。ウォッチもありますよね。デバイスを追加し、さまざまな連携を実現させたいというときに、いかに簡単にするか、という点ですね。

 3つ目の優先事項は、プライバシーとセキュリティへの継続的な注力です。AIをより役立たせるようにするためには、プライバシーが保たれる必要があり、デバイスを安全にしなければいけません。

――たとえば、AndroidデバイスとPCとの連携については、まだ課題があるように思います。連携の度合いが深くないと言いますか。
Chau氏
 我々のプロダクトではないプラットフォームのPCについては、簡単に解決する方法はありません。クイックシェアなどをダウンロードするといった方法になります。

 一方、グーグルが手掛けるChromeOSのデバイス、Chromebookでは、スマートフォン宛の通知をChromebookで受け取るといったことができます。グーグル自身がコントロールできる分野だからです。

 Windows PCとは、パートナーと協力して進めており、その代表例はモトローラ、Lenovoです。

 シームレスなエクスペリエンスを実現する仕組みが取り入れられており、ユーザーは、どんなアプリが必要か考える手間もありません。

――グーグルが提供する最新サービスについて教えてください。これまでのところ、サムスン(Galaxy)が一番、次いでシャオミが優先して最新機能を搭載しているように思えます。

Chau氏
 最優先はユーザーです。そのために、すべてのメーカーと協力しています。

Android XRとの関係について

――話題を変えて、Android XRについてはどうでしょう。

Chau氏
 担当ではないのですが、年末の発表がありましたよね。

 Geminiが深く統合されており、Geminiを念頭に置いて構築されています。

――ではAndroid XRとAndroidデバイスの関係はどのようなものなのでしょうか。主従関係ですか? それともそれぞれ単独のものですか?

Chau氏
 Androidは、いわば基礎です。スマートフォンだけではなく、テレビ、自動車、そしてXRとあります。核となるオペレーティングシステムがあり、ユーザーはどうデバイスを使うか、という違いだけです。

 それは、画面サイズの違いだったり、キーボードを使う場面があったりします。ヘッドセット型なら、眼の前にオブジェクトが表示されますが、それもまた、操作方法の違いです。

 マルチデバイス対応のアプリ開発環境があり、デバイスのフォームファクターの違いを超えてアプリを提供できます。そうした環境ですので、Android XRとAndroidスマートフォンの関係を、主従とは呼びません。

 メーカーは、ユーザーが使いたいであろうデバイスを開発でき、アプリ開発者もさまざまなデバイスに向けて簡単にアプリを開発できるというわけです。

次のステップ

――Google I/Oに向けて、ヒントが欲しいです。どういった視点を持ち、どんなところにフォーカスしますか。

Chau氏
 さきほどお伝えしたように、Androidには、AI、プライバシーとセキュリティ、マルチデバイスという優先すべき取り組みがあります。

 ひとつ付け加えるなら処理能力ですね。いかにAndroidが軽快に動作するか。

 たとえば、クアルコムが8年間のバージョンアップをサポートすると発表しました。

 長くスマホを使い、バージョンアップすると動作が重くなることもありますよね。それでも私たちは、パフォーマンスを維持したい。

――古いスマホでは、バージョンアップしても、対応しない機能がありますよね。

Chau氏
 確かにその通りです。でもAI、プライバシーとセキュリティといった点を追求しますし、同時に新機能もできるだけ、古い機種でも導入できるようにしたい。

 「かこって検索」は、当初、ハイエンド向けでしたが、対応機種は広がっています。デバイス紛失時に利用できる、デバイスを探す機能もそうです。

 最新のハイエンド機種から導入されがちではありますが、できるだけ広げていきたい。そのときにはデバイス上での処理だけではなく、クラウドでの処理も組み合わせます。

――ありがとうございました。