ニュース

アップルのAI機能「Apple Intelligence」がもたらす「Siri」の進化

 アップルは、2024年6月11日(日本時間)に開催されたWWDC 2024で、AI機能「Apple Intelligence」を活用し、音声サポート機能として搭載されているSiriを使った体験の強化を発表した。

 Siriの言語理解が深くなり、少しの言い間違いであれば、Siriが理解し、必要な情報を提示してくれるなど、より自然な形で対話できるようになる。

 Siriに聞くことを頭の中で整理しながらしゃべるといったように、聞きたいことをまとめて話せなくても、前の会話から意図を推測する。そのため、〝そこ〟のような指示語を使った会話も可能になる。

 屋外など、声を出しにくい状況かでも便利にSiriを使えるよう、画面下部をダブルタップすれば、キーボードでSiriへの指示を入力することも可能となる。タイプ入力と音声入力は、状況に応じて自由に切り替えられる。

 また、アップル製品の機能や設定情報をSiriが持つようになるため、具体的な機能名を知らない場合でも、やりたい動作の説明をすることで、使うべき機能やその方法を説明してくれる。

 これらの機能はApple Intelligenceのリリース後すぐに利用可能。また、来年にかけて、Siriをよりパーソナルかつ高性能にする機能を多数リリース予定となっている。

 Apple IntelligenceによってSiriが画面上の内容を認識し、それを使って様々な動作ができるようになる。イベントでは、画面に表示されているメッセージに記載されている住所を認識し、「この住所を連作先に追加して」と指示することで、自動的に連絡先に住所が追加される様子が紹介されている。

 このように、Siriでの操作は、単一のアプリだけではなく、複数のアプリをコントロールできるようになる。

 Siriに対し、「○○の写真を見せて」と声をかければ、写真アプリより該当の写真が表示され、そのまま声の指示で写真編集も可能。編集した写真を、「メモに追加して」と頼めば、自動的にメモアプリに保存される。Siriを使った操作は、アップルのアプリだけでなく、多くのサードパーティ製アプリにも対応する。

 さらに、Siriはユーザーのパーソナルコンテクストを認識できるようになり、写真やカレンダーに保存している内容や、メッセージ、メール内の情報を利用し、適宜情報を提供してくれる。フォームの入力中に、免許証の番号が必要になった場合は、撮影してある写真から番号を抽出し、自動的に入力してくれる。

 また、デバイス内の情報だけでなく、アクティブな情報を収集する機能も利用できる。「母を空港に迎えに行く時間はどうするか」と尋ねた際には、母からのメールの内容と、実際のフライト情報から、最適な時間を提示してくれる。