ニュース

アップル、“子どもを性的虐待から守る”新機能のリリースを延期へ

 アップル(Apple)は9月3日(米国時間)、子どもを性的虐待から守るための新機能について、リリース時期を延期することを明らかにした。

 同機能は、児童性的虐待コンテンツ(CSAM)の拡散を抑制するための機能として、8月に発表されていたもの。アップルでは、ユーザーなどからのフィードバックに基づき、機能のリリース前に数カ月間、意見収集や改善のための時間を設けるとしている。

メッセージアプリにおける新ツール

 アップルが導入を検討している新機能・技術は主に3つ。

 まずメッセージアプリでは、性的な写真の送受信時に、子どもやその親に警告を表示するツールが追加される。

 性的な写真にはぼかしが入り、子どもが警告に従わず写真を見た場合はその旨を両親に通知する、などの機能が搭載される。なお、アップルはメッセージにアクセスできないとされ、ユーザーのプライバシーに配慮した仕組み。

アップルのWebサイトより

iOSとiPadOSに搭載される新技術

 iOSとiPadOSには、児童性的虐待コンテンツ(CSAM)を検出する技術が搭載される。アップルは、ユーザーのiCloudに保存されているCSAM画像を検出し、必要に応じて全米行方不明・被搾取児童センター(NCMEC)に報告できるようになるという。

 その仕組みは、同センターなどから提供されるCSAM画像のデータベースを活用し、デバイス上で画像を照合するというもの。クラウド上で画像をスキャンする仕組みではないため、アップルは、この機能がユーザーのプライバシーに配慮したものであることを強調している。

Siriと検索機能のアップデート

 音声アシスタント「Siri」と検索機能のアップデートでは、親や子どもが危険な状況に遭遇した際、そうした状況に対処するためのさまざまな情報を利用できるようになる。

 また、ユーザーが児童性的虐待コンテンツ(CSAM)に関連した検索を行ったときに、Siriや検索機能が介入することもあるという。

 一連の機能や技術は、2021年の後半に、iOS 15、iPadOS 15、watchOS 8、macOS Montereyのアップデートで提供される予定。

アップルのWebサイトより