アップルは5日(米現地時間)、iCloudやiMessageなどに児童の性的虐待(Child Sexual Abuse Material/CSAM)対策を導入すると発表しました。その中でも注目を集めているのが、iPhoneやiPad、MacでiCloudにアップロードする際にCSAMに該当する写真をスキャンして検出、当局に通報が可能になるというものです。
まず最初に発表されたのが、メッセージアプリに導入される新たなセーフティ機能です。子供が性的な写真を受け取ったり送ろうとすると、子どもや親に警告メッセージが表示されるとのことです。
具体的には、子供が性的に露骨な画像を受信すると画像はぼかされて警告が表示。その上で「写真を見る」をタップすると、ポップアップメッセージが表示され、なぜその画像がデリケートだと判断されたのか説明した上に、親にも「子供がそうした画像を見た」ことが通知されます。
また子どもが性的に露骨な画像を送信しようとした場合にも、同様の警告が表示されます。それでも写真を送信した場合は、やはり両親がメッセージを受け取れるとのことです。
そしてメッセージアプリは、デバイス上の機械学習を使って画像の添付ファイルを分析し、性的に露骨な写真かどうかを判断すると述べられています。この機能は「アップルがメッセージにアクセスできないように設計されています」として、プライバシーが守られていることも約束されています。
本機能は今年(2021年)後半に配信予定のiOS 15、iPadOS 15、およびmacOS Montereyにて、iCloudファミリー共有が設定されたアカウント向けに提供される予定です。
次に、おそらく最も注目すべき新機能が「iCloudに保存されるCSAM画像を検出できるようになる」ことです。アップルいわく、CSAMとは子どもを巻き込んだ性的に露骨な活動を描いたコンテンツのこと。これにより検出された画像は、法執行機関と緊密に連携している全米行方不明・被搾取児童センター(National Center for Missing and Exploited Children/NCMEC)に報告できるようになると述べられています。
https://japanese.engadget.com/apple-expanded-protections-for-children-043013628.html