Apple、児童保護目的でユーザーの「メッセージ」とiCloudの「写真」の画像検出を実施へ

32

2021年08月06日 10:02  ITmedia NEWS

  • チェックする
  • つぶやく
  • 日記を書く

ITmedia NEWS

写真 AppleがCSAMと判断した画像を受信した場合の警告
AppleがCSAMと判断した画像を受信した場合の警告

 米Appleは8月5日(現地時間)、児童保護の目的でサービスに3つの新機能を追加すると発表した。「コミュニケーションツールを使って児童を虐待する悪人から児童を保護し、児童性的虐待コンテンツ(Child Sexual Abuse Material、CSAM)の拡散を制限したい」としている。



【その他の画像】



 発表されたのは、「メッセージ」アプリでやり取りされるCSAMを検出して警告する機能、クラウドストレージiCloud上に保存されている画像にCSAMがある場合、これを検出してアカウントを無効にする機能、Siriや検索でCSAM関連の検索をすると警告する機能の3つだ。



 いずれもまずは米国で、iOS 15、iPadOS 15、watchOS 8、macOS Montereyのアップデートで年内に追加される見込みだ。



「メッセージ」でのCSAM警告



 メッセージで性的に露骨な写真を児童と送受信しようとすると、当事者である児童とその保護者に警告するようになる。



 CSAMを受信すると画像がグレー表示になって警告が表示される。それでも画像を見ようとすると、「見たら両親にメッセージを送る」と警告する。児童が自分の性的に露骨な写真を送信しようとした場合も同じような警告が表示される。



 CSAMかどうかの解析は、端末内の機械学習機能を使って行うため、Appleはメッセージにアクセスしない。



iCloudの「写真」でCSAMを検出したらユーザーアカウントを無効に



 iOSおよびiPadOSの新技術で、iCloudの「写真」に保存されている既知のCSAM画像を検出できるようになった。この技術を利用して、「写真」にCSAM画像が保存されていると確認できた場合、そのユーザーのアカウントを無効にし、非営利団体の全米行方不明・被搾取児童センター(NCMEC)に報告する。アカウント無効が誤りだと思うユーザーは、復元を求められる。



 この新技術はAppleがiCloud内の画像をスキャンするわけではなく、NCMECなどが提供している既知のCSAM画像ハッシュのデータベースと端末上のデータのマッチングを行う。まずハッシュデータベースをユーザーの端末に保存し、ユーザーが既知のCSAM画像を保存しようとするとマッチングプロセスで検出する。この照合プロセスは暗号化されており、一致があるかどうかのみを判断する。



 このプロセスでCSAMだと判断された場合、Appleは手動で確認してからアカウントを無効にする。



Siriと検索での警告



 ユーザーがSiriや検索でCSAMに関連するワードを検索すると、警告する。Appleのサンプルには「オンラインでの児童搾取を報告するためのシステムがあります(報告する)」「児童虐待を描いたマテリアルは違法です。危険な考えや行動を持つ大人のための匿名のヘルプラインとガイダンスがあります(ヘルプについての詳細を見る)」という警告が表示されている。


このニュースに関するつぶやき

  • Google Photoを使った事がある人間ならそれが容易なことは分かると思う。 id passwordと書かれた画像もね。
    • イイネ!0
    • コメント 0件
  • で、日本では相撲やスイミングの画像が全部引っ掛かって大騒ぎになったりしてね(笑)
    • イイネ!27
    • コメント 3件

つぶやき一覧へ(20件)

ランキングIT・インターネット

ニュース設定