EU委員会は、オンラインで児童性虐待資料(CSAM)の普及と戦い、防止するための新しい法律を提案しています。当局は、プロバイダーがApple、Google、その他の人々にプラットフォームからCSAMを検出、報告、削除するように強制します。
2021年8月、Appleは3つの重要な機能を含む「子供向けの拡大保護」を発表しました。
- メッセージ内のコミュニケーションの安全- 親がCSAMまたは性的に露骨なコンテンツのメッセージアプリで送信または受信したすべての画像のデバイス上のスキャンを有効にするためのオプトイン機能。搾取材料を検出すると、この特徴は子供たちに警告し、助けを求めるためのリソースを提案します。
- CSAM検出iCloudの写真では、NCMECが提供する既知のCSAM画像ハッシュの既知のCSAMデータベースに基づいたデバイス上のマッチングを介して介して写真を撮ります。
- インテリジェントなSiriと検索CSAM関連の検索に介入し、ユーザーがオンラインで遭遇したCSAMやその他の種類の児童搾取を報告するのを支援する。
3つの機能のうち、CSAMの検出は、サイバーセキュリティの専門家、研究者、公民権団体によって最も批判され、この機能は法執行機関と権威主義政府がユーザーをスパイし、10億以上のiPhoneをサーベイランスデバイスに変えるためのバックドアを作成すると主張しました。
広範囲にわたる反発の後、Techの巨人はCSAM検出機能を遅らせて、監視と検閲のために再利用できるという懸念に対処することを決定しました。ただし、EU委員会は、AppleにCSAMの検出を施行するように強制する可能性があります。
AppleはすでにCSAMのiCloud Mailをスキャンしていますが、児童の性的虐待資料のためにiCloudの写真をスキャンしません。これは、Appleが新しいEU規則にどのように準拠し、同時に論争を避けることができるかを把握する必要があることを意味します。

新しい「提案子どもの性的虐待を防止し、戦うための規則を定めている規則には、次の3点のアジェンダがあります。
- オンライン児童の性的虐待の効果的な検出、報告、除去
- 法的確実性を改善し、基本的権利の保護を確保し、
透明性と説明責任 - 増加による増殖と子どもの性的虐待の影響の減少
努力の調整
しかし、サイバーセキュリティの専門家は、Appleと同じ懸念を提起しています。 AppleのCSAM検出システムを正確に漏らして批判したMatthew Greenは、エンドツーエンドの暗号化保護を削除するためのEUの不純な動機を呼びかけています。彼書いたそれ:
参照:Appleは、メッセージのコミュニケーションの安全性に集中するためにiCloud写真のCSAM検出を殺します
実際の言論の自由の問題といえば、EUはCSAM資料の暗号化されたメッセージのスキャンを義務付けることができる規制を提案しています。これは再びアップルです。
このドキュメントは、私が今まで見た中で最も恐ろしいものです。 CSAMを検出するのではなく、「グルーミング」を検出するために、プライベートテキストメッセージを読む新しい大量監視システムを提案しています。
