
ウォール・ストリート・ジャーナルとのビデオインタビューで、Apple の上級副社長 Craig Federighi 氏が、先週発表された iCloud の子ども向け安全機能に対する反応について語っています。
フェデリギ氏は、類似しているものの全く異なる方法で動作する、子供向けのメッセージ保護とCSAMスキャンの同時発表が顧客に混乱を招いたと認めており、Appleは新しい取り組みについてもっとうまく伝えることができたはずだとしている。
ウォールストリート・ジャーナルのジョアンナ・スターンとの議論の中で、フェデリギ氏は、CSAM スキャン技術は iCloud にアップロードされるように設定された写真にのみ適用され、iCloud フォトが使用されていない場合は無効になると改めて述べている。
フェデリギ氏は、「自分たちのやっていることに非常に前向きかつ強い思いを持っており、それが広く誤解されていることもわかっているので、これがもう少し明確に公表されていればよかったのにと思います」と語る。
CSAM機能は、暗号ハッシュを用いて、ユーザーのデバイス上にある既知の児童ポルノコンテンツを検出します。ただし、デバイスがすぐにアカウントにフラグを立てるわけではありません。誤検出の可能性を軽減するため、Appleはフラグ付けするコンテンツのインスタンス数に最低限のしきい値を設けています。
この基準に達すると、アカウントはAppleに報告され、人間による確認を経て、最終的にNCMEC(全米行方不明・被搾取児童センター)に送られます。Appleはこれまでこの基準を明確に定めていませんでした。しかし、フェデリギ氏は今回のインタビューの中で、「既知のポルノ画像30枚程度が一致する」と述べ、この基準を明らかにしたようです。
また、フラグが付けられたアカウントであっても、一致した画像のみが人間によって閲覧可能であり、この機能によって、アカウント上のユーザーの写真ライブラリ全体に無制限にアクセスできるわけではないとも述べています。
Appleがこの機能の実装によって政府に「バックドア」を与えているのではないかという質問に対し、フェデリギ氏は明確にその主張を否定した。フェデリギ氏は、Appleは複数段階の監査を備えたシステムを設計しているため、悪用されることはないと述べている。ハッシュのデータベースは世界中で同じものが使用される。
iCloudフォトアップロード用のCSAMスキャンおよびレポート機能とは別に、Appleはメッセージアプリ向けに、子供がヌード画像を送信されないよう保護する新機能をリリースする予定です。デバイス上の機械学習アルゴリズムが、メッセージ経由で送信された写真にヌードが含まれていないか検出し、ユーザーが確認するまで画像を編集します。
13歳未満のお子様のApple IDアカウントでは、保護者はオプションで通知設定を有効にできます。これにより、お子様がヌード画像を閲覧した際に保護者に通知が届きます。フェデリギ氏によると、この機能は、お子様がグルーミング(性的誘導)を受け、家族との関係について話さないように指導されているのではないかと懸念する保護者の不安を軽減するために設計されているとのことです。
フェデリギ氏は、Apple が今回この措置を取ったのは「彼らが解決策を見つけたから」(つまり、ユーザーベースのプライバシーを維持しながら CSAM 保護を提供する方法を見出したから)であり、他社から行動を迫られたわけではないと述べている。
新しいチャイルドセーフティ機能は、iOS 15のアップデートとして今年後半に展開される予定です。当初は米国でのみ有効になり、Appleは後日、他の市場への拡大を発表する予定です。
www.moresit.com を Google ニュース フィードに追加します。
FTC: 収益を生み出す自動アフィリエイトリンクを使用しています。詳細はこちら。