Appleの児童保護対策に賛否両論c

Appleの児童保護対策に賛否両論c
アップルの児童保護対策は微妙

昨日発表されたAppleの児童保護対策は、同社がiPhone上で児童虐待写真のスキャンを開始するという以前の報道を裏付けるものとなった。このニュースに対し、サイバーセキュリティと児童安全の専門家から様々な反応が寄せられている。

詳細が明らかになる前からすでに4つの懸念が提起されていたが、Appleの発表ではそのうち2つが対処された。

CSAMスキャンに関する懸念

当初の懸念事項には、児童性的虐待資料(CSAM)のデジタル署名が、切り抜きなどの画像調整を可能にするために意図的に曖昧になっているという事実が含まれていました。これは、偶然(懸念1)または悪意のある行為(懸念2)による誤検知のリスクを生み出します。

Appleは、これらの問題に対処するため、1枚の画像が一致しただけでは対策を講じないと発表しました。こうした素材を収集する人は複数の画像を保有する傾向があるため、Appleはレポートを生成するには一定の基準を満たす必要があると述べています。具体的な基準値は明らかにされていませんが、誤検知の確率を1兆分の1以下にまで低減できたと述べています。個人的には、この発表に完全に満足しています。

しかし、さらに 2 つのリスクが残ります。

権威主義的な政府による悪用

デジタル指紋は CSAMだけでなく、あらゆる 種類の資料に作成できます。権威主義的な政府が政治キャンペーンのポスターなどの画像をデータベースに追加することを阻止できるでしょうか?

そのため、重大な犯罪者をターゲットにするように設計されたツールは、政府やその政策に反対する人々を検出するために簡単に改造することができます。

メッセージングへの潜在的な拡張

iMessageのようなエンドツーエンドで暗号化されたメッセージングサービスを使用している場合、Appleはメッセージの内容を確認する方法がありません。政府が裁判所命令を持ってきても、Appleはただ肩をすくめて「何が言われたのか分からない」と答えるだけです。 

しかし、もし政府が、たとえば計画されている抗議活動の日時や場所といったテキストの種類に指紋を追加すれば、政治的反対派のデータベースを簡単に作成できてしまう。

電子フロンティア財団(EFF)は、Appleもユーザーもデジタル指紋を監査する方法がないことを指摘し、悪用リスクを強調しました。政府はAppleに対し、指紋にはCSAMハッシュしか含まれていないと伝えることはできますが、Appleにはそれを検証する方法がありません。

現在、Appleはフラグが付けられた画像を手動で審査し、その審査で不適切なコンテンツであることが確認された場合にのみ、その詳細を法執行機関に提出するというプロセスを採用しています。しかし、繰り返しますが、Appleがこのプロセスを継続できるという保証はありません。

暗号学者のマシュー・グリーン氏は、発表前のツイートの後でこの点を繰り返した。

このリストをコントロールする者は誰でも、あなたの携帯電話で好きなコンテンツを検索できます。また、そのリストは目に見えないため、何が含まれているかを知る方法はありません (携帯電話をハッキングしてリストを入手したとしても、単なる不透明な数字の羅列です)。

EFF は、これは単なる理論上のリスクではないと述べている。

このミッションが既に実行に移されているのを私たちは目撃しています。元々は児童性的虐待画像をスキャンしてハッシュ化するために開発された技術の一つが、企業が貢献しアクセスしてそのようなコンテンツを禁止できる「テロリスト」コンテンツのデータベースを作成するために転用されました。このデータベースは、テロ対策のための世界インターネットフォーラム(GIFCT)によって管理されていますが、市民社会からの要請にもかかわらず、外部からの監視が欠如しているのは困ったことです。したがって、データベースが行き過ぎたかどうかはわかりませんが、暴力や弾圧の記録、反論、芸術、風刺など、批判的なコンテンツをプラットフォームが定期的に「テロリズム」としてフラグ付けしていることは分かっています。 

例えば香港では、中国政府への批判はテロ行為と同レベルに分類され、終身刑に処せられる。

iMessageのスキャンに関する懸念

iPhoneがiMessageの写真に対して行うAIベースのスキャンについても懸念が高まっています。このスキャンはデジタル署名に頼るのではなく、機械学習に基づいてヌード写真を識別しようとします。

繰り返しになりますが、Appleには保護機能が組み込まれています。これはヌード写真の疑いがある写真のみを対象としており、ファミリーグループに所属するお子様のアカウントにのみ影響します。お子様は受信したメッセージが不適切である可能性があるという警告を受け、その後、閲覧するかどうかを選択します。外部への報告は行われず、必要に応じて保護者に通知されます。

しかし、ここでも「滑りやすい坂道」論が提起されています。これらはすべて現在適用されている規制ですが、EFFは、もし抑圧的な政府がAppleにルール変更を強制したらどうなるのかと疑問を投げかけています。

同性愛を禁止する政府は、明らかに LGBTQ+ コンテンツを制限するように分類装置のトレーニングを要求するかもしれませんし、権威主義体制では、分類装置が人気のある風刺画像や抗議のビラを見分けられるように要求するかもしれません。

同団体はまた、ここでは偽のマッチングが明らかに危険であると主張している。

長年にわたる文書化と研究から、人間の監視なしに使用される機械学習技術は、いわゆる「性的に露骨な」コンテンツを含むコンテンツを誤って分類する傾向があることが分かっています。ブログプラットフォームTumblrが2018年に性的コンテンツ用のフィルターを導入した際には、ポメラニアンの子犬の写真や服を着た人の自撮り写真など、ネット上のあらゆる画像がフィルターに引っかかったことはよく知られています。Facebookはヌード画像を取り締まる試みとして、コペンハーゲンの人魚姫のような有名な彫像の写真を削除しました。

繰り返しになりますが、Apple の現在の実装には安全対策が組み込まれているため、これは問題ではありません。しかし、プライベートメッセージの内容をスキャンできるテクノロジーを作成すると、将来悪用される可能性が非常に高くなります。

EFF はまた、一部の児童保護の専門家が提起した問題、つまり、親や法的保護者が必ずしも子供のプライベートなメッセージを共有できる安全な人物ではないという点にも注目している。

このシステムは、子供の最善の利益を考えていない親に、子供を監視し管理するもう一つの方法を与えることになる。

議論の中には、Appleが巧妙な綱渡りをしようとしている点が浮き彫りになっている。例えば、保護策の一つとして、親への自動通知が行われないという点がある。まず子供に警告が出され、その後、画像を閲覧または送信するかどうかを選択できる。子供が閲覧または送信しないことを選択した場合、警告は表示されない。デビッド・ティール氏も、この明らかな欠陥を指摘した一人だ。

https://twitter.com/elegant_wallaby/status/1423453567940063236

Appleの児童保護対策はすべての人を満足させるわけではない

誰もがAppleの意図を支持しており、個人的には誤検知に対する閾値保護には完全に満足しています。Appleの他の安全対策も思慮深く、効果的であるはずです。深刻な問題に慎重に取り組もうとしているAppleの姿勢は称賛に値します。

同時に、滑りやすい坂道のリスクは極めて現実的です。たとえ比較的穏健な政府であっても、政府が「ミッションクリープ」に陥ることは極めて一般的です。まず誰も合理的に反対できないような法律を導入し、その後、時にはサラミのように、少しずつその適用範囲を拡大していきます。これは特に権威主義体制において危険です。

逆に言えば、このシステムを公開したことで、Appleは手の内を明かしたと言えるでしょう。iPhoneにCSAMを登録している人は誰でもiCloudをオフにすべきだと知っており、加害者も子供にヌード写真を送りたいならiMessageを使ってはいけないと分かっています。つまり、Appleはそもそもこのようなことをすべきではなかった、あるいは誰にも言わずにやるべきだった、という主張もできるのです。

現実には、ここには完璧な解決策はなく、Apple が取るあらゆる立場には利点とリスクの両方がある。

昨日、詳細が明らかになる前は、皆さんの大多数がこの動きに反対していました。詳細と安全策が明らかになった今、皆さんはどうお考えですか? ぜひ、再度アンケートにご協力いただき、コメント欄でご意見をお聞かせください。

写真: David Watkis/Unsplash

fidenp.com を Google ニュース フィードに追加します。 

FTC: 収益を生み出す自動アフィリエイトリンクを使用しています。詳細はこちら。