Appleは「児童ポルノ画像」を検出する機能を導入し、米国から開始するとForbesが報じています。
どうやらこの機能は、iPhoneなどからiCloudにデータを送信する際、児童ポルノに該当するか否かを照合するというもの。違法な画像であると判断された場合は法執行機関にアラートが出されるそうです。
参照元では「iCloudにアップロードされる前のiPhoneに保存された画像をチェックする」とありますが、それは実際問題ありえないので、画像アップロード中の審査になるのではないでしょうか。
もしも日本で開始される場合は、照合する機関がポンコツである可能性があるので、サービス開始直後は子供と写った家族写真であってもアラートが出されるかもしれない危険性がありますね。
アップルがiPhone内の児童ポルノ画像を検出へ、米国で開始
8/6(金) 11:30アップルは、iPhone内に保存された児童の性的虐待の画像を発見するための仕組みを、米国において導入する。ロイターの8月6日の記事によると、アップルは人々がiCloudにアップロードする前の写真をデータベースと照合し、問題がある画像を検出するという。
ここで用いられるソフトウェアは「neuralMatch(ニューラルマッチ)」と呼ばれる予定で、個人のiPhoneに保存されている画像と、米国の法執行機関のデータベースに登録されている画像を比較し、フラグが立てられた場合、審査が開始されるという。違法な写真であると判断された場合、法執行機関にアラートが出される。
ロイターによると、このシステムは、iCloudサーバーにアップロードされる前のiPhoneに保存されている写真を、チェックするものだという。
このニュースは、フィナンシャル・タイムズが最初に報じていた。フォーブスはアップルにコメントを求めている。
https://news.yahoo.co.jp/articles/822a14997fa069030940559a5f70d07018c8ff22
もちろんワタシは何もないので。 いつチェックされてもOKですヨ! |
ネットの反応
・ローカルの写真も勝手にチェックするの?
・iPhoneの中身全部把握されるとか怖すぎやろ
・ロリコン犯罪の前にはプライバシーなど皆無だな
・マジかよAndroidかうわ
・子供の写真とかどうすんだ?
アメリカだと我が子でも写真撮らんの?
・犯罪者炙り出しシステム
・この調子だと特定文字列とかも検閲しそうだな
・自分の子供の風呂やプールの写真とかめちゃくちゃあるんだが
>>マジレスすると我が子の写真でも捕まる
・怖。iPhoneやめたい
・二次はセーフでしょ
ここは日本だ
・でもAppleはオシャレだから
・泥ならその検閲をブロックするアプリは出るだろうが、アホン無理だろなぁ
・誤動作として普通の画像も集めまくりおそロシア
・子供のプールや海水浴の写真はスマホで撮らない方がいいぞ
風呂なんてもってのほか
アメリカ入国したらいきなり逮捕もあり得る
日本は児ポに甘すぎる
出典:https://leia.5ch.net/test/read.cgi/poverty/1628223677/
コメント