Apple

Apple スキャンします iCloud 子供に対する暴力を含む画像を探しています。

私たちは、ことを知っています Apple エコシステム内のデバイスを通過するデータの機密性と、それらが詮索好きな目から非常によく保護されていることを非常に気にします。 ただし、これは、ユーザーが倫理、道徳、そしてなぜ人類に関連する規則に従わないことを意味するものではありません。

Apple は、ユーザーが保存したすべての画像をスキャンできるテクノロジーを間もなく開始すると発表しました。 iCloud 子供に対する性的虐待を含む写真を特定する。 児童性的虐待資料(CSAM)。
この技術はによって発売されます Apple 今年の終わりに向けて、おそらくパイロットバージョンで、少数のユーザー向けに。

「データの機密性はどこにあるのか」と疑問に思っている場合は、私たちが受け取るすべてのコンテンツを確認してください ビデオ/写真 それは暗号化されたプロトコルを介して行われます。 にデータを保存するだけでなく iCloud 暗号化されていますが、そのようなサービスのプロバイダーはデータを暗号化するための鍵を持っています。 ここでは、 Apple。 Microsoft、Google、その他のクラウドデータストレージサービスも同じことをします。

保存されたデータは、法的措置で要求された場合、または法律に著しく違反している場合は、復号化して検証できます。 子供や女性に対する暴力行為に関するものなど。

ユーザーの機密を保持するために、同社はNeuralHashと呼ばれる新しいテクノロジーに依存しています。 iCloud そして、データベース内の他の画像と比較することにより、子供に対する暴力を含むものを特定します。
これは、オブジェクト、動物、その他の要素の顔認識またはインテリジェント認識にいくぶん似ています。

このテクノロジーは、デバイスを介して撮影または転送された写真をスキャンして検証できるようになります iPhone, iPad または Mac、変更される場合でも。

Apple スキャンします iCloud 子供に対する暴力を含む画像を探しています。

著者について

ステルス

私は自分の経験をコンピュータ、携帯電話やオペレーティングシステムと共有し、ウェブプロジェクトを開発し、最も有用なチュートリアルとヒントを提供することを嬉しく思います。
私は「遊ぶ」のが好きです iPhone, MacBook Pro, iPad、AirPortExtremeおよびオペレーティングシステム macOS、iOS、Android および Windows.

コメント