Apple News

Apple potrjuje, da je odkrivanje gradiva o spolni zlorabi otrok onemogočeno, ko so fotografije iCloud izklopljene

Četrtek, 5. avgust 2021, 15:16 PDT avtorja Juli Clover

Apple danes objavljeno to iOS 15 in iPad 15 bo v ZDA uvedena nova metoda za odkrivanje gradiva o spolni zlorabi otrok (CSAM) na telefonih iPhone in iPad.





Splošna funkcija iCloud
Uporabniške naprave bodo prenesle neberljivo bazo podatkov znanih hash slik CSAM in v napravi primerjale fotografije uporabnika ter jih označile za znano gradivo CSAM, preden jih naložijo na iCloud fotografije . Apple pravi, da je to zelo natančna metoda za odkrivanje CSAM in zaščito otrok.

Skeniranje slik CSAM ni izbirna funkcija in se zgodi samodejno, vendar je Apple to potrdil Večno da ne more zaznati znanih slik CSAM, če so ‌iCloud Photos‌ funkcija je izklopljena.



ponastavi iphone 12 na tovarniške nastavitve

Applova metoda deluje tako, da prepozna znano fotografijo CSAM v napravi in ​​jo nato označi z zastavico, ko je naložena v ‌iCloud Photos‌ s priloženim bonom. Ko je določeno število kuponov (ali označenih fotografij) naloženo v ‌iCloud Photos‌, lahko Apple razlaga kupone in opravi ročni pregled. Če najdemo vsebino CSAM, je uporabniški račun onemogočen in obveščen je Nacionalni center za pogrešane in izkoriščane otroke.

Ker Apple skenira ‌iCloud Photos‌ za zastavice CSAM je smiselno, da funkcija ne deluje z ‌iCloud Photos‌ onemogočeno. Apple je tudi potrdil, da ne more zaznati znanih slik CSAM v varnostnih kopijah iCloud, če ‌iCloud Photos‌ je onemogočen na uporabnikovi napravi.

Omeniti velja, da Apple posebej išče razpršitve znanega gradiva o spolni zlorabi otrok in ne pregleduje na splošno knjižnico fotografij uporabnika ali skenira osebne slike, ki še ne krožijo med tistimi, ki zlorabljajo otroke. Kljub temu lahko uporabniki, ki imajo pomisleke glede zasebnosti glede Appleovih prizadevanj za skeniranje knjižnic fotografij uporabnikov, onemogočijo ‌iCloud Photos‌.

Varnostni raziskovalci imajo izrazili pomisleke nad Appleovo pobudo CSAM in skrbi, da bi lahko v prihodnosti zaznal druge vrste vsebine, ki bi lahko imele politične in varnostne posledice, vendar so za zdaj Appleova prizadevanja omejena na iskanje zlorabljajev otrok.

Opomba: Zaradi politične ali družbene narave razprave o tej temi se nit razprave nahaja v našem Politične novice forum. Vsi člani foruma in obiskovalci spletnega mesta lahko berejo in spremljajo nit, vendar je objavljanje omejeno na člane foruma z vsaj 100 objavami.

Oznake: Apple zasebnost , Apple otroške varnostne funkcije