Apple News

Zaposleni Apple interno vzbujajo zaskrbljenost zaradi načrtov za odkrivanje CSAM

Petek, 13. avgust 2021, 00:43 PDT, avtor Sami Fathi

Zaposleni pri Applu se zdaj pridružujejo zboru posameznikov, ki izražajo zaskrbljenost glede Appleovih načrtov za skeniranje iPhone knjižnice fotografij uporabnikov za gradivo CSAM ali spolne zlorabe otrok, ki naj bi interno govorile o tem, kako bi se tehnologija lahko uporabila za skeniranje fotografij uporabnikov za druge vrste vsebine, glede na poročilo iz Reuters .





dron apple park junij 2018 2
Po navedbah Reuters , je nedoločeno število zaposlenih pri Applu prešlo na interne kanale Slack, da bi izrazilo pomisleke glede odkrivanja CSAM. Natančneje, zaposleni so zaskrbljeni, da bi vlade lahko prisilile Apple, da uporabi tehnologijo za cenzuro, tako da najde vsebino, ki ni CSAM. Nekateri zaposleni so zaskrbljeni, da Apple škoduje njegovemu ugledu vodilne v industriji zasebnosti.

Zaposleni pri Applu so preplavili Appleov interni kanal Slack z več kot 800 sporočili o načrtu, objavljenem pred tednom dni, so za Reuters povedali delavci, ki so prosili, da ne bodo identificirani. Mnogi so izrazili zaskrbljenost, da bi to funkcijo lahko izkoristile represivne vlade, ki želijo najti drug material za cenzuro ali aretacije, pravijo delavci, ki so videli večdnevno nit.



Pretekle varnostne spremembe v Applu so vzbudile zaskrbljenost tudi med zaposlenimi, vendar sta obseg in trajanje nove razprave presenetljiva, so povedali delavci. Nekateri plakati so bili zaskrbljeni, da Apple škoduje svojemu vodilnemu ugledu pri varovanju zasebnosti.

Po poročilu naj ne bi bili zaposleni pri Applu v vlogah, ki se nanašajo na varnost uporabnikov, del internega protesta.

Odkar je obvestilo prejšnji teden , je bil Apple zasut s kritikami zaradi svojih načrtov za odkrivanje CSAM, za katere se pričakuje, da bodo to jesen še vedno uvedeni z iOS 15 in iPadOS 15. Zaskrbljenost se večinoma vrti okoli tega, kako bi tehnologija lahko predstavljala spolzko pobočje za prihodnje implementacije zatiralskih vlad in režimov.

t mobilni iphone 13 pro max

Apple je odločno zavrnil idejo, da bi se tehnologija v napravi, ki se uporablja za odkrivanje materiala CSAM, lahko uporabila za kateri koli drug namen. V objavljen dokument s pogostimi vprašanji , družba pravi, da bo odločno zavrnila vsako takšno zahtevo vlad.

Ali lahko vlade prisilijo Apple, da doda slike, ki niso CSAM, na seznam hash?
Apple bo takšne zahteve zavrnil. Apple-ova zmožnost zaznavanja CSAM je zgrajena izključno za odkrivanje znanih slik CSAM, shranjenih v iCloud Photos, ki so jih identificirali strokovnjaki pri NCMEC in drugih skupinah za varnost otrok. Že prej smo se soočali z zahtevami po izdelavi in ​​uvedbi vladnih sprememb, ki degradirajo zasebnost uporabnikov, in smo te zahteve odločno zavračali. V prihodnje jih bomo zavračali. Bodimo jasni, ta tehnologija je omejena na zaznavanje CSAM, shranjenega v iCloud, in ne bomo ugodili zahtevi nobene vlade za njeno razširitev. Poleg tega Apple opravi človeški pregled, preden pošlje poročilo NCMEC. V primeru, ko sistem označi fotografije, ki se ne ujemajo z znanimi slikami CSAM, račun ne bi bil onemogočen in NCMEC-u ne bo vloženo nobeno poročilo.

An odprto pismo kritizirajo Apple in pozivajo podjetje, naj takoj ustavi svoj načrt za uvedbo zaznavanja CSAM, je v času pisanja zbralo več kot 7.000 podpisov. Tudi vodja WhatsAppa pretehtal v razpravo .

Oznake: Apple zasebnost , Apple otroške varnostne funkcije