Apple News

Apple predstavlja nove varnostne funkcije za otroke, vključno s skeniranjem knjižnic fotografij uporabnikov za znano gradivo o spolnih zlorabah

Četrtek, 5. avgust 2021, 13:00 PDT, Joe Rossignol

Apple danes predogled novih varnostnih funkcij za otroke ki bo na svoje platforme prišel s posodobitvami programske opreme pozneje v tem letu. Podjetje je dejalo, da bodo funkcije na voljo v ZDA šele ob lansiranju in bodo sčasoma razširjene na druge regije.





komunikacijska varnostna funkcija iphone

Varnost komunikacije

Prvič, aplikacija Messages na iPhone, iPad in Mac bo dobila novo funkcijo komunikacijske varnosti, s katero bodo otroke in njihove starše opozorili, ko prejmejo ali pošljejo spolno eksplicitne fotografije. Apple je dejal, da bo aplikacija Messages uporabljala strojno učenje v napravi za analizo slikovnih prilog, in če se ugotovi, da je fotografija spolno eksplicitna, bo fotografija samodejno zamegljena in otrok bo opozorjen.



za vse človeštvo datum izdaje 3. sezone

Ko si otrok poskuša ogledati fotografijo, označeno kot občutljivo v aplikaciji Messages, bo opozorjen, da fotografija morda vsebuje zasebne dele telesa in da je fotografija lahko boleča. Glede na starost otroka bo na voljo tudi možnost, da starši prejmejo obvestilo, če si njihov otrok ogleda občutljivo fotografijo ali če se odloči, da bo po opozorilu poslala spolno eksplicitno fotografijo drugemu stiku.

Apple je povedal, da bo nova funkcija komunikacijske varnosti na voljo v posodobitvah za iOS 15, iPadOS 15 in macOS Monterey pozneje v tem letu za račune, ki so nastavljeni kot družine v iCloud. Apple je zagotovil, da bodo pogovori iMessage ostali zaščiteni s šifriranjem od konca do konca, zaradi česar Apple ne bo mogel prebrati zasebnih komunikacij.

Skeniranje fotografij za gradivo o spolni zlorabi otrok (CSAM)

Drugič, od letošnjega leta z iOS 15 in iPadOS 15 bo Apple lahko zaznal znane slike materiala o spolni zlorabi otrok (CSAM), shranjene v iCloud Photos, kar bo Appleu omogočilo, da te primere prijavi Nacionalnemu centru za pogrešane in izkoriščane otroke (NCMEC). , neprofitna organizacija, ki deluje v sodelovanju z organi kazenskega pregona ZDA.

Apple je dejal, da je njegova metoda odkrivanja znanega CSAM zasnovana z mislijo na zasebnost uporabnikov. Namesto skeniranja slik v oblaku je Apple dejal, da bo sistem izvajal ujemanje v napravi z bazo podatkov znanih hash slik CSAM, ki jih zagotovijo NCMEC in druge organizacije za varnost otrok. Apple je dejal, da bo to bazo podatkov dodatno preoblikoval v neberljiv nabor hash, ki je varno shranjen na napravah uporabnikov.

Tehnologija zgoščevanja, imenovana NeuralHash, analizira sliko in jo pretvori v edinstveno številko, značilno za to sliko, pravi Apple.

'Glavni namen razpršitve je zagotoviti, da enake in vizualno podobne slike povzročijo isto razpršitev, medtem ko slike, ki se med seboj razlikujejo, povzročijo različne zgoščenke,' je dejal Apple v novi beli knjigi 'Razširjene zaščite za otroke'. 'Na primer, slika, ki je bila rahlo obrezana, spremenjena ali pretvorjena iz barvne v črno-belo, je obravnavana enako kot njen izvirnik in ima enako razpršitev.'

diagram poteka apple csam
Preden je slika shranjena v iCloud Photos, je Apple dejal, da se za to sliko izvede postopek ujemanja v napravi z neberljivim nizom znanih zgoščenk CSAM. Če obstaja ujemanje, naprava ustvari kriptografski varnostni kupon. Ta kupon se naloži v iCloud Photos skupaj s sliko in ko je presežen nerazkrit prag ujemanja, lahko Apple razlaga vsebino kuponov za ujemanja CSAM. Apple nato ročno pregleda vsako poročilo, da potrdi, da obstaja ujemanje, onemogoči uporabniški račun iCloud in pošlje poročilo NCMEC. Apple ne sporoča natančnega praga, vendar zagotavlja 'izjemno visoko stopnjo natančnosti', da računi niso napačno označeni.

Apple je dejal, da njegova metoda zaznavanja znanega CSAM zagotavlja 'pomembne prednosti zasebnosti' v primerjavi z obstoječimi tehnikami:

• Ta sistem je učinkovit način za prepoznavanje znanih CSAM, shranjenih v računih iCloud Photos, hkrati pa ščiti zasebnost uporabnikov.
• Kot del postopka se uporabniki tudi ne morejo naučiti ničesar o nizu znanih slik CSAM, ki se uporablja za ujemanje. To ščiti vsebino baze podatkov pred zlonamerno uporabo.
• Sistem je zelo natančen, z izjemno nizko stopnjo napake, manjšo od enega na trilijon računov na leto.
• Sistem bistveno bolj ohranja zasebnost kot skeniranje v oblaku, saj poroča samo o uporabnikih, ki imajo zbirko znanih CSAM shranjenih v iCloud Photos.

Osnovna tehnologija za Applovim sistemom je precej zapletena in objavila je a tehnični povzetek z več podrobnostmi.

„Applova razširjena zaščita za otroke je sprememba igre. Ker toliko ljudi uporablja izdelke Apple, imajo ti novi varnostni ukrepi potencial za reševanje življenja otrok, ki jih mamijo na spletu in katerih grozljive slike se širijo v gradivu o spolni zlorabi otrok,« je dejal John Clark, predsednik in izvršni direktor Nacionalnega centra za pogrešane. & Izkoriščeni otroci. „V Nacionalnem centru za pogrešane in izkoriščane otroke vemo, da se je proti temu zločinu mogoče boriti le, če smo trdni pri svoji predanosti zaščiti otrok. To lahko storimo le zato, ker se tehnološki partnerji, kot je Apple, okrepijo in izrazijo svojo predanost. Dejstvo je, da lahko zasebnost in zaščita otrok obstajata sočasno. Pozdravljamo Apple in se veselimo skupnega sodelovanja, da bo ta svet varnejši kraj za otroke.'

Razširjeno vodenje CSAM v Siri in Iskanju

iphone csam siri
Tretjič, Apple je dejal, da bo razširil napotke v Siri in Spotlight Search na vse naprave z zagotavljanjem dodatnih virov za pomoč otrokom in staršem, da ostanejo varni na spletu in dobijo pomoč v nevarnih situacijah. Na primer, uporabniki, ki vprašajo Siri, kako lahko prijavijo CSAM ali izkoriščanje otrok, bodo usmerjeni na vire, kam in kako vložiti poročilo.

Posodobitve Siri in Search prihajajo pozneje letos v posodobitvi za iOS 15, iPadOS 15, watchOS 8 in macOS Monterey, pravi Apple.

Opomba: Zaradi politične ali družbene narave razprave o tej temi se nit razprave nahaja v našem Politične novice forum. Vsi člani foruma in obiskovalci spletnega mesta lahko berejo in spremljajo nit, vendar je objavljanje omejeno na člane foruma z vsaj 100 objavami.

Oznake: Apple zasebnost , Apple otroške varnostne funkcije