Apple News

Univerzitetni raziskovalci, ki so zgradili sistem skeniranja CSAM, pozivajo Apple, naj ne uporablja 'nevarne' tehnologije

Petek, 20. avgust 2021, 6:48 PDT, avtor Sami Fathi

Spoštovani univerzitetni raziskovalci opozarjajo na tehnologijo, ki stoji za Applovimi načrti za skeniranje iPhone knjižnice fotografij uporabnikov za CSAM ali gradivo o spolni zlorabi otrok, ki tehnologijo imenuje 'nevarno'.





zasebnost jabolka
Jonanath Mayer, docent za računalništvo in javne zadeve na univerzi Princeton, kot tudi Anunay Kulshrestha, raziskovalka na Centru za politiko informacijske tehnologije univerze Princeton, oba napisal op-ed za The Washington Post , ki opisujejo svoje izkušnje z izgradnjo tehnologije za zaznavanje slik.

Raziskovalci so pred dvema letoma začeli projekt za identifikacijo CSAM v šifriranih spletnih storitvah od konca do konca. Raziskovalci ugotavljajo, da glede na njihovo področje 'poznajo vrednost šifriranja od konca do konca, ki ščiti podatke pred dostopom tretjih oseb.' Prav ta zaskrbljenost jih grozi, ker se CSAM 'širi na šifriranih platformah.'



kje je časovnik na mojem iphone kameri

Mayer in Kulshrestha sta dejala, da želita najti srednjo pot za situacijo: zgraditi sistem, ki bi ga spletne platforme lahko uporabile za iskanje CSAM in zaščito enkripcije od konca do konca. Raziskovalci ugotavljajo, da so strokovnjaki na tem področju dvomili v možnost takšnega sistema, vendar jim ga je uspelo zgraditi in pri tem opazili pomembno težavo.

Poskušali smo raziskati možno srednjo pot, kjer bi spletne storitve lahko prepoznale škodljivo vsebino, sicer pa ohranile šifriranje od konca do konca. Koncept je bil preprost: če bi nekdo delil material, ki se ujema z bazo podatkov znane škodljive vsebine, bi bila storitev opozorjena. Če bi oseba delila nedolžno vsebino, se storitev ne bi ničesar naučila. Ljudje niso mogli prebrati baze podatkov ali izvedeti, ali se vsebina ujema, saj bi te informacije lahko razkrile metode kazenskega pregona in pomagale kriminalcem, da se izognejo odkrivanju.

Poznavani opazovalci so trdili, da sistem, kot je naš, še zdaleč ni izvedljiv. Po številnih napačnih zagonih smo zgradili delujoč prototip. Toda naleteli smo na očitno težavo.

Odkar je Apple objavil funkcijo, je bilo podjetje bombardirano s pomisleki da bi lahko sistem za odkrivanje CSAM uporabili za odkrivanje drugih oblik fotografij na zahtevo zatiralskih vlad. Apple je odločno nasprotoval takšni možnosti in dejal, da bo zavrnil vsako takšno zahtevo vlad.

Kljub temu so pomisleki glede prihodnjih posledic tehnologije, ki se uporablja za odkrivanje CSAM, zelo razširjeni. Mayer in Kulshrestha sta dejala, da ju je 'motila' njihova pomisleka glede tega, kako bi vlade lahko uporabile sistem za odkrivanje vsebine, ki ni CSAM.

kako dodati aplikacijo med priljubljene na iphoneu

Tuja vlada bi lahko na primer prisilila službo k ljudem, ki delijo neprijazen politični govor. To ni hipotetično: WeChat, priljubljena kitajska aplikacija za sporočanje, že uporablja ujemanje vsebine za prepoznavanje disidentskega gradiva. Indija je letos sprejela pravila, ki bi lahko zahtevala predhodno pregledovanje vsebine, ki je kritična do vladne politike. Rusija je nedavno kaznovala Google, Facebook in Twitter, ker niso odstranili prodemokratičnih protestnih materialov.

Opazili smo še druge pomanjkljivosti. Postopek ujemanja vsebine bi lahko imel napačne rezultate in zlonamerni uporabniki bi lahko igrali sistem, da bi podvrgli nedolžne uporabnike nadzoru.

Bili smo tako vznemirjeni, da smo naredili korak, ki ga v računalniški literaturi še nismo videli: svarili smo pred lastno zasnovo sistema in pozvali k nadaljnjim raziskavam, kako ublažiti resne slabosti...

Apple je še naprej obravnaval pomisleke uporabnikov glede svojih načrtov, objavljanje dodatnih dokumentov in stran s pogostimi vprašanji . Apple še naprej verjame, da je njegov sistem za zaznavanje CSAM, ki se bo pojavil na uporabnikovi napravi, usklajen z njegovimi dolgoletnimi vrednotami zasebnosti.

Oznake: Apple zasebnost , WashingtonPost.com , Apple otroške varnostne funkcije