U sistema CSAM di Apple hè statu ingannatu, ma a cumpagnia hà duie salvaguardi

Actualizazione: Apple hà mintuatu una seconda inspezione di u servitore, è una sucietà prufessiunale di visione di l'informatica hà delineatu una pussibilità di ciò chì questu puderia esse descrittu in "Cumu puderia travaglià a seconda inspezione" quì sottu.
Dopu chì i sviluppatori anu reverse engineered parts of it, a prima versione di u sistema Apple CSAM hè stata efficacemente ingannata per marcà una maghjina innocente.Tuttavia, Apple hà dichjaratu ch'ellu hà salvaguardi supplementari per impediscenu chì questu succede in a vita reale.
L'ultimu sviluppu hè accadutu dopu chì l'algoritmu NeuralHash hè statu publicatu à u situ web di sviluppatore open source GitHub, qualcunu pò sperimentà cun ellu ...
Tutti i sistemi CSAM travaglianu impurtendu una basa di dati di materiali cunnisciuti di abusu sessuale di i zitelli da urganisazioni cum'è u Centru Naziunale per i zitelli Missing and Exploited Children (NCMEC).A basa di dati hè furnita in forma di hash o impronte digitali da l'imaghjini.
Ancu s'è a maiò parte di i giganti tecnulugichi scannanu e foto caricate in u nuvulu, Apple usa l'algoritmu NeuralHash in l'iPhone di u cliente per generà un valore hash di a foto almacenata, è poi paragunà cù a copia scaricata di u valore hash CSAM.
Ieri, un sviluppatore hà dichjaratu d'avè ingegneria inversa l'algoritmu d'Apple è hà liberatu u codice à GitHub - sta dichjarazione hè stata cunfirmata in modu efficace da Apple.
Pochi ore dopu à a liberazione di GitHib, i circadori anu utilizatu bè l'algoritmu per creà un falsu pusitivu intenzionale - duie immagini completamente diverse chì generanu u stessu valore di hash.Questu hè chjamatu collisione.
Per tali sistemi, ci hè sempre un risicu di scontri, perchè l'hash hè di sicuru una rapprisintazioni assai simplificata di l'imaghjini, ma hè surprisante chì qualchissia pò generà l'imaghjini cusì rapidamente.
A collisione deliberata quì hè solu una prova di cuncettu.I sviluppatori ùn anu micca accessu à a basa di dati CSAM hash, chì avaristi bisognu di a creazione di falsi pusitivi in ​​u sistema in tempu reale, ma prova chì l'attacchi di collisione sò relativamente faciuli in principiu.
Apple hà cunfirmatu efficacemente chì l'algoritmu hè a basa di u so propiu sistema, ma hà dettu à a scheda madre chì questu ùn hè micca a versione finale.A cumpagnia hà ancu dichjaratu chì ùn hà mai pensatu di mantene a cunfidenziale.
Apple hà dettu à Motherboard in un email chì a versione analizata da l'utilizatore in GitHub hè una versione generica, micca a versione finale utilizata per a rilevazione di iCloud Photo CSAM.Apple hà dettu chì hà ancu divulgatu l'algoritmu.
"L'algoritmu NeuralHash [...] hè parte di u codice di u sistema operatore firmatu [è] i ricercatori di sicurezza ponu verificà chì u so cumpurtamentu cunforma à a descrizzione", hà scrittu un documentu Apple.
A cumpagnia hà continuatu à dì chì ci sò dui passi più: eseguisce un sistema di currispondenza secundariu (secretu) nantu à u so servitore, è a revisione manuale.
Apple hà ancu dichjaratu chì, dopu chì l'utilizatori passanu u limitu di 30 partite, un secondu algoritmu non publicu chì corre nantu à i servitori d'Apple verificarà i risultati.
"Questu hash indipendente hè statu sceltu per ricusà a pussibilità chì l'errore NeuralHash currisponde à a basa di dati CSAM criptata nantu à u dispositivu per l'interferenza avversaria di l'imaghjini non-CSAM è supera u sogliu currispondente".
Brad Dwyer di Roboflow hà truvatu un modu per distingue facilmente trà e duie imagine pubblicate cum'è una prova di cuncettu per un attaccu di collisione.
Sò curiosu di cumu si vedenu queste immagini in CLIP di un estrattore di funzioni neurali simili ma differenti OpenAI.CLIP travaglia simile à NeuralHash;piglia una maghjina è usa una rete neurale per generà un settore di vettori di funziunalità chì mape à u cuntenutu di l'imaghjini.
Ma a reta di OpenAI hè diversa.Hè un mudellu generale chì pò mappa trà l'imaghjini è u testu.Questu significa chì pudemu usà per caccià l'infurmazioni di l'imaghjini cumpresi per l'omu.
Aghju currettu e duie imagine di collisione sopra à traversu CLIP per vede s'ellu era ancu ingannatu.A risposta corta hè: no.Questu significa chì Apple deve esse capace di applicà una seconda reta di extractor di funzioni (cum'è CLIP) à l'imaghjini CSAM rilevati per stabilisce s'ellu sò veri o falsi.Hè assai più difficiuli di generà imagine chì ingannanu duie rete à u stessu tempu.
Infine, cum'è dettu prima, l'imaghjini sò riveduti manualmente per cunfirmà chì sò CSAM.
Un investigatore di sicurità hà dettu chì l'unicu risicu veru hè chì quellu chì vulete fastidiu Apple puderia furnisce falsi pusitivi à i critichi umani.
"Apple hà veramente cuncepitu stu sistema, cusì a funzione di hash ùn deve esse tenuta segreta, perchè l'unicu ciò chì pudete fà cù "non-CSAM cum'è CSAM" hè di fastidiu a squadra di risposta d'Apple cù alcune immagini spazzatura finu à chì implementanu filtri per eliminà. analisi Quelli rifiuti in u pipeline sò falsi pusitivi ", Nicholas Weaver, un ricercatore senior in l'Istitutu di Scienze Informatiche Internaziunali di l'Università di California, Berkeley, hà dettu à Motherboard in una chat online.
A privacy hè un prublema di crescente preoccupazione in u mondu oghje.Segui tutti i rapporti riguardanti a privacy, a sicurità, etc. in e nostre linee guida.
Ben Lovejoy hè un scrittore tecnicu britannicu è editore di l'UE per 9to5Mac.Hè cunnisciutu per i so culonni è l'articuli di ghjurnali, esplorendu a so sperienza cù i prudutti Apple cù u tempu per ottene recensioni più cumplete.Scrive ancu rumanzi, ci sò dui thrillers tecnichi, uni pochi di filmi brevi di fantascienza è un rom-com !


Tempu di post: 20-aug-2021