Apple News

Apple descriu la seguretat i la privadesa del sistema de detecció CSAM en un nou document

Divendres, 13 d'agost de 2021 12:45 PDT per Joe Rossignol

Apple avui compartit un document que ofereix una visió general més detallada del característiques de seguretat infantil que va anunciar per primera vegada la setmana passada , inclosos els principis de disseny, els requisits de seguretat i privadesa i les consideracions del model d'amenaça.





funció de seguretat de la comunicació de l'iPhone
El pla d'Apple per detectar imatges conegudes de material d'abús sexual infantil (CSAM) emmagatzemades a Fotos d'iCloud ha estat especialment controvertit i ha despertat la preocupació d'alguns investigadors de seguretat, de l'Electronic Frontier Foundation, sense ànim de lucre, i d'altres sobre el possible abús del sistema pels governs com a forma de vigilància massiva.

El document pretén abordar aquestes preocupacions i reitera alguns detalls que van sorgir anteriorment en un entrevista amb el cap d'enginyeria de programari d'Apple, Craig Federighi , inclòs que Apple espera establir un llindar de coincidència inicial de 30 imatges CSAM conegudes abans que un compte d'iCloud sigui marcat per a la revisió manual de l'empresa.



Apple també va dir que la base de dades del dispositiu d'imatges CSAM conegudes només conté entrades que van ser enviades de manera independent per dues o més organitzacions de seguretat infantil que operen en jurisdiccions sobiranes separades i no sota el control del mateix govern.

El sistema està dissenyat perquè un usuari no necessiti confiar en Apple, en cap altra entitat o fins i tot en qualsevol conjunt d'entitats possiblement col·lusions de la mateixa jurisdicció sobirana (és a dir, sota el control del mateix govern) per estar segur que el sistema funciona tal com s'anuncia. Això s'aconsegueix mitjançant diversos mecanismes d'enclavament, inclosa l'auditabilitat intrínseca d'una única imatge de programari distribuïda arreu del món per a l'execució al dispositiu, un requisit que qualsevol hash d'imatge perceptiva inclòs a la base de dades CSAM xifrada al dispositiu sigui proporcionat de manera independent per dos o més seguretat infantil. organitzacions de jurisdiccions sobiranes separades i, finalment, un procés de revisió humana per evitar informes errats.

Apple va afegir que publicarà un document de suport al seu lloc web que conté un hash arrel de la base de dades hash xifrada CSAM inclosa amb cada versió de cada sistema operatiu d'Apple que admet la funció. A més, Apple va dir que els usuaris podran inspeccionar el hash arrel de la base de dades xifrada present al seu dispositiu i comparar-lo amb el hash arrel esperat al document de suport. No s'ha previst cap termini per a això.

En una nota obtingut per Bloomberg és Mark Gurman , Apple va dir que també tindrà un auditor independent que revisarà el sistema. La nota assenyalava que els empleats minoristes d'Apple podrien estar rebent preguntes dels clients sobre les funcions de seguretat infantil i enllaçades una PMF que Apple va compartir a principis d'aquesta setmana com a recurs que els empleats poden utilitzar per abordar les preguntes i oferir més claredat i transparència als clients.

Apple va dir inicialment que les noves funcions de seguretat infantil arribaran a l'iPhone, l'iPad i el Mac amb actualitzacions de programari a finals d'aquest any, i la companyia va dir que les funcions estarien disponibles als Estats Units només en el moment del llançament. Tot i que s'enfronta a les crítiques, Apple ha dit avui que no ha fet cap canvi en aquest període de temps per implementar les funcions als usuaris.