Apple News

Craig Federighi reconeix la confusió al voltant de les funcions de seguretat infantil d'Apple i explica nous detalls sobre les garanties

Divendres, 13 d'agost de 2021 07:33 PDT per Hartley Charlton

El vicepresident sènior d'enginyeria de programari d'Apple, Craig Federighi, ha defensat avui la polèmica planificació de la companyia. característiques de seguretat infantil en una entrevista significativa amb El Wall Street Journal , revelant una sèrie de nous detalls sobre les garanties integrades al sistema d'Apple per escanejar les biblioteques de fotos dels usuaris per a material d'abús sexual infantil (CSAM).





privadesa de craig wwdc 2021
Federighi va admetre que Apple s'havia gestionat la setmana passada anunci de les dues noves funcions malament, relacionades amb la detecció de contingut explícit a Missatges per a nens i contingut CSAM emmagatzemat a Fotos d'iCloud biblioteques, i va reconèixer la confusió generalitzada al voltant de les eines:

Està molt clar que molts missatges es van barrejar força malament pel que fa a com s'entenien les coses. Ens agradaria que això hagués sortit una mica més clar per a tothom perquè ens sentim molt positius i forts amb el que estem fent.



Funcions ocultes de l'iphone 12 pro max

[...]

En retrospectiva, introduir aquestes dues característiques al mateix temps va ser una recepta per a aquest tipus de confusió. Al llançar-los al mateix temps, la gent els va connectar tècnicament i es va espantar molt: què passa amb els meus missatges? La resposta és... no passa res amb els teus missatges.

La funció de seguretat de comunicacions significa que si els nens envien o reben imatges explícites a través d'iMessage, se'ls avisarà abans de veure-la, la imatge es desdibuirà i hi haurà una opció perquè els seus pares siguin alertats. L'escaneig CSAM, d'altra banda, intenta fer coincidir les fotos dels usuaris amb les imatges hash de CSAM conegut abans que es pengin a iCloud . Els comptes als quals s'ha detectat CSAM estaran subjectes a una revisió manual per part d'Apple i es poden informar al Centre Nacional per a Nens Desapareguts i Explotats (NCMEC).

Què inclou l'iphone 12 pro max

Les noves funcions han estat objecte de nombroses crítiques per part dels usuaris, investigadors de seguretat , el Electronic Frontier Foundation (EFF) i Edward Snowden , L'antic cap de seguretat de Facebook , i fins i tot Empleats d'Apple .

Enmig d'aquestes crítiques, Federighi va abordar una de les principals àrees de preocupació, subratllant que el sistema d'Apple estarà protegit per no ser aprofitat per governs o altres tercers amb 'múltiples nivells d'auditabilitat'.


Federighi també va revelar una sèrie de detalls nous sobre les garanties del sistema, com ara el fet que un usuari haurà de complir unes 30 coincidències per al contingut CSAM al seu Fotografies biblioteca abans que Apple s'avisi, i després confirmarà si aquestes imatges semblen ser instàncies genuïnes de CSAM.

Si i només si compleixes un llindar d'alguna cosa de l'ordre de 30 imatges pornogràfiques infantils conegudes que coincideixen, només llavors Apple sap alguna cosa sobre el teu compte i sap alguna cosa sobre aquestes imatges i, en aquest moment, només sap sobre aquestes imatges, no sobre qualsevol de les vostres altres imatges. Això no és fer una anàlisi perquè teníeu una foto del vostre fill a la banyera? O, per això, teníeu una imatge d'algun altre tipus de pornografia? Això, literalment, només coincideix amb les empremtes dactilars exactes d'imatges pornogràfiques infantils conegudes específiques.

També va assenyalar l'avantatge de seguretat de col·locar el procés de concordança al iPhone directament, en lloc de produir-se als servidors de ‌iCloud‌.

Com que està al [telèfon], els investigadors de seguretat són constantment capaços d'introspectar el que està passant al programari [telèfon] d'Apple. Per tant, si es va fer algun canvi que ampliés l'abast d'això d'alguna manera, d'una manera que ens havíem compromès a no fer-ho, hi ha verificació, poden detectar que això està passant.

Quan se li va preguntar si la base de dades d'imatges que s'utilitza per fer coincidir el contingut CSAM als dispositius dels usuaris es podria veure compromesa amb la inserció d'altres materials, com ara contingut polític en determinades regions, Federighi va explicar que la base de dades es construeix a partir d'imatges CSAM conegudes de diverses organitzacions de seguretat infantil. amb almenys dos 'en jurisdiccions diferents', per protegir-se de l'abús del sistema.

Com reiniciar l'iPhone 6

Aquestes organitzacions de protecció de la infància, així com un auditor independent, podran verificar que la base de dades d'imatges només consta de contingut d'aquestes entitats, segons Federighi.

L'entrevista de Federighi és un dels majors rebuigs de relacions públiques d'Apple fins ara després de la resposta pública mixta a l'anunci de les funcions de seguretat infantil, però la companyia també ha intentat repetidament abordar les preocupacions dels usuaris , publicar una PMF i abordar directament les preocupacions en entrevistes als mitjans de comunicació .

Etiquetes: The Wall Street Journal , Craig Federighi , Funcions de seguretat infantil d'Apple