Apple News

Apple presenta noves funcions de seguretat infantil, inclosa l'escaneig de les biblioteques de fotos dels usuaris per a material d'abús sexual conegut

Dijous 5 d'agost de 2021 13:00 PDT per Joe Rossignol

Apple avui previsualització de noves funcions de seguretat infantil que arribarà a les seves plataformes amb actualitzacions de programari a finals d'any. La companyia va dir que les funcions estaran disponibles als Estats Units només en el llançament i s'ampliaran a altres regions amb el pas del temps.





funció de seguretat de la comunicació de l'iPhone

Seguretat de la comunicació

En primer lloc, l'aplicació Missatges a l'iPhone, l'iPad i el Mac tindrà una nova funció de seguretat en la comunicació per avisar els nens i els seus pares quan rebin o enviïn fotos sexualment explícites. Apple va dir que l'aplicació Missatges utilitzarà l'aprenentatge automàtic al dispositiu per analitzar els fitxers adjunts d'imatges i, si es determina que una foto és sexualment explícita, la foto es difuminarà automàticament i s'avisarà al nen.



com gravar la pantalla a l'iPhone 11

Quan un nen intenta veure una foto marcada com a sensible a l'aplicació Missatges, se li avisarà que la foto pot contenir parts privades del cos i que la foto pot fer mal. Depenent de l'edat del nen, també hi haurà una opció perquè els pares rebin una notificació si el seu fill continua a veure la foto sensible o si decideixen enviar una foto sexualment explícita a un altre contacte després d'haver estat advertit.

Apple va dir que la nova funció de seguretat de la comunicació arribarà en actualitzacions a iOS 15, iPadOS 15 i macOS Monterey a finals d'aquest any per als comptes configurats com a famílies a iCloud. Apple va assegurar que les converses d'iMessage romandran protegides amb un xifratge d'extrem a extrem, fent que les comunicacions privades siguin il·legibles per Apple.

Escaneig de fotos per a material d'abús sexual infantil (CSAM)

En segon lloc, a partir d'aquest any amb iOS 15 i iPadOS 15, Apple podrà detectar imatges conegudes de material d'abús sexual infantil (CSAM) emmagatzemades a Fotos d'iCloud, la qual cosa permetrà a Apple informar d'aquestes instàncies al National Center for Missing and Exploited Children (NCMEC) , una organització sense ànim de lucre que treballa en col·laboració amb les agències d'aplicació de la llei dels EUA.

Apple va dir que el seu mètode per detectar CSAM conegut està dissenyat tenint en compte la privadesa dels usuaris. En lloc d'escanejar imatges al núvol, Apple va dir que el sistema realitzarà una concordança al dispositiu amb una base de dades de hashes d'imatges CSAM coneguts proporcionats pel NCMEC i altres organitzacions de seguretat infantil. Apple va dir que transformarà encara més aquesta base de dades en un conjunt il·legible de hashes que s'emmagatzema de manera segura als dispositius dels usuaris.

La tecnologia hashing, anomenada NeuralHash, analitza una imatge i la converteix en un número únic específic per a aquesta imatge, segons Apple.

'L'objectiu principal del hash és garantir que imatges idèntiques i visualment similars resultin en el mateix hash, mentre que les imatges que són diferents entre si donen lloc a hash diferents', va dir Apple en un nou llibre blanc 'Proteccions ampliades per a nens'. 'Per exemple, una imatge que s'ha retallat lleugerament, redimensionat o convertida de color a blanc i negre es tracta de manera idèntica a la seva original i té el mateix hash.'

diagrama de flux d'apple csam
Abans que una imatge s'emmagatzemi a iCloud Photos, Apple va dir que es realitza un procés de concordança al dispositiu per a aquesta imatge amb el conjunt il·legible de hashes CSAM coneguts. Si hi ha una coincidència, el dispositiu crea un val de seguretat criptogràfic. Aquest val es penja a iCloud Photos juntament amb la imatge i, un cop superat un llindar no revelat de coincidències, Apple és capaç d'interpretar el contingut dels vals per a les coincidències CSAM. A continuació, Apple revisa manualment cada informe per confirmar que hi ha una coincidència, desactiva el compte d'iCloud de l'usuari i envia un informe a NCMEC. Apple no comparteix quin és el seu llindar exacte, però garanteix un 'nivell de precisió extremadament alt' perquè els comptes no es marquen incorrectament.

Apple va dir que el seu mètode per detectar CSAM conegut proporciona 'avantatges significatius de privadesa' sobre les tècniques existents:

• Aquest sistema és una manera eficaç d'identificar els CSAM coneguts emmagatzemats als comptes d'iCloud Photos alhora que es protegeix la privadesa dels usuaris.
• Com a part del procés, els usuaris tampoc poden aprendre res sobre el conjunt d'imatges CSAM conegudes que s'utilitzen per fer coincidir. Això protegeix el contingut de la base de dades d'un ús maliciós.
• El sistema és molt precís, amb una taxa d'error extremadament baixa de menys d'un compte en un bilió per any.
• El sistema preserva la privadesa molt més que l'exploració basada en núvol, ja que només informa els usuaris que tenen una col·lecció de CSAM conegut emmagatzemat a Fotos d'iCloud.

La tecnologia subjacent al sistema d'Apple és força complexa i ha publicat un resum tècnic amb més detalls.

'La protecció ampliada d'Apple per als nens és un canvi de joc. Amb tantes persones que utilitzen els productes d'Apple, aquestes noves mesures de seguretat tenen el potencial de salvar vides per als nens que estan sent seduïts en línia i les horribles imatges dels quals circulen en material d'abús sexual infantil', va dir John Clark, president i conseller delegat del National Center for Missing. & Nens explotats. 'Al Centre Nacional per a nens desapareguts i explotats sabem que aquest crim només es pot combatre si som ferms en la nostra dedicació a protegir els nens. Només ho podem fer perquè socis tecnològics, com Apple, donen un pas endavant i donen a conèixer la seva dedicació. La realitat és que la privadesa i la protecció infantil poden coexistir. Aplaudim Apple i esperem treballar junts per fer d'aquest món un lloc més segur per als nens'.

Orientació CSAM ampliada a Siri i cerca

iphone csam siri
En tercer lloc, Apple va dir que ampliarà la guia a Siri i Spotlight Search a través de dispositius proporcionant recursos addicionals per ajudar els nens i els pares a mantenir-se segurs en línia i obtenir ajuda amb situacions insegures. Per exemple, els usuaris que preguntin a Siri com poden denunciar CSAM o explotació infantil se'ls indicarà recursos sobre on i com presentar un informe.

Segons Apple, les actualitzacions de Siri i Search arribaran a finals d'any en una actualització d'iOS 15, iPadOS 15, watchOS 8 i macOS Monterey.

Nota: a causa de la naturalesa política o social de la discussió sobre aquest tema, el fil de discussió es troba al nostre Notícies polítiques fòrum. Tots els membres del fòrum i els visitants del lloc poden llegir i seguir el fil, però la publicació està limitada als membres del fòrum amb almenys 100 publicacions.

Etiquetes: privadesa d'Apple , Funcions de seguretat infantil d'Apple