Apple News

Apple publica preguntes freqüents per resoldre dubtes sobre la detecció de CSAM i l'exploració de missatges

Dilluns, 9 d'agost de 2021 a les 2:50 PDT per Tim Hardwick

Apple ha publicat una PMF titulada 'Proteccions ampliades per a nens' que té com a objectiu alleujar les preocupacions de privadesa dels usuaris sobre la nova detecció de CSAM a Fotos d'iCloud i seguretat de la comunicació per a les funcions de Missatges que l'empresa anunciat la setmana passada .





privadesa de la poma
'Des que vam anunciar aquestes funcions, moltes parts interessades, incloses les organitzacions de privadesa i les organitzacions de seguretat infantil, han expressat el seu suport a aquesta nova solució, i algunes s'han posat en contacte amb preguntes', diu les PMF. 'Aquest document serveix per abordar aquestes preguntes i aportar més claredat i transparència en el procés'.

Algunes discussions han desdibuixat la distinció entre les dues característiques i Apple s'esforça molt document per diferenciar-los, explicant que la seguretat de la comunicació a Missatges 'només funciona en imatges enviades o rebudes a l'aplicació Missatges per a comptes infantils configurats a Compartició familiar', mentre que la detecció CSAM a ‌iCloud Photos‌ 'només afecta els usuaris que han triat utilitzar ‌iCloud Photos‌ per emmagatzemar les seves fotos... No hi ha cap impacte en cap altra dada del dispositiu.'



De les PMF:

com fer funcionar un airpod

Aquestes dues característiques no són les mateixes i no utilitzen la mateixa tecnologia.

La seguretat de la comunicació a Missatges està dissenyada per oferir als pares i als nens eines addicionals per ajudar a protegir els seus fills de l'enviament i la recepció d'imatges sexualment explícites a l'aplicació Missatges. Només funciona amb imatges enviades o rebudes a l'aplicació Missatges per a comptes infantils configurats a Compartició familiar. Analitza les imatges al dispositiu i, per tant, no canvia les garanties de privadesa de Missatges. Quan un compte infantil envia o rep imatges sexualment explícites, la foto es desdibuixarà i s'avisarà al nen, se li presentaran recursos útils i se li assegurarà que està bé si no vol veure o enviar la foto. Com a precaució addicional, també es pot dir als nens petits que, per assegurar-se que estan segurs, els seus pares rebran un missatge si el veuen.

La segona funció, la detecció de CSAM a iCloud Photos, està dissenyada per mantenir CSAM fora de l'iCloud Photos sense proporcionar informació a Apple sobre cap altra foto que no sigui les que coincideixin amb imatges CSAM conegudes. La possessió d'imatges CSAM és il·legal a la majoria de països, inclosos els Estats Units. Aquesta funció només afecta els usuaris que han triat utilitzar Fotos d'iCloud per emmagatzemar les seves fotos. No afecta els usuaris que no han triat utilitzar Fotos d'iCloud. No hi ha cap impacte en cap altra dada del dispositiu. Aquesta funció no s'aplica als missatges.

La resta del document es divideix en tres seccions (a continuació en negreta), amb respostes a les preguntes més freqüents següents:

per què està desactivat el meu identificador d'Apple

Apple Watch té un monitor de freqüència cardíaca
    Seguretat de la comunicació en Missatges
  • Qui pot utilitzar la seguretat de la comunicació a Missatges?
  • Això vol dir que Messages compartirà informació amb Apple o amb les forces de l'ordre?
  • Això trenca el xifratge d'extrem a extrem a Missatges?
  • Aquesta funció impedeix que els nens de les llars abusives cerquin ajuda?
  • S'avisarà als pares sense que els nens s'avisin i se'ls doni la possibilitat d'escollir?
  • Detecció de CSAM
  • Això vol dir que Apple escanejarà totes les fotos emmagatzemades al meu? iPhone ?
  • Això baixarà imatges CSAM al meu ‌iPhone‌ per comparar amb les meves fotos?
  • Per què Apple fa això ara?
  • Seguretat per a la detecció de CSAM per a Fotos d'iCloud
  • Pot el sistema de detecció CSAM a ‌iCloud Photos‌ s'utilitza per detectar coses que no siguin CSAM?
  • Els governs podrien obligar Apple a afegir imatges que no siguin CSAM a la llista hash?
  • Es poden 'injectar' imatges que no siguin CSAM al sistema per marcar comptes d'altres coses que no siguin CSAM?
  • La detecció de CSAM a ‌iCloud Photos‌ marcar falsament persones innocents a les forces de l'ordre?

Els lectors interessats haurien de consultar el document per obtenir les respostes completes d'Apple a aquestes preguntes. Tanmateix, val la pena assenyalar que per a aquelles preguntes a les quals es pot respondre amb un sí/no binari, Apple les comença totes amb 'No', a excepció de les tres preguntes següents de la secció titulada 'Seguretat per a la detecció de CSAM per a ‌ Fotos d'iCloud‌:'

Es pot utilitzar el sistema de detecció CSAM d'iCloud Photos per detectar coses que no siguin CSAM?
El nostre procés està dissenyat per evitar que això passi. La detecció de CSAM per a fotos d'iCloud està dissenyada perquè el sistema només funcioni amb hash d'imatges CSAM proporcionats per NCMEC i altres organitzacions de seguretat infantil. Aquest conjunt de hash d'imatges es basa en imatges adquirides i validades per ser CSAM per organitzacions de seguretat infantil. No hi ha informes automatitzats a les forces de l'ordre i Apple fa una revisió humana abans de fer un informe a NCMEC. Com a resultat, el sistema només està dissenyat per informar de les fotos que es coneixen CSAM a Fotos d'iCloud. A la majoria de països, inclosos els Estats Units, el simple fet de posseir aquestes imatges és un delicte i Apple està obligada a denunciar qualsevol instància que ens assabentem a les autoritats corresponents.

Els governs podrien obligar Apple a afegir imatges que no siguin CSAM a la llista hash?
Apple rebutjarà aquestes demandes. La capacitat de detecció CSAM d'Apple està dissenyada únicament per detectar imatges CSAM conegudes emmagatzemades a iCloud Photos que han estat identificades per experts de NCMEC i altres grups de seguretat infantil. Abans ens hem enfrontat a demandes per crear i implementar canvis ordenats pel govern que degraden la privadesa dels usuaris, i hem rebutjat aquestes demandes. Continuarem rebutjant-los en el futur. Quedi clar, aquesta tecnologia es limita a detectar CSAM emmagatzemats a iCloud i no accedirem a la petició de cap govern per ampliar-la. A més, Apple fa una revisió humana abans de fer un informe a NCMEC. En el cas en què el sistema marca fotos que no coincideixen amb imatges CSAM conegudes, el compte no es desactivaria i no s'arxivarà cap informe a NCMEC.

Es poden 'injectar' imatges que no siguin CSAM al sistema per marcar comptes d'altres coses que no siguin CSAM?
El nostre procés està dissenyat per evitar que això passi. El conjunt de hashes d'imatges utilitzats per a la concordança són d'imatges conegudes i existents de CSAM que han estat adquirides i validades per organitzacions de seguretat infantil. Apple no afegeix al conjunt de hashes d'imatges CSAM coneguts. El mateix conjunt de hashes s'emmagatzema al sistema operatiu de tots els usuaris d'iPhone i iPad, de manera que els atacs dirigits només contra individus específics no són possibles sota el nostre disseny. Finalment, no hi ha informes automatitzats a les forces de l'ordre i Apple fa una revisió humana abans de fer un informe a NCMEC. En el cas poc probable que el sistema marqui imatges que no coincideixen amb imatges CSAM conegudes, el compte no es desactivaria i no s'enviaria cap informe a NCMEC.

Apple s'ha enfrontat a crítiques significatives dels defensors de la privadesa, investigadors de seguretat, experts en criptografia, acadèmics i altres per la seva decisió de desplegar la tecnologia amb el llançament de iOS 15 i iPad 15 , previst al setembre.

Això ha donat lloc a un carta oberta criticant el pla d'Apple d'escanejar iPhones per cercar CSAM a ‌iCloud Photos‌ i imatges explícites en missatges infantils, que ha aconseguit més de 5.500 signatures en el moment de redactar-se. Apple també ha rebut crítiques de WhatsApp, propietat de Facebook, el cap del qual Will Cathcart l'anomenava 'l'enfocament equivocat i un revés per a la privadesa de les persones a tot el món'. El CEO d'Epic Games, Tim Sweeney, també atacat la decisió, al·legant que havia 'esforçat molt' per veure el moviment des del punt de vista d'Apple, però havia conclòs que, 'ineludiblement, es tracta d'un programari espia del govern instal·lat per Apple basat en una presumpció de culpabilitat'.

'Per molt ben intencionada que sigui, Apple està desplegant la vigilància massiva a tot el món amb això', dit El destacat denunciant Edward Snowden, va afegir que 'si avui poden buscar pornografia infantil, demà podran buscar qualsevol cosa'. La Fundació Electronic Frontier, sense ànim de lucre, també criticat Els plans d'Apple, afirmant que 'fins i tot una porta del darrere ben documentada, acuradament pensada i d'abast restringit segueix sent una porta del darrere'.

Com comprovar la durada de la bateria dels beats wireless
Etiquetes: privadesa d'Apple , Funcions de seguretat infantil d'Apple