Apple News

Els investigadors de seguretat expressen l'alarma pels plans d'Apple per escanejar imatges d'iCloud, però la pràctica ja està molt estesa

Dijous 5 d'agost de 2021 14:04 PDT per Juli Clover

poma avui anunciat que amb el llançament de iOS 15 i iPad 15 , començarà a escanejar Fotos d'iCloud als Estats Units per cercar material conegut d'abús sexual infantil (CSAM), amb plans per informar les troballes al Centre Nacional per a nens desapareguts i explotats (NCMEC).





Funció de seguretat infantil
Abans de quan Apple va detallar els seus plans, es van filtrar notícies sobre la iniciativa CSAM i els investigadors de seguretat ja han començat a expressar preocupacions sobre com es podria utilitzar el nou protocol d'escaneig d'imatges d'Apple en el futur, tal com va assenyalar. Financial Times .

Apple està utilitzant un sistema 'NeuralHash' per comparar imatges CSAM conegudes amb fotos d'un usuari iPhone abans de pujar-los a iCloud . Si hi ha una coincidència, aquesta fotografia es penja amb un val de seguretat criptogràfic i, en un determinat llindar, s'activa una revisió per comprovar si la persona té CSAM als seus dispositius.



quin és el mac os més nou

En aquests moments, Apple està utilitzant la seva tecnologia d'escaneig d'imatges i de concordança per buscar maltractaments infantils, però els investigadors es preocupen que en el futur es pugui adaptar per buscar altres tipus d'imatges que siguin més preocupants, com ara senyals antigovernamentals a protestes.

En una sèrie de tuits, l'investigador de criptografia de Johns Hopkins Matthew Green va dir que l'escaneig CSAM és una 'idea molt dolenta' perquè, en el futur, podria ampliar-se a escanejar fotos xifrades d'extrem a extrem en lloc de només contingut que es penja a ‌iCloud‌. Per a nens, Apple és implementant una funció d'escaneig independent que cerca contingut sexualment explícit directament als iMessages, que estan xifrats d'extrem a extrem.

Green també va expressar la seva preocupació sobre els hash que Apple planeja utilitzar perquè podria haver-hi 'col·lisions', on algú envia un fitxer inofensiu que comparteix un hash amb CSAM i podria donar lloc a una bandera falsa.

Apple, per la seva banda, diu que la seva tecnologia d'escaneig té un 'nivell de precisió extremadament alt' per assegurar-se que els comptes no estan marcats de manera incorrecta, i els informes es revisen manualment abans que ‌iCloud‌ el compte està desactivat i s'envia un informe a NCMEC.

Green creu que la implementació d'Apple impulsarà altres empreses tecnològiques a adoptar tècniques similars. 'Això trencarà la presa', va escriure. 'Els governs ho exigiran a tothom'. Va comparar la tecnologia amb 'eines que els règims repressius han desplegat'.


L'investigador de seguretat Alec Muffett, que abans treballava a Facebook, va dir que la decisió d'Apple d'implementar aquest tipus d'escaneig d'imatges va ser un 'pas enorme i regressiu per a la privadesa individual'. 'Apple està tornant a la privadesa per habilitar 1984', va dir.

Ross Anderson, professor d'enginyeria de seguretat de la Universitat de Cambridge, va dir que era una 'idea absolutament espantosa' que podria conduir a una 'vigilància a granel distribuïda' dels dispositius.

Com molts han assenyalat a Twitter, diverses empreses tecnològiques ja fan escaneig d'imatges per a CSAM. Google, Twitter, Microsoft, Facebook i altres utilitzen mètodes de resum d'imatges per buscar i denunciar imatges conegudes d'abús infantil.


També val la pena assenyalar que Apple ho era ja escanejant algun contingut per a imatges de maltractament infantil abans del llançament de la nova iniciativa CSAM. El 2020, la directora de privadesa d'Apple, Jane Horvath, va dir que Apple va utilitzar la tecnologia de cribratge per buscar imatges il·legals i després desactiva els comptes si es detecta indicis de CSAM.

diferència entre el tacte 3D i el tacte hàptic

Apple el 2019 ha actualitzat les seves polítiques de privadesa tenir en compte que escanejaria el contingut penjat per 'contingut potencialment il·legal, inclòs material d'explotació sexual infantil', de manera que els anuncis d'avui no són del tot nous.

Nota: a causa de la naturalesa política o social de la discussió sobre aquest tema, el fil de discussió es troba al nostre Notícies polítiques fòrum. Tots els membres del fòrum i els visitants del lloc poden llegir i seguir el fil, però la publicació està limitada als membres del fòrum amb almenys 100 publicacions.

Etiquetes: privadesa d'Apple , Funcions de seguretat infantil d'Apple