Apple News

Investigadors universitaris que van crear un sistema d'escaneig CSAM insten Apple a no utilitzar la tecnologia 'perillosa'.

Divendres, 20 d'agost de 2021 a les 06:48 PDT per Sami Fathi

Respectats investigadors universitaris estan fent sonar l'alarma sobre la tecnologia que hi ha darrere dels plans d'Apple per escanejar iPhone biblioteques de fotos dels usuaris per a CSAM, o material d'abús sexual infantil, qualificant la tecnologia de 'perillosa'.





privadesa de la poma
Jonanath Mayer, professor assistent d'informàtica i afers públics a la Universitat de Princeton, així com Anunay Kulshrestha, investigadora del Centre de Política de Tecnologia de la Informació de la Universitat de Princeton, ambdues va escriure un comentari per El Washington Post , explicant les seves experiències amb la tecnologia de detecció d'imatges de construcció.

Els investigadors van iniciar un projecte fa dos anys per identificar CSAM en serveis en línia xifrats d'extrem a extrem. Els investigadors assenyalen que, donat el seu camp, 'coneixen el valor del xifratge d'extrem a extrem, que protegeix les dades de l'accés de tercers'. Aquesta preocupació, diuen, és el que els horroritza pel fet que CSAM 'prolifereix en plataformes xifrades'.





Com restablir de fàbrica el meu iphone 11

Mayer i Kulshrestha van dir que volien trobar un punt mitjà per a la situació: construir un sistema que les plataformes en línia poguessin utilitzar per trobar CSAM i protegir el xifratge d'extrem a extrem. Els investigadors assenyalen que els experts en la matèria dubtaven de la perspectiva d'aquest sistema, però sí que van aconseguir construir-lo i en el procés van notar un problema important.

Hem intentat explorar un possible terme mitjà, on els serveis en línia poguessin identificar contingut nociu i, d'altra manera, preservar el xifratge d'extrem a extrem. El concepte era senzill: si algú compartia material que coincideix amb una base de dades de contingut nociu conegut, el servei s'avisava. Si una persona comparteix contingut innocent, el servei no aprendria res. La gent no va poder llegir la base de dades ni saber si el contingut coincideix, ja que aquesta informació podria revelar mètodes d'aplicació de la llei i ajudar els delinqüents a evadir la detecció.

Observadors coneixedors van argumentar que un sistema com el nostre estava lluny de ser factible. Després de molts inicis falsos, vam construir un prototip funcional. Però ens hem trobat amb un problema evident.

Des de l'anunci d'Apple de la funció, la companyia ha estat bombardejada amb inquietuds que el sistema darrere de la detecció de CSAM es podria utilitzar per detectar altres formes de fotos a petició dels governs opressors. Apple ha rebutjat fermament aquesta possibilitat, dient que rebutjarà qualsevol sol·licitud d'aquest tipus dels governs.

No obstant això, la preocupació sobre les implicacions futures de la tecnologia que s'utilitza per a la detecció de CSAM està molt estesa. Mayer i Kulshrestha van dir que les seves preocupacions sobre com els governs podrien utilitzar el sistema per detectar contingut diferent del CSAM els van 'pertorbar'.

ofertes de divendres negre en productes de poma

Un govern estranger podria, per exemple, obligar un servei a persones que comparteixen un discurs polític desfavorit. No és cap hipotètic: WeChat, la popular aplicació de missatgeria xinesa, ja utilitza la concordança de contingut per identificar material dissident. L'Índia va promulgar regles aquest any que podrien exigir una selecció prèvia de contingut crític amb la política del govern. Recentment, Rússia va multar Google, Facebook i Twitter per no retirar els materials de protesta a favor de la democràcia.

Hem detectat altres mancances. El procés de concordança de contingut podria tenir falsos positius i els usuaris maliciosos podrien jugar amb el sistema per sotmetre els usuaris innocents a un escrutini.

Estàvem tan molestos que vam fer un pas que no havíem vist abans a la literatura informàtica: vam advertir contra el disseny del nostre propi sistema, instant a investigar més sobre com mitigar els greus inconvenients...

Apple ha continuat abordant les preocupacions dels usuaris sobre els seus plans, publicació de documents addicionals i una pàgina de preguntes freqüents . Apple continua creient que el seu sistema de detecció CSAM, que es produirà al dispositiu d'un usuari, s'alinea amb els seus valors de privadesa de llarga data.

Etiquetes: privadesa d'Apple , WashingtonPost.com , Funcions de seguretat infantil d'Apple