Apple News

La Coalició Global de Grups de Política insta Apple a abandonar el 'Pla per crear capacitats de vigilància als iPhones'

Dijous 19 d'agost de 2021 a les 2:23 PDT per Tim Hardwick

Una coalició internacional de més de 90 grups polítics i de drets va publicar una carta oberta dijous va instar Apple a abandonar els seus plans per 'construir capacitats de vigilància en iPhones, iPads i altres productes', una referència a la intenció de la companyia de escaneja les biblioteques de fotos d'iCloud dels usuaris a la recerca d'imatges d'abús sexual infantil (via Reuters ).





Funció de seguretat infantil groc

'Tot i que aquestes capacitats estan destinades a protegir els nens i reduir la propagació de material d'abús sexual infantil (CSAM), ens preocupa que s'utilitzin per censurar el discurs protegit, amenaçar la privadesa i la seguretat de les persones d'arreu del món i tenir problemes desastrosos. conseqüències per a molts nens”, escrivien els grups a la carta.



Alguns signants de la carta, organitzada pel Centre per a la Democràcia i la Tecnologia (CDT), sense ànim de lucre amb seu als Estats Units, estan preocupats perquè el sistema d'escaneig CSAM al dispositiu d'Apple es pugui subvertir en països amb diferents sistemes legals per buscar contingut polític o d'altres tipus sensibles.

'Una vegada incorporada aquesta funció de porta posterior, els governs podrien obligar Apple a estendre la notificació a altres comptes i a detectar imatges censurables per raons diferents de ser sexualment explícites', diu la carta.

La carta també demana a Apple que abandoni els canvis previstos a iMessage als comptes familiars, que intentarien identificar i difuminar la nuesa dels missatges dels nens, deixant-los veure només si els pares se'ls avisa. Els signants afirmen que el pas no només podria posar en perill els nens de llars intolerants o aquells que busquen material educatiu, sinó que també trencaria el xifratge d'extrem a extrem per a iMessage.

Alguns signants provenen de països en què ja hi ha acalorades lluites legals sobre l'encriptació digital i els drets de privadesa, com el Brasil, on WhatsApp ha estat bloquejada repetidament per no poder desxifrar missatges en les investigacions criminals. Altres signants es troben a l'Índia, Mèxic, Alemanya, Argentina, Ghana i Tanzània. Els grups que també han signat inclouen l'American Civil Liberties Union, Electronic Frontier Foundation, Access Now, Privacy International i el Tor Project.

El pla d'Apple per detectar imatges CSAM conegudes emmagatzemades Fotos d'iCloud ha sigut especialment controvertit i ha generat preocupacions d'investigadors de seguretat, acadèmics, grups de privadesa i altres sobre el sistema que pot ser abusat pels governs com a forma de vigilància massiva. L'empresa ha intentat resoldre els problemes mitjançant la publicació documents addicionals i a Pàgina de preguntes freqüents explicant com funcionarà el sistema de detecció d'imatges i argumentant que el risc de falses deteccions és baix.

Apple també ha dit que rebutjarà les demandes d'ampliar el sistema de detecció d'imatges més enllà de les imatges de nens marcades per bases de dades reconegudes de material d'abús sexual infantil, tot i que com Reuters assenyala, no ha dit que sortiria d'un mercat en lloc d'obeir una ordre judicial.

Etiquetes: privadesa d'Apple , Funcions de seguretat infantil d'Apple