Apple News

Els empleats d'Apple expressen internament preocupacions sobre els plans de detecció de CSAM

Divendres, 13 d'agost de 2021 a les 12:43 PDT per Sami Fathi

Els empleats d'Apple s'uneixen ara al cor d'individus que plantegen preocupacions sobre els plans d'Apple d'escanejar iPhone segons un informe de les biblioteques de fotos dels usuaris per a CSAM o material d'abús sexual infantil, segons els informes, parlant internament sobre com es podria utilitzar la tecnologia per escanejar les fotos dels usuaris per buscar altres tipus de contingut. Reuters .





drone d'Apple Park, juny de 2018 2
D'acord amb Reuters , un nombre no especificat d'empleats d'Apple s'han dirigit als canals interns de Slack per plantejar preocupacions sobre la detecció de CSAM. Concretament, els empleats estan preocupats perquè els governs puguin obligar Apple a utilitzar la tecnologia per a la censura en trobar contingut diferent del CSAM. Alguns empleats estan preocupats perquè Apple estigui danyant la seva reputació de privadesa líder en el sector.

Els empleats d'Apple han inundat un canal intern de Slack d'Apple amb més de 800 missatges sobre el pla anunciat fa una setmana, van dir a Reuters els treballadors que van demanar no ser identificats. Molts van expressar la seva preocupació perquè la funció pogués ser explotada per governs repressius que busquen trobar altre material per a la censura o les detencions, segons els treballadors que van veure el fil durant els dies.



Els canvis de seguretat passats a Apple també han generat preocupació entre els empleats, però el volum i la durada del nou debat és sorprenent, van dir els treballadors. Alguns cartells els preocupaven que Apple estigui danyant la seva reputació principal per protegir la privadesa.

Segons l'informe, no es creu que els empleats d'Apple amb funcions relacionades amb la seguretat dels usuaris hagin format part de la protesta interna.

Des de la seva anunci la setmana passada , Apple ha estat bombardejada amb crítiques sobre els seus plans de detecció CSAM, que encara s'espera que es desplegaran amb iOS 15 i iPadOS 15 aquesta tardor. Les preocupacions giren principalment sobre com la tecnologia podria presentar un pendent relliscós per a futures implementacions per part de governs i règims opressius.

com desactivar la música explícita d'Apple

Apple ha rebutjat fermament la idea que la tecnologia del dispositiu utilitzada per detectar material CSAM es podria utilitzar per a qualsevol altre propòsit. En a document de preguntes freqüents publicat , la companyia diu que rebutjarà amb vehemència qualsevol demanda d'aquest tipus per part dels governs.

Els governs podrien obligar Apple a afegir imatges que no siguin CSAM a la llista hash?
Apple rebutjarà aquestes demandes. La capacitat de detecció CSAM d'Apple està dissenyada únicament per detectar imatges CSAM conegudes emmagatzemades a iCloud Photos que han estat identificades per experts de NCMEC i altres grups de seguretat infantil. Abans ens hem enfrontat a demandes per crear i implementar canvis obligats pel govern que degraden la privadesa dels usuaris, i hem rebutjat aquestes demandes. Continuarem rebutjant-los en el futur. Quedi clar, aquesta tecnologia es limita a detectar CSAM emmagatzemats a iCloud i no accedirem a la petició de cap govern per ampliar-la. A més, Apple fa una revisió humana abans de fer un informe a NCMEC. En el cas en què el sistema marca fotos que no coincideixen amb imatges CSAM conegudes, el compte no es desactivaria i no s'arxivarà cap informe a NCMEC.

An carta oberta criticant Apple i demanant a la companyia que interrompi immediatament el seu pla de desplegar la detecció CSAM ha aconseguit més de 7.000 signatures en el moment d'escriure aquest escrit. El cap de WhatsApp també ho ha fet pesat en el debat .

Etiquetes: privadesa d'Apple , Funcions de seguretat infantil d'Apple