Apple News

L'antic cap de seguretat de Facebook parla de la controvèrsia al voltant de les funcions de seguretat infantil planificades d'Apple

Dimarts, 10 d'agost de 2021 a les 06:50 PDT per Hartley Charlton

Enmig de la controvèrsia en curs sobre els plans d'Apple per implementar noves característiques de seguretat infantil això implicaria escanejar missatges i biblioteques de fotos dels usuaris, l'antic cap de seguretat de Facebook, Alex Stamos, ha sospesat el debat amb crítiques a les múltiples parts implicades i suggeriments per al futur.





Funció de seguretat infantil
En un extens Fil de Twitter , Stamos va dir que 'no hi ha respostes fàcils' en el debat sobre la protecció infantil versus la privadesa personal.

diferència entre ipad mini i ipad air

Stamos va expressar la seva frustració per la manera com Apple va gestionar l'anunci de les noves característiques i criticat l'empresa per no participar en debats més àmplis de la indústria sobre els aspectes de seguretat i privadesa del xifratge d'extrem a extrem en els darrers anys.



Apple va ser convidada, però es va negar a participar en aquestes discussions, i amb aquest anunci van entrar en el debat d'equilibri i van empènyer tothom als racons més llunyans sense cap consulta ni debat públic.

Igualment, va dir Stamos que estava decebut amb diverses ONG, com la Electronic Frontier Foundation (EFF) i el National Center for Missing & Exploited Children (NCMEC), per deixar poc marge per a la discussió en les seves declaracions públiques. El NCMEC, per exemple, anomenats empleats d'Apple que va qüestionar les implicacions de privadesa de les noves característiques 'les veus cridaneres de la minoria'. 'El moviment públic d'Apple els ha empès a defensar les seves accions fins a l'extrem', va explicar Stamos.

Stem va instar s investigadors de seguretat i els activistes que es van sorprendre amb l'anunci d'Apple de prestar més atenció a l'entorn regulador global i van especular que la llei de seguretat en línia del Regne Unit i la Llei de serveis digitals de la UE van ser fonamentals en la decisió d'Apple d'implementar les noves funcions de seguretat infantil.

Un dels problemes bàsics de l'enfocament d'Apple és que semblen desesperats per evitar construir una funció de confiança i seguretat reals per als seus productes de comunicacions. No hi ha cap mecanisme per informar de correu brossa, amenaces de mort, discurs d'odi, NCII o qualsevol altre tipus d'abús a iMessage.

Ell també va dir que Apple no té funcions suficients per a la confiança i la seguretat, i va animar Apple per crear un sistema d'informes a iMessage, implementar ML del costat del client per demanar als usuaris que denuncien alguna cosa abusiva i personal d'un equip de seguretat infantil per investigar els pitjors informes.

En comptes d'això, obtenim un sistema d'ML que només està dirigit a (menors) de 13 anys (no és el grup més gran d'objectius de sextorsió/preparació segons la meva experiència), que ofereix als nens una elecció que no estan equipats per fer i notifica als pares. en lloc d'Apple T&S.

Stem dit que no entenia per què Apple està buscant CSAM a nivell local, tret que hi hagi encriptació de còpia de seguretat d'iCloud, i va advertir que Apple podria tenir l'opinió 'enverinada' contra els classificadors del costat del client.

com es canvia la icona de l'aplicació

Tampoc no entenc per què Apple està empenyent l'escaneig CSAM d'iCloud al dispositiu, tret que estigui en preparació per al xifratge real de les còpies de seguretat d'iCloud. Un objectiu raonable hauria de ser escanejar àlbums d'iCloud compartits, que es podrien implementar al costat del servidor.

En qualsevol cas, sortir de la porta amb escaneig no consensuat de fotos locals i crear ML del costat del client que no proporcionarà molta prevenció de danys reals, significa que Apple podria haver enverinat el pou contra qualsevol ús del client. -classificadors laterals per protegir els usuaris.

No obstant, Stamos va destacar que Facebook va capturar 4,5 milions d'usuaris que publiquen imatges d'abusos infantils, i que és probable que això només sigui una proporció del nombre total de delinqüents, en cercar imatges amb coincidències conegudes per a CSAM.

Etiquetes: Facebook , Funcions de seguretat infantil d'Apple