Apple News

Apple està obert a ampliar les noves funcions de seguretat infantil a aplicacions de tercers

Dilluns, 9 d'agost de 2021 12:00 PDT per Joe Rossignol

Apple ha celebrat avui una sessió de preguntes i respostes amb periodistes sobre la seva noves característiques de seguretat infantil , i durant la sessió informativa, Apple va confirmar que estaria oberta a ampliar les funcions a aplicacions de tercers en el futur.





funció de seguretat de la comunicació de l'iPhone
Com a novetat, Apple va presentar tres noves funcions de seguretat infantil que arribaran a les futures versions d'iOS 15, iPadOS 15, macOS Monterey i/o watchOS 8.

Noves funcions de seguretat infantil d'Apple

En primer lloc, una funció opcional de seguretat de la comunicació a l'aplicació Missatges a l'iPhone, l'iPad i el Mac pot advertir els nens i els seus pares quan reben o envien fotos sexualment explícites. Quan la funció està habilitada, Apple va dir que l'aplicació Missatges utilitzarà l'aprenentatge automàtic al dispositiu per analitzar els fitxers adjunts d'imatges i, si es determina que una foto és sexualment explícita, la foto es desdibuixarà automàticament i s'avisarà al nen.



En segon lloc, Apple podrà detectar imatges conegudes de material d'abús sexual infantil (CSAM) emmagatzemades a iCloud Photos, cosa que permetrà a Apple informar d'aquests casos al National Center for Missing and Exploited Children (NCMEC), una organització sense ànim de lucre que treballa en col·laboració. amb les agències d'aplicació de la llei dels EUA. Apple ha confirmat avui que el procés només s'aplicarà a les fotos que es carreguen a l'iCloud Fotos i no als vídeos.

En tercer lloc, Apple ampliarà la guia a Siri i Spotlight Search a través de dispositius proporcionant recursos addicionals per ajudar els nens i els pares a mantenir-se segurs en línia i obtenir ajuda amb situacions insegures. Per exemple, els usuaris que preguntin a Siri com poden denunciar CSAM o explotació infantil se'ls indicarà recursos sobre on i com presentar un informe.

Expansió a aplicacions de tercers

Apple va dir que, tot i que avui no té res a compartir en termes d'anunci, ampliar les funcions de seguretat infantil a tercers perquè els usuaris estiguin encara més protegits seria un objectiu desitjable. Apple no va proporcionar cap exemple específic, però una possibilitat podria ser que la funció de seguretat de la comunicació estigui disponible per a aplicacions com Snapchat, Instagram o WhatsApp perquè les fotos sexualment explícites rebudes per un nen quedin borroses.

Una altra possibilitat és que el conegut sistema de detecció CSAM d'Apple es pugui ampliar a aplicacions de tercers que carreguen fotos en un altre lloc que no sigui iCloud Photos.

Apple no va proporcionar un període de temps sobre quan les funcions de seguretat infantil es podrien expandir a tercers, i va assenyalar que encara ha de completar les proves i el desplegament de les funcions, i la companyia també va dir que hauria d'assegurar-se que qualsevol possible expansió no minar les propietats de privadesa o l'eficàcia de les funcions.

A grans trets, Apple va dir que l'ampliació de funcions a tercers és l'enfocament general de la companyia i ha estat des que va introduir el suport per a aplicacions de tercers amb la introducció de l'App Store a l'iPhone OS 2 el 2008.