Explicado: Por que a Apple está atrasando seu software que verifica as fotos de abuso infantil
Enquanto a mudança está sendo bem-vinda pelas agências de proteção à criança, os defensores da privacidade digital e colegas da indústria estão levantando bandeiras vermelhas, sugerindo que a tecnologia pode ter ramificações amplas na privacidade do usuário.

Após as críticas de defensores da privacidade e colegas da indústria, a Apple atrasou o lançamento de seu software que iria detectar fotografias que retratam abuso infantil em iPhones. O programa foi anunciado no mês passado e estava programado para lançamento nos Estados Unidos ainda este ano.
O que é o software da Apple e como funcionaria?
A Apple anunciou no mês passado que lançaria um mecanismo duplo que verifica as fotos em seus dispositivos para verificar se há conteúdo que possa ser classificado como Material de Abuso Sexual Infantil (CSAM). Como parte do mecanismo, a ferramenta neuralMatch da Apple verifica se há fotos antes de serem carregadas no iCloud - seu serviço de armazenamento em nuvem - e examina o conteúdo das mensagens enviadas em seu aplicativo iMessage criptografado de ponta a ponta. O aplicativo Mensagens usará aprendizado de máquina no dispositivo para alertar sobre conteúdo sensível, enquanto mantém as comunicações privadas ilegíveis pela Apple, disse a empresa.
neuralMatch compara as imagens com um banco de dados de imagens de abuso infantil e, quando houver um sinalizador, a equipe da Apple revisará manualmente as imagens. Uma vez confirmado o abuso infantil, o Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC) nos EUA será notificado.
Quais foram as preocupações?
Enquanto a mudança está sendo bem-vinda pelas agências de proteção à criança, os defensores da privacidade digital e colegas da indústria estão levantando bandeiras vermelhas, sugerindo que a tecnologia pode ter ramificações amplas na privacidade do usuário. Acredita-se que seja quase impossível construir um sistema de digitalização do lado do cliente que seja usado apenas para imagens sexualmente explícitas enviadas ou recebidas por crianças, sem que tal software seja ajustado para outros usos. O anúncio colocou os holofotes mais uma vez sobre governos e autoridades policiais que buscam uma porta dos fundos para serviços criptografados. Will Cathcart, chefe do serviço de mensagens criptografadas de ponta a ponta WhatsApp, disse: Este é um sistema de vigilância construído e operado pela Apple que poderia facilmente ser usado para escanear conteúdo privado para qualquer coisa que eles ou um governo decidirem controlar. Os países onde os iPhones são vendidos terão diferentes definições sobre o que é aceitável.
| Se o próximo iPhone tiver conectividade por satélite, esta é a tecnologia que a Apple usaráPor que a Apple retrocedeu?
Em um comunicado, a Apple disse que levaria mais tempo para coletar feedback e melhorar os recursos de segurança infantil propostos após as críticas ao sistema por questões de privacidade e outros motivos, tanto dentro como fora da empresa.
Com base no feedback de clientes, grupos de defesa, pesquisadores e outros, decidimos reservar um tempo adicional nos próximos meses para coletar informações e fazer melhorias antes de lançar esses recursos de segurança infantil extremamente importantes, disse.
Segundo a Reuters, a Apple vinha defendendo o plano há semanas e já havia oferecido uma série de explicações e documentos para mostrar que os riscos de falsas detecções eram baixos.
patrimônio líquido gilbert godfrey
Boletim de Notícias| Clique para obter os melhores explicadores do dia em sua caixa de entrada
Compartilhe Com Os Seus Amigos: