Compensação Pelo Signo Do Zodíaco
Substabilidade C Celebridades

Descubra A Compatibilidade Por Signo Do Zodíaco

Explicado: como a Apple fará a varredura em busca de imagens de exploração infantil em dispositivos e por que isso está causando espanto

Com previsão de lançamento inicial nos Estados Unidos, os recursos incluem o uso de novas tecnologias para limitar a disseminação do CSAM online, especialmente por meio da plataforma Apple.

Em uma postagem no blog, a Apple explicou que usará aplicativos de criptografia via iOS e iPadOS para corresponder às imagens CSAM conhecidas armazenadas no iCloud Photo.

A Apple anunciou que atualizações de software ainda este ano trarão novos recursos isso ajudará a proteger as crianças de predadores que usam ferramentas de comunicação para recrutá-los e explorá-los, e limitar a disseminação de Material de Abuso Sexual Infantil (CSAM).





Com previsão de lançamento inicial nos Estados Unidos, os recursos incluem o uso de novas tecnologias para limitar a disseminação do CSAM online, especialmente por meio da plataforma Apple.

Em seguida, haverá proteção no dispositivo para que as crianças enviem ou recebam conteúdo sensível, com mecanismos para alertar os pais caso o usuário tenha menos de 13 anos de idade. A Apple também intervirá quando o Siri ou o Search for usado para pesquisar tópicos relacionados ao CSAM .



Que tecnologia a Apple está fazendo para evitar a disseminação do CSAM online?

Em uma postagem no blog, a Apple explicou que usará aplicativos de criptografia via iOS e iPadOS para corresponder às imagens CSAM conhecidas armazenadas no iCloud Photo. A tecnologia combinará imagens no iCloud de um usuário com imagens conhecidas fornecidas por organizações de segurança infantil. E isso é feito sem realmente ver a imagem e apenas procurando o que é como uma correspondência de impressão digital. Caso haja correspondências ultrapassando um limite, a Apple relatará essas ocorrências ao Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC).

A Apple esclareceu que sua tecnologia mantém a privacidade do usuário em mente e, portanto, o banco de dados é transformado em um conjunto ilegível de hashes que é armazenado com segurança nos dispositivos dos usuários. Ele acrescentou que antes de qualquer imagem ser carregada para o iCloud, o sistema operacional irá compará-la com os hashes CSAM conhecidos usando uma tecnologia criptográfica chamada interseção de conjunto privado. Essa tecnologia também determinará uma correspondência sem revelar o resultado.



Nesse ponto, o dispositivo cria um voucher de segurança criptográfico com o resultado da correspondência e os dados criptografados adicionais e os salva no iClouds com a imagem. A tecnologia de compartilhamento de segredo de limite garante que esses vouchers não possam ser interpretados pela Apple, a menos que a conta do iCloud Photos ultrapasse um limite de conteúdo CSAM conhecido. Esse limite, afirma o blog, foi estabelecido para fornecer um nível extremamente alto de precisão e garante menos de uma chance em um trilhão por ano de sinalizar incorretamente uma determinada conta. Portanto, é improvável que uma única imagem acione um alerta.



Mas se o limite for excedido, a Apple pode interpretar o conteúdo dos vouchers de segurança e revisar manualmente cada relatório para uma correspondência, desabilitar a conta do usuário e enviar um relatório ao NCMEC. A Apple disse que os usuários poderão apelar se acharem que foram erroneamente sinalizados.


patrimônio líquido de doug christie 2014

Como funcionam os outros recursos?

A nova segurança de comunicação da Apple para Mensagens irá borrar uma imagem sensível e alertar uma criança sobre a natureza do conteúdo. Se ativado no back-end, a criança também pode ser informada de que seus pais foram alertados sobre a mensagem que visualizaram. O mesmo se aplica se a criança decidir enviar uma mensagem sensível. A Apple disse que o Mensagens usará aprendizado de máquina no dispositivo para analisar anexos de imagem e determinar se uma foto é sexualmente explícita e que a Apple não terá acesso às mensagens. O recurso virá como uma atualização nas contas configuradas como famílias no iCloud para as versões mais recentes do sistema operacional.
Além disso, com a atualização, quando um usuário tenta pesquisar tópicos potenciais do CSAM, o Siri e a Pesquisa explicam por que isso pode ser prejudicial e problemático. Os usuários também receberão orientação sobre como registrar uma denúncia de exploração infantil, caso solicitem.



Também em Explicação| Explicado: como e por que o Google oferecerá mais proteção às crianças online

Por que a Apple está fazendo isso e quais são as preocupações levantadas?

Há anos as grandes empresas de tecnologia estão sob pressão para reprimir o uso de sua plataforma para exploração de crianças. Muitos relatórios têm sublinhado ao longo dos anos como o suficiente não estava sendo feito para impedir que a tecnologia disponibilizasse o conteúdo CSAM de forma mais ampla.

No entanto, o anúncio da Apple foi recebido com críticas, com muitos sublinhando como este é exatamente o tipo de tecnologia de vigilância que muitos governos gostariam de ter e adorariam usar indevidamente. O fato de isso vir da Apple, que por muito tempo foi adepta da privacidade, surpreendeu a muitos.



Além disso, especialistas em criptografia como Matthew Green, da Universidade Johns Hopkins, expressaram temor de que o sistema pudesse ser usado para incriminar pessoas inocentes, enviando-lhes imagens destinadas a acionar as correspondências para CSAM. Os pesquisadores conseguiram fazer isso com bastante facilidade, disse ele à NPR, acrescentando que é possível enganar tais algoritmos.


estilo de vida keanu reeves

Mas o The New York Times citou o diretor de privacidade da Apple, Erik Neuenschwander, dizendo que esses recursos não significarão nada diferente para os usuários regulares.



Se você está armazenando uma coleção de material CSAM, sim, isso é ruim para você, disse ele à publicação.

Boletim de Notícias| Clique para obter os melhores explicadores do dia em sua caixa de entrada

Outras grandes empresas de tecnologia têm tecnologias semelhantes?

sim. Na verdade, a Apple entrou relativamente tarde na cena, já que a Microsoft, o Google e o Facebook alertaram as agências de segurança pública sobre as imagens do CSAM. A Apple tem ficado para trás porque qualquer tecnologia desse tipo iria contra o seu muito elogiado compromisso com a privacidade do usuário. Como resultado, em 2020, quando o Facebook relatou 20,3 milhões de violações do CSAM ao NCMEC, a Apple poderia relatar apenas 265 casos, relatou o The New York Times.

Só agora ela foi capaz de encontrar o sweetspot de tecnologia para fazer isso sem impactar os usuários regulares, ou pelo menos assustá-los. No entanto, como a reação inicial mostrou, ainda é uma caminhada na corda bamba.

Compartilhe Com Os Seus Amigos: