Apple começará a digitalizar iPhones para imagens de abuso infantil

31

A Apple disse que começará a digitalizar os dispositivos dos clientes em busca de imagens de abuso sexual infantil, em um esforço para proteger os jovens e evitar a disseminação desse material.

Ao anunciar a mudança na quinta-feira, 5 de agosto, a gigante da tecnologia disse que usará a tecnologia nas próximas versões do iOS e iPadOS para detectar imagens infantis ilegais em um smartphone ou tablet fabricado na Apple.

Como funciona

A Apple disse que antes de uma imagem ser enviada para o iCloud, uma ferramenta de detecção chamada neuralMatch realizará um processo de correspondência no dispositivo usando um banco de dados de imagens de abuso sexual já conhecidas pelo Centro Nacional de Crianças Desaparecidas e Exploradas (NCMEC). A empresa disse que a tecnologia foi projetada com a privacidade do usuário em mente, explicando que não vê as imagens de um dispositivo, mas usa uma impressão digital ligada ao conteúdo que permite que ele verifique se há uma correspondência.

Se o sistema detectar imagens de abuso sexual infantil, o caso será relatado ao NCMEC e repassado à polícia. A conta apple do usuário também será desativada.

Mensagens, Siri e Pesquisa

O aplicativo Mensagens da Apple também usará aprendizado de máquina no dispositivo para alertar as crianças e seus pais ao receber ou enviar fotos sexualmente explícitas. Siri e Search também serão atualizados, de modo que se alguém realizar uma pesquisa relacionada ao abuso sexual infantil, ele será informado de que seu interesse no tema é prejudicial antes de ser direcionado para recursos que oferecem ajuda.

Resposta

Embora grupos de pensão alimentícia tenham saudado o movimento da Apple, outros estão expressando preocupação de que o sistema possa ser usado de forma dissimulada.

O principal pesquisador de criptografia Matthew Green, da Universidade Johns Hopkins, disse em uma série de tweets que o sistema poderia potencialmente ser usado por miscreants para colocar vítimas inocentes em apuros, enviando-lhes imagens aparentemente inocentes projetadas para alertar.

Mas a Apple insiste que o sistema possui “um nível extremamente alto de precisão e garante menos de uma chance em 1 trilhão por ano de sinalizar incorretamente uma determinada conta”, acrescentando que um revisor humano sempre examinará um relatório sinalizado antes de decidir se o escalará.

A empresa disse que se um usuário sentir que sua conta foi erroneamente sinalizada, “ele pode entrar com um recurso para ter sua conta restabelecida”.

Mas também há preocupações de que governos autoritários possam tentar usar o sistema para monitorar cidadãos como ativistas que se opõem a um regime.

Em análises mais aprofundadas, Green disse: “Independentemente de quais são os planos de longo prazo da Apple, eles enviaram um sinal muito claro. Em sua opinião (muito influente), é seguro construir sistemas que digitalizem os telefones dos usuários em busca de conteúdo proibido. Essa é a mensagem que eles estão enviando para governos, serviços concorrentes, China, você.”

O pesquisador continuou: “Se eles se tornam certos ou errados nesse ponto dificilmente importa. Isso vai romper a barragem — os governos exigirão isso de todos. E quando descobrirmos que foi um erro, será tarde demais.”

Enquanto isso, John Clark, presidente e CEO da NCMEC, descreveu o movimento da Apple como “um divisor de águas”, acrescentando: “Com tantas pessoas usando produtos da Apple, essas novas medidas de segurança têm potencial para salvar vidas para crianças que estão sendo seduzidas online e cujas imagens horríveis estão sendo divulgadas em material de abuso sexual infantil”.

A Apple disse que as mudanças chegarão primeiro nos EUA em atualizações para o iOS 15, iPadOS 15, watchOS 8 e macOS Monterey ainda este ano.

você pode gostar também