Como o plano da Apple para combater o abuso infantil saiu pela culatra

30

O que se seguiu – tweets indignados, manchetes críticas e um clamor por mais informações – colocou o gigante da tecnologia na defesa apenas algumas semanas antes do próximo lançamento do iPhone, seu maior evento do ano. Foi um raro erro de cálculo de RP para uma empresa conhecida por seus meticulosos esforços de RP.A tecnologia no centro da crítica é uma ferramenta que começará a verificar os dispositivos iOS e as fotos do iCloud em busca de imagens de abuso infantil, junto com um novo recurso opcional que avisará menores e seus pais se anexos de imagem recebidos ou enviados no iMessage são sexualmente explícito e, em caso afirmativo, borrá-los.As preocupações se concentravam principalmente na privacidade e na possibilidade de a tecnologia ser usada além de seu propósito declarado, reclamações que certamente magoaram a Apple, que concentrou muitos de seus esforços de marketing nos últimos anos em como protege os usuários.Na semana que se seguiu ao anúncio, a Apple organizou uma série de coletivas de imprensa para limpar o ar e lançou uma longa página de perguntas frequentes em seu site para abordar algumas das confusões e equívocos. Em uma entrevista publicada na sexta-feira, Craig Federighi – o vice-presidente sênior de engenharia de software da Apple – disse ao The Wall Street Journal: “É realmente claro que muitas mensagens foram confundidas de forma muito ruim em termos de como as coisas eram entendidas”.

Muitos especialistas em segurança infantil elogiaram a intenção, reconhecendo as responsabilidades e obrigações éticas que uma empresa tem sobre os produtos e serviços que cria. Mas eles também chamaram os esforços de “profundamente preocupantes”, decorrente em grande parte de como parte do processo de verificação de imagens de abuso infantil da Apple é feito diretamente nos dispositivos dos usuários.

“Quando as pessoas ouvem que a Apple está ‘procurando’ por materiais de abuso sexual infantil (CSAM) em telefones de usuários finais, elas imediatamente pensam no Big Brother e em ‘1984’”, disse Ryan O’Leary, gerente de pesquisa de privacidade e tecnologia legal da empresa de pesquisa de mercado IDC. “Este é um problema com muitas nuances e que à primeira vista pode parecer bastante assustador ou intrusivo. É muito fácil ser sensacionalista do ponto de vista de um leigo. ”

A Apple não quis comentar sobre esta história.

Como funciona a ferramenta da Apple

Durante as chamadas para a imprensa, a empresa enfatizou como a nova ferramenta vai transformar fotos em iPhones e iPads em hashes ilegíveis – ou números complexos – armazenados nos dispositivos dos usuários. Esses números serão comparados com um banco de dados de hashes fornecido pelo Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC) assim que as imagens forem carregadas para o serviço de armazenamento iCloud da Apple. (A Apple disse mais tarde que também usaria outras organizações em vários países para o programa de hash e estava esperando que esses negócios fossem finalizados antes de anunciar seu envolvimento, informou a Reuters.)iPhones e iPads criarão um “voucher de segurança” duplamente criptografado – um pacote de informações enviado para servidores iCloud – que será codificado em fotos. Assim que um determinado número de vouchers de segurança forem sinalizados como correspondentes nas fotos do NCMEC, a equipe de revisão da Apple será alertada para que possa descriptografar o voucher, desativar a conta do usuário e alertar o NCMEC, que pode informar às autoridades sobre a existência de imagens potencialmente abusivas . Federighi esclareceu mais tarde que cerca de 30 partidas seriam necessárias antes que a equipe de revisão humana fosse notificada.

“Há uma preocupação legítima dos defensores da privacidade de que esta é uma ladeira muito escorregadia e basicamente a única coisa que impede a Apple [de se expandir além da busca por imagens CSAM] é a palavra deles”, disse O’Leary. “A Apple percebeu isso e está tentando colocar alguma transparência extra em torno desse novo conjunto de recursos para tentar controlar a narrativa.”

No PDF publicado em seu site descrevendo a tecnologia, que chama de NeuralHash, a Apple tentou lidar com os temores de que os governos poderiam forçar a Apple a adicionar imagens de abuso infantil à lista de hash. “A Apple recusará tais demandas”, afirmou. “Já enfrentamos demandas para construir e implantar mudanças exigidas pelo governo que degradam a privacidade dos usuários antes, e temos recusado firmemente essas demandas. Continuaremos a recusá-los no futuro. ”

Publicações Relacionadas

A mensagem, no entanto, chega em um momento de maior desconfiança e escrutínio das empresas de tecnologia, juntamente com hipersensibilidade em torno da vigilância ou vigilância percebida. “A mensagem precisa ser hermética”, disse O’Leary.

A falta de detalhes sobre como a operação completa funcionaria também contribuiu para as mensagens confusas. Quando questionada sobre a equipe de revisão humana em uma chamada de imprensa, por exemplo, a Apple disse que não tinha certeza do que isso implicaria, porque precisará aprender quais recursos são necessários com base em uma fase de teste.A Apple está longe de ser a única a criar ferramentas de detecção de abuso infantil , mas outras grandes empresas de tecnologia não o fazem no próprio dispositivo. Por exemplo, o Google e a Microsoft têm sistemas que ajudam a detectar imagens conhecidas de exploração infantil e o Facebook testou ferramentas como um pop-up que aparece se um usuário pesquisar palavras associadas a abuso sexual infantil ou se tentar compartilhar imagens prejudiciais.

Mary Pulido, diretora executiva da Sociedade de Prevenção da Crueldade contra Crianças de Nova York (NYSPCC), considerou essas tecnologias importantes, observando que elas podem “ajudar a polícia a levar os traficantes à justiça, acelerar a identificação das vítimas e reduzir o tempo de investigação”. Ela também acredita que “proteger as crianças de qualquer dano potencial supera as preocupações com a privacidade”.

Onde a Apple deu errado

Embora ninguém esteja contestando a motivação da Apple, Elizabeth Renieris, professora do Laboratório de Ética em Tecnologia da IBM da Universidade Notre Dame, disse que o momento foi “um pouco estranho”, considerando todos os anúncios focados na privacidade na Conferência Mundial de Desenvolvedores em junho. A Apple se recusou a compartilhar por que a nova ferramenta não foi apresentada na WWDC.

Renieris também disse que a Apple errou ao anunciar outras atualizações aparentemente relacionadas, embora fundamentalmente diferentes.

O novo recurso de comunicação do iMessage, que deve ser ativado no Family Sharing e usa processamento no dispositivo, avisará os usuários menores de 18 anos quando estiverem prestes a enviar ou receber uma mensagem com uma imagem explícita. Os pais com filhos menores de 13 anos também podem ativar um recurso de notificação caso uma criança esteja prestes a enviar ou receber uma imagem de nudez. A Apple disse que não terá acesso às mensagens, embora as pessoas ainda expressem preocupação com a possibilidade de a Apple algum dia fazê-lo.“Ao misturá-lo com os controles dos pais, fez com que os anúncios parecessem relacionados. São funcionalidades diferentes com tecnologia diferente ”, disse O’Leary. Federighi concordou, dizendo “em retrospectiva, apresentar esses dois recursos ao mesmo tempo foi uma receita para esse tipo de confusão”.Grandes nomes da tecnologia adicionaram lenha à fogueira. Todos, de Edward Snowden a Will Cathcart, chefe do WhatsApp, que é propriedade do Facebook, criticaram publicamente a Apple no Twitter. Cathcart disse que era “preocupante vê-los agir sem envolver especialistas que há muito documentam suas preocupações técnicas e mais amplas com isso”. (O Facebook já entrou em conflito com a Apple sobre privacidade antes, incluindo alterações recentes de privacidade de dados do iOS que tornariam mais difícil para os anunciantes rastrearem os usuários.)Alguns especialistas em segurança , como o ex-chefe de segurança do Facebook Alex Stamos – que também assinou um artigo no New York Times na quarta-feira detalhando as preocupações de segurança das ferramentas – disseram que a Apple poderia ter feito mais, como se envolver com a comunidade de segurança mais ampla durante as fases de desenvolvimento.

Enfiar na agulha de proteger a privacidade do usuário e garantir a segurança das crianças é difícil, para dizer o mínimo. Ao tentar reforçar a proteção para menores, a Apple também pode ter lembrado o público sobre o controle potencial que pode exercer sobre seus próprios produtos muito depois de serem vendidos.

“Anúncios como este diluem a reputação da empresa quanto à privacidade, mas também levantam uma série de preocupações mais amplas”, disse Renieris.

você pode gostar também