como os gigantes da tecnologia cortejam e esmagam as pessoas que os estudam

36

Um impasse jurídico entre os pesquisadores da NYU e o Facebook lança luz sobre a dinâmica cada vez mais difícil entre empresas de tecnologia e acadêmicos.

Laura Edelson estava em pânico e eu sabia que era um pouco culpada por seu surto.

“Se isso for verdade”, disse-me Edelson esta semana durante um dos vários telefonemas frenéticos, “este é o meu pesadelo.”

Falei com Edelson, um Ph.D. candidato na Escola de Engenharia Tandon da Universidade de Nova York, para perguntar a ela sobre algo que o Facebook me contou sobre por que a empresa recentemente entregou a Edelson e seus colegas um aviso de cessar e desistir altamente divulgado . Edelson é o co-criador do Ad Observer, uma extensão do navegador que coleta dados sobre quem os anunciantes políticos estão mirando no Facebook. O Facebook me disse que um dos motivos pelos quais ordenou que Edelson fechasse o Ad Observer foi que ele violou as políticas do Facebook ao roubar dados de usuários que nunca consentiram que suas informações fossem coletadas. O Facebook disse que a equipe do Ad Observer também publicou essas informações para qualquer pessoa baixar.

Isso foi novidade para Edelson, que, como pesquisador de cibersegurança, tentou manter as informações privadas das pessoas fora de seu conjunto de dados. Pelo que ela sabe, as únicas informações que o Ad Observer coletou e publicou vieram de pessoas que instalaram a extensão do navegador e enviaram voluntariamente o conteúdo dos anúncios políticos que viram no Facebook e o motivo pelo qual foram direcionados a esses anúncios.

Embora ela tenha negado veementemente as afirmações do Facebook, a ideia de que as informações privadas de outra pessoa possam estar escondidas nos dados de Edelson ainda a deixava com as mãos tremendo. Ela desligou instantaneamente a capacidade de qualquer outra pessoa baixar os dados enquanto ela e sua equipe iniciavam uma auditoria de privacidade de emergência.

Mas o pânico de Edelson acabou sendo prematuro. Quando o Facebook disse que o Ad Observer estava coletando dados de usuários que não a tinham autorizado a fazer isso, a empresa não estava se referindo a contas de usuários privados. Referia-se a contas de anunciantes, incluindo os nomes e fotos de perfil de páginas públicas que exibem anúncios políticos e o conteúdo desses anúncios.

Quando repassei essa informação para Edelson, ela soltou uma risada e um longo suspiro. Claro que ela estava coletando dados de anunciantes. Esses dados já são públicos no Facebook e é o ponto crucial do Ad Observer. “A premissa central disso é que o público merece alguma transparência sobre quem está tentando influenciar seu voto e a conversa política”, disse ela. “Esse é o objetivo do projeto.”

Mas, para o Facebook, os anunciantes também são usuários, e isso é importante. Extrair dados do anunciante, até mesmo dados que o Facebook torna públicos, e publicá-los sem o consentimento do anunciante é uma violação das regras do Facebook. E, afinal, essas são regras que só o Facebook pode escrever.

A premissa central disso é que o público merece alguma transparência sobre quem está tentando influenciar seu voto e a conversa política. Esse é o objetivo do projeto.

A repressão do Facebook ao Ad Observer, que ainda não foi resolvida, é apenas um dos exemplos mais extremos do relacionamento cada vez mais tenso entre as plataformas e as pessoas que as estudam. Nos últimos anos, em meio ao crescente escrutínio do Vale do Silício, as plataformas de tecnologia fizeram aberturas para a comunidade de pesquisa, abrindo conjuntos de dados anteriormente inacessíveis que os acadêmicos podem usar para estudar como as plataformas de tecnologia impactam a sociedade. O Twitter, por exemplo, lançou recentemente uma API gratuita para acadêmicos pré-aprovados para obter acesso ao seu catálogo completo de tweets. O Facebook, por sua vez, disponibilizou um grande acervo de dados do Facebook para os pesquisadores por meio de seu projeto Facebook Open Research and Transparency e está atualmente trabalhando com uma equipe de mais de uma dúzia de pesquisadores para estudar o impacto da plataforma nas eleições de 2020.

Mas, mesmo enquanto esse trabalho avança, as empresas de tecnologia estão simultaneamente reprimindo acadêmicos cujos métodos violam suas regras. À medida que tópicos como desinformação online, segmentação de anúncios e viés algorítmico surgiram como campos principais de estudo, os pesquisadores confiaram em APIs e ferramentas de análise social, contas fictícias e dados coletados para descobrir, por exemplo, se os anúncios imobiliários online discriminam os negros ou se notícias falsas geram mais engajamento do que notícias reais online. Freqüentemente, esses métodos violam os termos de serviço cuidadosamente elaborados das empresas, que proíbem a extração de dados, compartilhamento de dados e contas falsas, entre outras coisas. E assim, para proteger a privacidade de seus usuários – e suas próprias reputações – gigantes da tecnologia às vezes usaram esses termos de serviço como um porrete para encerrar até mesmo projetos de pesquisa bem-intencionados.

O Ad Observer é um desses projetos. Em outubro, poucas semanas antes da eleição presidencial, enquanto os anúncios políticos inundavam o Facebook, a empresa ordenou que Edelson e seu colaborador, o professor associado da NYU Damon McCoy, não apenas fechassem a extensão do navegador até 30 de novembro, mas excluíssem todos os dados que eles havia coletado ou enfrentaria “ação adicional de coação”. Meses depois, a equipe da NYU e o Facebook ainda não chegaram a um acordo.

Laura Edelson é Ph.D. 
candidato na NYU e co-criador do Ad Observer da NYU. Foto: Laura Edelson

“A questão não era o que a NYU estava tentando realizar. Era como eles estavam tentando realizar”, disse Steve Satterfield, diretor de privacidade e políticas públicas do Facebook. Satterfield observou que, quando as pessoas instalam a extensão do navegador Ad Observer, elas dão aos pesquisadores da NYU acesso a tudo o que podem ver em seus navegadores. A coleta de qualquer um desses dados viola diretamente os termos do Facebook. “Estamos abertos a parcerias”, disse Satterfield, “mas há certas áreas nas quais não faremos concessões, e esta foi uma delas.”

Alguns dos debates sobre a relação entre pesquisadores e Big Tech são filosóficos. Outros são legais. Na verdade, a Suprema Corte está atualmente avaliando um caso que os acadêmicos temem que possa tornar ilegais os métodos de pesquisa que violam os termos de serviço das empresas. Mas todos eles fazem parte da delicada dança entre pesquisadores e plataformas de mídia social, ocorrendo em um momento em que o mundo provavelmente mais precisa dessa pesquisa.

Um jogo de gato e rato

Esta não é a primeira vez que Edelson e McCoy se envolvem na luta do Facebook contra a extração de dados.

Pouco depois que o Facebook lançou seu repositório de anúncios políticos , agora chamado Ad Library, em 2018, os dois pesquisadores construíram uma ferramenta para raspar o arquivo para que pudessem analisar os dados com mais facilidade. No início, vasculhar a Biblioteca de anúncios exigia o uso de pesquisas por palavra-chave, tornando difícil para pesquisadores e jornalistas analisar o conjunto de dados se não soubessem o que estavam procurando.

“Parecia que tinha muitos dados interessantes e interessantes, mas parecia que foi implementado às pressas e não terrivelmente útil”, lembra McCoy.

McCoy queria uma visão panorâmica do cenário de propaganda política no Facebook, então ele chamou Edelson, que havia trabalhado na Palantir antes de iniciar seu doutorado. programa, para construir um raspador que lhes daria exatamente isso. O arranhador desbloqueou um tesouro de insights importantes sobre a propaganda política antes do semestre de 2018 – mais notavelmente, o ex-presidente Trump estava gastando mais em anúncios políticos do que qualquer outro anunciante. O New York Times escreveu uma história sobre essa descoberta em julho de 2018, completa com uma citação brilhante do então diretor de gerenciamento de produtos do Facebook, Rob Leathern, dizendo que o relatório da NYU era “exatamente como esperávamos que a ferramenta fosse usada”.

Logo depois que a história foi publicada, o Facebook quebrou a ferramenta de qualquer maneira.

A história do Times aconteceu apenas quatro meses depois que o escândalo Cambridge Analytica estourou – um desastre de privacidade para o Facebook que remonta a um único professor da Universidade de Cambridge, que construiu uma ferramenta para raspar dados de usuários involuntários do Facebook. O Facebook logo começou os esforços anti-scraping, fazendo mudanças técnicas que efetivamente interromperam a exploração de Edelson e McCoy. O Facebook disse que esses esforços anti-scraping, que estão em andamento desde 2018, não têm como alvo nenhuma ferramenta específica. Mas McCoy e Edelson foram afetados da mesma forma. “Isso se transforma em um jogo de gato e rato”, disse McCoy. “Nós contornamos isso, eles erguem novas barreiras.”

O CEO do Facebook, Mark Zuckerberg, testemunhou sobre o escândalo Cambridge Analytica perante o comitê de Energia e Comércio da Câmara em abril de 2018. Foto: Chip Somodevilla / Getty Images

A história do Times também aconteceu apenas dois meses depois que o Regulamento Geral de Proteção de Dados da Europa entrou em vigor, criando novos obstáculos para o compartilhamento de dados e novos requisitos de consentimento para a coleta de dados.

De repente, as empresas de tecnologia tiveram uma série de argumentos oficiais para ocultar dados de pesquisadores que, de qualquer forma, apresentavam descobertas nada lisonjeiras. “Foi um pouco uma decisão de relações públicas, mas também uma decisão política”, disse Nu Wexler, que trabalhou em comunicações políticas no Facebook durante o escândalo Cambridge Analytica e depois trabalhou no Google.

Essa escaramuça com o Facebook, pelo menos, durou pouco. Pouco depois de quebrar o scraper da NYU, o Facebook lançou uma API para seu arquivo de anúncios políticos e convidou a equipe da NYU para ser os primeiros testadores. Usando a API, Edelson e McCoy começaram a estudar a disseminação de desinformação e desinformação por meio de anúncios políticos e rapidamente perceberam que o conjunto de dados tinha uma lacuna gritante: não incluía nenhum dado sobre quem os anúncios almejavam, algo que consideravam a chave para o entendimento malintent dos anunciantes. Por exemplo, no ano passado, a campanha de Trump veiculou um anúncio prevendo uma presidência pós-Biden distópica, onde o mundo está em chamas e ninguém atende ligações para o 911 devido ao “esvaziamento do departamento de polícia”. Esse anúncio, Edelson descobriu, tinha sido direcionado especificamente para mulheres casadas nos subúrbios. “Eu penso isso’

Mas o Facebook não estava disposto a compartilhar dados de segmentação publicamente. De acordo com Satterfield, isso poderia facilitar demais a engenharia reversa dos interesses e outras informações pessoais de uma pessoa. Se, por exemplo, uma pessoa gosta ou comenta um determinado anúncio, não seria muito difícil verificar os dados de segmentação desse anúncio, se fosse público, e deduzir que essa pessoa atende a esses critérios de segmentação. “Se você combinar esses dois conjuntos de dados, poderá aprender coisas sobre as pessoas que se envolveram com o anúncio”, disse Satterfield.

Existem certas áreas em que não vamos fazer concessões, e esta foi uma delas.

Por esse motivo, o Facebook só mostra dados de segmentação de anúncios aos usuários quando eles veem um anúncio pessoalmente. Sabendo disso, Edelson e McCoy criaram o Ad Observer como uma solução alternativa. Os usuários podem instalar a extensão do navegador e enviar voluntariamente seus próprios dados de segmentação de anúncios enquanto navegam no Facebook. Sensíveis às preocupações com a privacidade, McCoy e Edelson desenvolveram a ferramenta para eliminar dados que possam conter informações de identificação pessoal e lançaram a ferramenta em maio de 2020. No final das contas, mais de 15.000 pessoas instalaram o Ad Observer.

A noção de que os usuários do Facebook podem inadvertidamente fornecer dados de outras pessoas a pesquisadores terceirizados – mais uma vez – disparou um alarme imediato dentro do Facebook. O Facebook já havia entrado com uma ação legal contra outras empresas apanhadas roubando dados . Sua abordagem em relação à equipe da NYU, eles argumentam, foi apenas uma extensão desse trabalho. “Foi essa ação, que encorajou as pessoas a instalar extensões que eliminam dados, que levou à ação que tomamos”, disse Satterfield do Facebook.

Um ricochete global

O aviso de cessar e desistir do Facebook foi direcionado à equipe da NYU, mas ricocheteou em torno da comunidade de pesquisa global. Mark Ledwich, um pesquisador australiano que estuda o YouTube, disse que o confronto já esfriou outros projetos de transparência semelhantes, como o dele.

Ledwich é o co-criador do transparent.tube , um site que explora os principais canais em inglês do YouTube e os categoriza com base em características como sua inclinação política ou se eles espalham conspirações. Ele também é cofundador de uma nova startup de perícia forense online chamada Pendulum. Inicialmente, o transparent.tube era alimentado pela API do YouTube, que impõe certos requisitos de armazenamento de dados e quantas chamadas de API um desenvolvedor pode fazer em um dia. Obedecer a esses termos tornaria o trabalho de Ledwich impossível, disse ele.

“Não há como realizar pesquisas como as nossas sem violar seus termos de serviço”, disse Ledwich. Para contornar esses termos, Ledwich começou a usar várias contas para coletar dados, mas quando confessou isso ao YouTube, foi totalmente bloqueado da API.

Em vez disso, Ledwich começou a coletar dados publicamente disponíveis do YouTube. Isso deu a ele novos insights sobre o que está acontecendo na plataforma, mas ele diz que o método assustou alguns parceiros de pesquisa em potencial. O Instituto de Dados, Democracia e Política da Universidade George Washington, por exemplo, recusou recentemente o pedido de financiamento de Ledwich e citou os problemas da NYU com o Facebook em seu raciocínio. “O motivo dado foi que eles estavam preocupados com o risco após a ameaça legal do Facebook contra o Observatório de Anúncios da NYU”, disse Ledwich.

Rebekah Tromble, diretora do Instituto, disse que acredita pessoalmente que os pesquisadores deveriam ter um porto seguro sob a lei para extrair dados se o fizerem de uma forma que respeite a privacidade dos usuários, como ela acha que os pesquisadores da NYU fazem. E ela está pressionando por regulamentações nos Estados Unidos e na Europa que criariam regras para esse compartilhamento de dados. “No entanto, quando se trata de fornecer suporte financeiro para a construção de ferramentas com base em sucata, nossas obrigações para com a universidade e nossos próprios financiadores significam que devemos proceder com cautela”, disse Tromble. “Estou muito feliz em defender a transparência.tube e outros projetos que coletam dados, mas nosso instituto não pode financiá-los no momento.”

Publicações Relacionadas

Não há como realizar pesquisas como as nossas e não violar seus termos de serviço.

Ao contrário do Facebook e do Twitter, o conteúdo do YouTube é principalmente baseado em vídeo, o que torna mais difícil para os pesquisadores analisarem em massa. Nenhum dos pesquisadores ou ex-funcionários do Google com quem o Protocolo falou para esta história estava ciente de quaisquer projetos de transparência que o YouTube criou para pesquisadores externos, e o YouTube também não poderia apontar para nenhum projeto de pesquisa específico. Mas a porta-voz Elena Hernandez disse: “O YouTube trabalha regularmente com pesquisadores de todo o mundo em uma variedade de tópicos críticos”.

A porta-voz do Google, Lara Levin, por sua vez, disse que, embora a equipe de pesquisa não tenha nenhum projeto de pesquisa para compartilhar, “a pesquisa é bastante diferente das redes sociais e produtos baseados em feed / recomendação, pois responde às consultas dos usuários e é uma plataforma aberta que os pesquisadores [e] a mídia podem (e fazem) estudar. “

Os limites da API significam que alguns dos projetos de transparência mais esclarecedores relacionados ao YouTube vêm de pesquisadores que coletam dados disponíveis publicamente. Foi assim que Guillaume Chaslot, fundador da algotransparency.org e ex-Googler, construiu sua ferramenta para monitorar as recomendações do YouTube.

Guillaume Chaslot discutiu o YouTube no documentário “The Social Dilemma”. Foto: Exposure Labs / Netflix

O YouTube proíbe scraping, exceto em mecanismos de pesquisa ou nos casos em que é concedida aprovação prévia por escrito. Mas até agora, diz Chaslot, o YouTube não tentou impedi-lo. “Se eles me cortarem, vai parecer muito ruim para eles. Parece que eles realmente não querem que as pessoas vejam o que estão fazendo”, disse ele. Na verdade, a empresa convidou Chaslot a seus escritórios para discutir como está abordando alguns dos problemas que ele sinalizou.

Isso não significa que o YouTube apoiou totalmente seu trabalho. Quando Chaslot contou sua história ao The Guardian pela primeira vez em 2018 e delineou descobertas que sugeriam, entre outras coisas, que as recomendações do YouTube levaram os espectadores a um conteúdo pró-Trump antes da eleição de 2016, o YouTube tentou minar a metodologia do Chaslot. “A amostra de 8.000 vídeos que eles avaliaram não dá uma imagem precisa de quais vídeos foram recomendados no YouTube há mais de um ano, na corrida para a eleição presidencial nos Estados Unidos”, disse um porta  voz ao The Guardian na época.

“Eles dizem que eu apenas coleto uma pequena parte dos dados, então não vejo o quadro completo”, disse Chaslot. O YouTube forneceu ao Protocolo uma explicação semelhante de por que a empresa acha que as conclusões da AlgoTransparency são imprecisas.

Tudo isso faz do YouTube uma das plataformas de mídia social menos estudadas. Uma análise recente de artigos submetidos à conferência anual da Associação Internacional de Comunicação no ano passado descobriu que apenas 28 artigos submetidos tinham Google ou YouTube no nome, em comparação com 41 para o Facebook. O Twitter venceu os dois, aparecendo em nome de 51 jornais. Em outra análise de pesquisa sobre discurso de ódio, racismo e mídia social, os pesquisadores descobriram que os dados do Twitter apareceram em mais da metade dos artigos que estudaram, enquanto os dados do YouTube apareceram em pouco menos de 9%.

Isso é uma prova da natureza inerentemente pública do Twitter e seus esforços conjuntos para trabalhar com pesquisadores. Mas mesmo essa pesquisa não foi baseada no quadro completo da atividade no Twitter. Até recentemente, apenas os desenvolvedores de negócios que pagaram pelo acesso à API podiam ver um histórico completo de tweets. A versão gratuita usada pela maioria dos pesquisadores ofereceu apenas um subconjunto. No início deste ano, o Twitter anunciou que estava mudando isso, criando uma API gratuita com acesso ao arquivo completo, mas apenas para pesquisadores pré-aprovados.

“O acesso aos dados do Twitter fornece aos pesquisadores uma visão útil sobre o que está acontecendo em todo o mundo, mas seus sucessos foram em grande parte apesar do Twitter, não por nossa causa”, disse o gerente de produto da equipe do Twitter, Adam Tornes, em uma recente ligação com repórteres. “Por muito tempo nós ignoramos suas circunstâncias únicas e necessidades e capacidades diferenciadas. Também falhamos em avaliar e abraçar totalmente o valor e o impacto do trabalho acadêmico usando dados do Twitter.”

Ainda assim, mesmo nesta atualização, há uma compensação para os pesquisadores. Agora, eles terão acesso a mais dados históricos na plataforma, mas o Twitter está reduzindo simultaneamente a quantidade de dados que os pesquisadores podem coletar, limitando-a a 10 milhões de tweets por mês. “Temos todos esses projetos em andamento baseados na coleta de muito mais dados do que poderemos coletar”, disse Josh Tucker, outro professor da NYU que co-dirige o laboratório de Mídia Social e Participação Política da escola. “Alguém no Twitter pode alterar a trajetória futura de nossa agenda de pesquisa, não tendo nada a ver conosco.”

O Twitter disse que planeja liberar níveis adicionais de acesso para pesquisadores que não incluem esse limite de dados e está aberto para desenvolver o produto com base nas necessidades dos pesquisadores.

Abrir um tesouro de dados históricos dessa forma também pode criar outros dilemas éticos espinhosos, disse Casey Fiesler, professor assistente da Universidade do Colorado em Boulder, que estuda ética em pesquisa tecnológica. Em uma pesquisa recente com usuários do Twitter, Fiesler descobriu que a maioria das pessoas que responderam não tinha ideia de que seus tweets estavam sendo estudados. “Muitas pessoas se opõem fundamentalmente à ideia de serem experimentadas sem o seu consentimento, independentemente do motivo”, disse Fiesler.

Alguém no Twitter pode alterar a trajetória futura de nossa agenda de pesquisa, não tendo nada a ver conosco.

Esse é um dos motivos pelos quais Fiesler entende por que o Facebook pode estar preocupado com o trabalho dos pesquisadores da NYU. Afinal, o escândalo Cambridge Analytica acabou custando ao Facebook US $ 5 bilhões em multas para a Federal Trade Commission, que concluiu que a empresa não conseguiu proteger os dados do usuário, violando um decreto de consentimento anterior. “Não invejo a posição do Facebook aqui. Veja a quantidade enorme de escândalos de privacidade com os quais eles lidaram”, disse ela.

Ao mesmo tempo, Fiesler também entende as motivações dos pesquisadores da NYU e acha importante que as empresas de tecnologia não sejam as únicas autorizadas a avaliar seus deveres de casa. “O fundamental é: isso é difícil”, disse Fiesler. “Essas são tensões de valor e, em alguns casos, é um cenário sem saída.”

‘Raspar não é crime’

Apesar de todas as preocupações dos pesquisadores, o Facebook fez gestos significativos em direção à transparência nos últimos anos. No ano passado, após quase dois anos de negociações torturantes com outro grupo de acadêmicos, o Facebook lançou um tesouro de 38 milhões de URLs que pesquisadores pré-aprovados podiam acessar. No final do ano, a empresa anunciou que estava trabalhando com 17 pesquisadores para estudar o impacto do Facebook sobre a polarização política, a participação dos eleitores, a confiança na democracia e a disseminação da desinformação durante as eleições de 2020.

Mais recentemente, em janeiro, o Facebook anunciou que estava lançando dados de segmentação em 1,3 milhão de anúncios políticos que foram veiculados antes das eleições de 2020. O problema: é compartilhar esses dados em um ambiente fechado onde os pesquisadores não conseguem exportar os dados brutos. “O que estamos tentando fazer é mitigar os riscos do uso indevido das informações”, disse Satterfield.

No decorrer das negociações, o Facebook ofereceu à equipe da NYU acesso a esses dados de segmentação, mas Edelson disse que as restrições de privacidade tornariam impossível o tipo de pesquisa que ela e McCoy fazem. “Agregamos dados e os juntamos a outros conjuntos de dados. Treinamos modelos. Nada disso seria possível neste sistema”, disse ela.

Dito isso, Edelson aplaude os esforços do Facebook para disponibilizar mais dados, tanto para acadêmicos quanto para o público por meio de ferramentas como a Ad Library e CrowdTangle, uma ferramenta de análise de mídia social de propriedade do Facebook que principalmente coloca o Facebook em apuros por mostrar o quão popular a extrema direita a propaganda está nos EUA. Foram os dados do CrowdTangle que levaram Edelson e vários colegas a descobrirem que a desinformação de extrema direita recebeu mais engajamento do que outros tipos de notícias políticas no Facebook antes e imediatamente após as eleições de 2020.

“Crédito onde o crédito é devido. O Facebook disponibilizou muito mais dados do que qualquer outra empresa”, disse Edelson. E ela acredita que há boas razões pelas quais certos projetos de pesquisa precisam acontecer em ambientes fechados. “Há um lugar para parcerias de pesquisa-plataforma que cobrem dados privados que precisam ser bem mantidos. Acho ótimo que essas parcerias estejam acontecendo”, disse ela.

Tucker, o professor de política da NYU que estava preocupado com os projetos de pesquisa de seu laboratório no Twitter, também é um dos principais pesquisadores do estudo eleitoral de 2020 do Facebook. Antes de ingressar, Tucker escreveu extensivamente sobre as desvantagens que os pesquisadores enfrentam tanto quando optam por colaborar com uma plataforma quanto quando trabalham sozinhos. Ele diz que entrou na parceria com o Facebook “de olhos bem abertos”.

Conduzir pesquisas sem a bênção de uma plataforma, explica Tucker, “tem a vantagem da independência total, mas sujeita você a todos os tipos de limitações de acesso aos dados e também o sujeita à natureza arbitrária da plataforma”.

Mas trabalhar de mãos dadas com uma empresa como o Facebook, como está fazendo agora, também tem seus defeitos. “Um: você precisa fazer com que as empresas concordem em fazer isso com você”, disse ele. “Então, há a questão de como você mantém a integridade da pesquisa quando está trabalhando com pessoas que são funcionários pagos da empresa?”

Ao negociar os termos do projeto, Tucker e sua co-líder, Talia Stroud, da Universidade do Texas em Austin, exigiram que os pesquisadores externos tivessem controle total sobre quaisquer papéis resultantes do projeto e eles pré-registraram seus planos, efetivamente dizendo ao público exatamente o que eles inevitavelmente compartilhariam antes de coletarem quaisquer dados. O Facebook veio para a mesa com seus próprios termos: apenas os funcionários do Facebook teriam acesso aos dados brutos, e o Facebook poderia revisar os papéis para garantir que eles não estão violando as restrições legais. O Facebook cobriria o custo da coleta de dados e o tempo dos funcionários do Facebook, mas nenhum dos pesquisadores aceitaria dinheiro do Facebook.

Como você mantém a integridade da pesquisa quando está trabalhando com pessoas que são funcionários remunerados da empresa?

Até agora, Tucker disse que o trabalho “não transcorreu sem seus soluços”. Especificamente, a equipe de Tucker deseja compartilhar o máximo possível dos dados subjacentes que coletam, e o Facebook também não. Tucker disse que essas negociações ainda estão em andamento.

Apesar desses pontos de discórdia, ele ainda acredita que projetos colaborativos como esse são essenciais e espera que este sirva de modelo para outras empresas. “Esta é provavelmente a eleição mais importante da era pós-guerra, no coração da era da mídia social, com esses movimentos enormes dessas plataformas no meio do processo”, disse Tucker. “Temos um estudo que está medindo seu impacto.” Se nada mais, ele argumenta, essa é uma contribuição importante.

Mas ele e Edelson concordam que isso não elimina a necessidade de pesquisas que acontecem fora dos termos do Facebook. Os esforços de transparência autoimpostos das empresas de tecnologia continuam a levantar questões sobre os limites do que estão realmente compartilhando e sua incapacidade de imaginar maneiras novas e seguras de compartilhá-lo. A verdade é que os gigantes da tecnologia têm pouca motivação para segurar as mãos dos pesquisadores enquanto eles mapeiam os erros das empresas. “Não há muitos pesquisadores por aí que vão escrever artigos superpositivos sobre mídia social e dados agora”, disse Wexler.

As empresas de tecnologia podem não ter muito controle sobre quais fronteiras os pesquisadores podem ou não cruzar por muito tempo. Essas perguntas estão cada vez mais sendo respondidas por tribunais e órgãos governamentais. Na primavera passada, em um caso chamado Sandvig v. Barr , um tribunal federal decidiu que os pesquisadores que usam perfis de trabalho falsos para estudar discriminação algorítmica em violação dos termos de serviço das empresas não estariam violando a Lei de Fraude e Abuso de Computador, que proíbe vagamente acesso não autorizado a sistemas informáticos. Neste verão, a Suprema Corte deve decidir em outro caso, Van Buren v. Estados Unidos, que trata de questões semelhantes sobre o que constitui acesso não autorizado. Os pesquisadores temem que a decisão do tribunal nesse caso possa ampliar dramaticamente o escopo da CFAA e ter implicações abrangentes para pessoas como Edelson.

No dia em que o tribunal ouviu os argumentos orais em Van Buren no outono passado, Edelson estava acompanhando virtualmente, usando uma camiseta que dizia: “Raspar não é um crime.”

Enquanto isso, na Europa, os reguladores estão tentando encontrar um meio-termo sob o GDPR que permitiria o compartilhamento de alguns dados com pesquisadores. O artigo 31 da Lei de Serviços Digitais , que foi introduzido em dezembro passado pela Comissão Europeia, permitiria a pesquisadores pré-avaliados afiliados a instituições acadêmicas obter acesso a dados de “plataformas online muito grandes”, desde que o acesso não crie segurança significativa vulnerabilidades ou violar segredos comerciais.

“Reconhecemos que alguns desses dados nos quais os pesquisadores ou órgãos de supervisão estão interessados ​​podem ter efeitos de privacidade muito significativos. Eles podem dar a opinião política ou preferência sexual das pessoas”, disse Mathias Vermeulen, diretor de políticas públicas da agência de direitos de dados do Reino Unido AWO, que tem defendido mais compartilhamento de dados com pesquisadores. “Em grande medida, acho que essas preocupações podem ser resolvidas sentando-se juntos e esclarecendo algumas das respectivas obrigações.”

Por enquanto, as negociações do Facebook e da NYU estão em um impasse. O Facebook não quis comentar se planeja prosseguir com uma ação judicial ou outra ação coercitiva contra Edelson e McCoy. Se isso acontecer, toda a comunidade de pesquisa estará observando o que acontece a seguir. “Se o Facebook ganhar o caso, acho que isso impedirá que muitos fundos institucionais sejam canalizados para pesquisas não autorizadas de mídia social, até mesmo o YouTube”, disse Ledwich.

Aconteça o que acontecer, Edelson diz que seu trabalho continuará. Na verdade, está se expandindo. Ela e McCoy mudaram recentemente o nome de seu grupo de pesquisa de Projeto de Transparência Política Online para Segurança Cibernética para a Democracia na esperança de ampliar seu escopo. Sob esse banner, eles não apenas mantiveram o Ad Observer funcionando, mas no último mês começaram a usá-lo para coletar dados do YouTube também. “É meu trabalho como pesquisador de segurança testar para ver se os sistemas na Internet são seguros. Sabemos que há problemas nas redes de entrega de anúncios. Eles são vetores de ataques de engenharia social, e isso significa que é meu trabalho estudá-los ,” ela disse. “Eu não vou parar de fazer isso.”

Fonte: protocol

você pode gostar também