Por Juliana Gragnani.
BBC Brasil para Portal Baixada de Fato.
Se a interferência de contas falsas em discussões políticas nas redes sociais já representava um perigo para os sistemas democráticos, sua sofisticação e maior semelhança com pessoas reais têm agravado o problema pelo mundo.
No Brasil, uma investigação de três meses da BBC Brasil, que deu origem à série de reportagens Democracia Ciborgue, identificou parte do mercado de compra e venda de contas falsas que teriam sido usadas para favorecer políticos no Twitter e no Facebook. É impossível estimar seu alcance, mas sua existência nas eleições brasileiras de 2014 já alerta para um potencial risco na disputa no ano que vem.
Nos Estados Unidos, conteúdo produzido por russos e difundido por meio de pessoas que não eram verdadeiras alcançou quase 126 milhões de americanos no Facebook durante as eleições do ano passado, de acordo com a plataforma, que teve que submeter dados ao Senado americano.
O perigo cresceu porque a tecnologia e os métodos evoluíram dos robôs, os “bots” – softwares com tarefas online automatizadas -, para os “ciborgues” ou “trolls”, contas controladas diretamente por humanos com a ajuda de um pouco de automação.
Imaginemos uma linha em que em uma ponta estejam robôs e, em outra, humanos. Entre as duas pontas, especialistas apontam a existência de ciborgues, “robôs políticos”, “fakes clássicos” e “ativistas em série” antes de chegarmos às pessoas reais.
Parte 1, os robôs
“Um robô, ou bot, nada mais é que uma metáfora para um algoritmo que está te ajudando, fazendo um trabalho para você”, define Yasodara Córdova, pesquisadora da Digital Kennedy School, da Universidade Harvard, nos EUA, e mentora do projeto Operação Serenata de Amor, que busca identificar indícios de práticas de gestão fraudulenta envolvendo recursos públicos no Brasil.
Ou seja, robôs estão por todas as partes, espalhados nas redes sociais, o que não significa necessariamente que estejam fazendo coisas ruins: os mais comuns são aqueles que automatizam o compartilhamento de notícias de veículos de imprensa e os que ajudam consumidores em atendimentos virtuais, entre outros.
O projeto Operação Serenata de Amor, por exemplo, tem um robô que analisa pedidos de reembolso de deputados federais e destaca os que parecem ser suspeitos, por meio de “machine learning” (“aprendizado de máquina”, que reconhece padrões e aprende com seus erros para evoluir e refinar sua atuação). Via Twitter, pede aos parlamentares que esclareçam o gasto suspeito – há casos de congressistas que reembolsaram a Câmara por causa do projeto.
Mas também há robôs cujo uso é malicioso, e que estão espalhados sobretudo pelo Twitter.
“O Twitter é um ambiente mais amigável para robôs”, explica Marcos Bastos, professor do departamento de Sociologia da City, University of London, no Reino Unido.
Bastos, que é brasileiro, e o britânico Dan Mercea, da mesma universidade, descobriram que as discussões sobre o plebiscito do Brexit (que decidiu pela saída do Reino Unido da União Europeia) no Twitter tiveram participação de ao menos 13,5 mil robôs, usados para “bombar” um lado ou outro com postagens automatizadas.
“O Facebook é de fato uma rede social: você aceita pessoas com quem você tem algum tipo de conexão: idealmente, só amigos, embora esse não seja sempre o caso. O Twitter não tem essa reciprocidade, então funciona não só como uma rede social, mas como um sistema de difusão de informações”, afirma.
Ou seja, a natureza mais aberta do Twitter – que, diferentemente do Facebook, não exige o nome verdadeiro do usuário nem proíbe contas automatizadas – facilita a proliferação de robôs em sua esfera.
Pesquisadores das universidades do Sul da Califórnia e de Indiana estimam que haja entre 9% a 15% de robôs no Twitter. A rede tem um total de cerca de 330 milhões de usuários – portanto, ao menos 29 milhões deles são robôs, segundo o levantamento.
O Twitter informa que “a falsa identidade é uma violação” de suas regras. “As contas do Twitter que representem outra pessoa de maneira confusa ou enganosa poderão ser permanentemente suspensas de acordo com a Política para Falsa Identidade do Twitter. Se a atividade automatizada de uma conta violar as regras do Twitter ou as regras de automação, o Twitter pode tomar medidas em relação à conta, incluindo a suspensão da conta.”
Mas essas criaturas virtuais são mais facilmente identificáveis. Pesquisadores desenvolvem ferramentas para detectar robôs, monitorando sua atividade e identificando padrões. Levam em conta a quantidade de vezes que replicam um conteúdo, a proporção entre seguidores e usuários que o perfil segue, a data de criação da conta, as postagens via plataformas externas ao Twitter e a quantidade de menções a outros usuários, entre outros critérios.
Parte 2, os ciborgues
Pouco disso pode ser feito para detectar os exércitos de ciborgues, que estão em uma zona cinzenta e são os próximos na escala depois dos robôs. São chamados também de “trolls” ou “socketpuppets” (fantoches).
“É muito difícil detectar esses ‘bots’ híbridos, operados parte por humanos, parte por computadores”, afirma Emiliano de Cristofaro, professor da London’s Global University, no Reino Unido, que estuda segurança online. Isso porque perfis operados por algoritmos têm “comportamentos previsíveis” e padrões, enquanto uma pessoa real pode interromper isso, “agindo de forma diferente em horários diferentes”.
Ciborgues dão origem a perfis mais sofisticados, que tentam de fato imitar perfis de pessoas verdadeiras, publicando fotos e frases e interagindo com outros usuários, criando “reputação”.
Os perfis falsos encontrados pela investigação da BBC Brasil são ciborgues. Roubaram fotos de pessoas verdadeiras, criaram nomes falsos e adicionaram como amigos pessoas reais – o que fez até com que recebessem “parabéns” em seus “aniversários”. Depois, entre publicações de uma rotina inventada, publicaram conteúdo elogiando políticos brasileiros e ajudaram a aumentar suas “curtidas”.
Para manter o perfil ativo e parecer real, parte das postagens era agendada em plataformas fora do Twitter. À primeira vista, não parecem ser perfis falsos.
“É preciso olhar para o conteúdo que postam, não só para sua atividade. E isso custa caro”, observa Cristofaro. Por sua natureza mais sofisticada, estão espalhados não só no Twitter, como no Facebook também.
O Facebook informou que suas políticas “não permitem perfis falsos”. “Estamos o tempo todo aperfeiçoando nossos sistemas para detectar e remover essas contas e todo o conteúdo relacionado a elas.”
A empresa também indicou que pode fazer uma “varredura” de perfis falsos no Brasil semelhante à que fez na França e na Alemanha antes das eleições. “Estamos eliminando contas falsas em todo o mundo e cooperando com autoridades eleitorais sobre temas relacionados à segurança online, e esperamos tomar medidas também no Brasil antes das eleições de 2018.”
Para o Cristofaro, caso o Facebook começasse a varrer contas falsas levando em conta apenas sua atividade, acabaria encontrando “falsos positivos”, “e isso seria muito ruim para eles”, diz.
Em um relatório de abril de 2017, o Facebook admitiu que havia difusão de informações na plataforma via “personas falsas online”, criadas para “influenciar opiniões políticas”.
Na ocasião, a empresa disse que estava tomando medidas para excluir esse tipo de conta falsa, sem especificar quantas já identificou e excluiu. Segundo relatório da empresa, em setembro deste ano o Facebook tinha 2,07 bilhões de usuários ativos no mundo todo – não se sabe quantas dessas contas são falsas.
Alguns passos podem ser tomados para identificar ciborgues. Qualquer um pode fazer uma pesquisa por meio da foto utilizada pelo perfil em questão. Em ferramentas de buscas como o Google, é possível pesquisar pela imagem com o objetivo de rastrear sua origem e outros sites em que aparece. Esses perfis utilizam fotos que saíram em notícias não muito difundidas, de pessoas mortas, de bancos de imagens.
Mas pesquisadores começam agora a observar outros padrões de comportamento: quando as mensagens não são programadas, sua publicação se concentra só em horários de trabalho, já que é controlada por pessoas cuja profissão é exatamente essa, administrar um perfil falso durante o dia. Interações de madrugada, portanto, quando pessoas reais muitas vezes participam de discussões online, estão de fora (a não ser que empresas comecem a pagar por plantões de madrugada).
Outra pista: a pobreza vocabular das mensagens publicadas por esses perfis. Um dos entrevistados pela BBC Brasil, funcionário de uma empresa que supostamente produzia e vendia perfis falsos, explica que às vezes “faltava criatividade” para criar mensagens distintas controlando tantos perfis falsos ao mesmo tempo – cada funcionário controlava entre 20 a 50 perfis com histórias de vida particulares.
Para identificar os mais de 100 perfis falsos no Twitter e no Facebook que seriam ligados a uma empresa, com a ajuda de especialistas, a BBC Brasil levou em consideração elementos como: o uso de fotos comprovadamente falsas, modificadas ou roubadas; a publicação de mensagens a partir da mesma ferramenta externa às redes sociais; o padrão de mensagens que simulam rotina, com repetição de palavras; a participação ativa nas redes durante debates e “tuitaços”; atividade apenas durante o horário “útil” do dia; as recorrentes mensagens de apoio ou de agressão a candidatos específicos e, por fim, vários casos de datas coincidentes de criação, ativação e desativação dos perfis.
Mas esse padrão de comportamento se refere a um grupo específico de perfis falsos e ciborgues, produzidos, supostamente, por uma empresa específica. O problema é que cada empresa tem uma atuação diferente, o que significa que diferentes grupos de perfis falsos têm também comportamentos distintos.
O fenômeno, portanto, ainda está sendo investigado por especialistas à procura de formas para aprimorar a identificação dos ciborgues.
Parte 3, os robôs políticos
Os “robôs políticos” são outra categoria dos robôs online.
São perfis de militantes que autorizam que suas contas sejam conectadas a páginas de candidatos ou de campanhas. Por meio de um sistema simples de automatização, “suas contas passam a automaticamente curtir postagens”, diz Dan Arnaudo, pesquisador da Universidade de Washington, nos EUA, e do Instituto Igarapé, no Rio, especialista em propaganda computacional, governança da internet e direitos digitais.
Yasodara Córdova diz que essa é uma “espécie de ciborguização para aumentar a quantidade de visualizações ou compartilhamento de uma publicação, em que um político usa um exército de pessoas que se habilitam a postar por ele”.
Ou seja, são perfis de pessoas verdadeiras, que abrem mão de sua “autonomia” para dar curtidas de forma automática selecionadas pela campanha de um candidato.
Parte 4, o fake clássico
Um “fake clássico” é aquele que já conhecemos: um perfil falso inventado por uma só pessoa, sem relação com empresas que vendem esse serviço para políticos e sem relação com campanhas que pedem acesso às contas de militantes.
É aquele perfil usado por uma pessoa para esconder-se atrás de um “fake” pelos mais diversos motivos: simplesmente para não expor a identidade do verdadeiro autor, para publicar comentários negativos ou positivos sobre uma pessoa ou para “bombar” um político voluntariamente.
Se isso for feito de forma transparente, ou seja, se o perfil for satírico ou deixar claro que é um pseudônimo, a atividade é legal. Quando é usado para enganar outros usuários, no entanto, sem deixar claro que o perfil é falso ou assumindo a identidade de outra pessoa (roubando sua foto ou nome), é ilegal.
Parte 5, os ativistas em série
Mas nem sempre um número alto de compartilhamentos ou postagens significa que seu autor é um computador.
Há dois anos, Bastos e Mercea identificaram o que chamaram de “ativistas em série” – pessoas reais altamente prolíficas politicamente no Twitter e com postagens sobre eventos políticos em diferentes partes do mundo – até 17 delas. Exemplo: um ativista em série pode tuitar em grandes quantidades tanto sobre os protestos de junho de 2013 no Brasil quanto sobre o movimento Occupy nos Estados Unidos.
Os pesquisadores entrevistaram 21 ativistas em série. O resultado: os entrevistados eram em sua maior parte pessoas com 30 anos ou entre os 50 e 60, em períodos de desemprego, trabalho voluntário ou durante a aposentadoria. Ficavam entre cinco e 12 horas no Twitter dedicando seu tempo a diferentes causas, chegando a tuitar 1,2 mil vezes por dia, indício que levaria pesquisadores a associarem esses perfis à automatização, embora fossem pessoas de verdade.