Descubra A Compatibilidade Por Signo Do Zodíaco
Vandalismo na Wikipedia pode impedir fraudes no Google, YouTube e Facebook
Verificando Os Fatos

Por um breve momento, o Partido Republicano da Califórnia apoiou o nazismo. Pelo menos, foi o que o Google disse.
Isso porque alguém vandalizou a página da Wikipédia do partido em 31 de maio para listar “nazismo” ao lado de ideologias como “conservadorismo”, “liberalismo de mercado” e “conservadorismo fiscal”. O erro foi removido dos resultados de pesquisa, com o Google esclarecendo a Vice News que o mecanismo de busca não conseguiu detectar o vandalismo na entrada da Wikipedia.
Se você pesquisar 'Republicanos da Califórnia' no Google, o Google listará 'Nazismo' como uma das ideologias. pic.twitter.com/JblamxkyF7
— Eric Wilson (@ericwilson) 31 de maio de 2018
Google tem longamente desenhado a enciclopédia online para anexar informações básicas aos resultados da pesquisa. De acordo com o log de edição para a página GOP da Califórnia, alguém adicionou “Nazismo” para a seção de ideologia do partido por volta das 7:40 UTC de 31 de maio. A edição foi removida em um minuto, mas parece que o algoritmo do Google raspou a página bem a tempo da falsificação.
“Às vezes, as pessoas vandalizam fontes públicas de informação, como a Wikipedia, o que pode afetar as informações que aparecem na pesquisa”, disse um porta-voz do Google ao Poynter por e-mail. “Temos sistemas implementados que detectam o vandalismo antes que ele afete os resultados da pesquisa, mas ocasionalmente os erros passam, e foi o que aconteceu aqui.”
A Wikimedia Foundation, uma organização sem fins lucrativos que opera a Wikipédia, também divulgou um comunicado no Twitter.
Um resultado do painel de conhecimento do Google revelou vandalismo de um @Wikipedia artigo hoje. Aqui está mais sobre o que aconteceu e como o vandalismo é abordado na Wikipedia. pic.twitter.com/fcoaK2DsXq
— Wikimedia (@Wikimedia) 1º de junho de 2018
De acordo com o Google, mais de 99,9% das edições da Wikipedia que aparecem nos Painéis de Conhecimento, que exibem informações básicas sobre palavras-chave pesquisáveis no topo dos resultados, não são vandalismo. O usuário que criou a edição original da página do GOP da Califórnia não usou um perfil de usuário , tornando-os difíceis de rastrear.
Isso é uma tática comum entre as pessoas que vandalizam as páginas da Wikipédia, uma prática que a organização sem fins lucrativos documentado extensivamente . Mas dado o volume de edições que são feitas na Wikipedia – cerca de 10 por segundo , com 600 novas páginas por dia – e o fato de que o Facebook e o YouTube agora estão tirando delas para fornecer mais contexto às postagens, o potencial e o efeito do abuso são altos.
“É claro que é uma maneira muito fraca de combater notícias falsas porque a Wikipedia não é uma fonte confiável de informações – como até a Wikipedia reconhece”, disse Magno Faraó Hansen , pesquisador de pós-doutorado na Universidade de Copenhague, em mensagem ao Poynter. “A Wikipédia é muito vulnerável a fraudes e contém todo tipo de desinformação, por isso não é uma maneira muito séria de combater o problema das notícias fabricadas.”
Hansen edita páginas da Wikipedia há cerca de 10 anos e disse que o vandalismo é comum na plataforma. O número de editores diminuiu nos últimos anos, enquanto os partidários online cada vez mais direcionado à plataforma - um problema que veio à tona durante a controvérsia do Gamergate em 2014. É essencialmente um jogo de números.
Isso está muito longe de onde a Wikipedia estava em 2005 , quando um estudo descobriu que era tão preciso quanto a Britannica. E torna mais difícil para os editores voluntários combater o vandalismo em escala na Wikipedia, o que não é um bom presságio para usá-lo para combater a desinformação em outras plataformas.
“Certamente há muitas informações erradas na Wikipédia, e muitas delas vão ficar”, disse Hansen. “Muitas vezes alguém escreve um artigo e pode levar anos até que alguém apareça e o edite. As pessoas não fazem verificações de fatos, a menos que algo pareça estar realmente fora do lugar.”
Um artigo fabricado na Wikipédia viveu no site por uma década antes de ser excluído em 2015.
Ao mesmo tempo, a plataforma provou ser resistente ao tipo de fraude que regularmente se torna viral em o Facebook e Twitter . Estimativas da Wikimedia que cerca de 2,5% das edições diárias são vandalismo, e Samantha Lien, gerente de comunicação da Wikimedia, apontou um algoritmo que sinaliza automaticamente edições questionáveis como um sucesso chave para seus esforços de integridade.
“Os artigos tendem a fornecer uma representação equilibrada dos fatos, e o site provou ser resistente a notícias falsas e desinformação até este ponto”, disse ela ao Poynter por e-mail. “Também trabalhamos com editores voluntários nos últimos dois anos para construir e melhorar as ferramentas de moderação para identificar e abordar rapidamente o vandalismo na Wikipédia.”
Além das próprias limitações da Wikipedia, os próprios sistemas das plataformas de tecnologia são frequentemente objeto de erros e controvérsias – especialmente Painéis de Conhecimento.
Também em 31 de maio, uma busca por um senador republicano que apoia Donald Trump na Carolina do Norte apareceu uma imagem dela com “intolerante” escrito na parte inferior. Em janeiro, o The Daily Caller descobriu que o Google estava anexando erroneamente verificações de fatos ao seu conteúdo e não ao de outros veículos. Isso levou a empresa de tecnologia a suspender o recurso até resolver os bugs.
O Google disse ao Poynter que não altera manualmente os resultados da pesquisa para mostrar a preferência de uma parte sobre a outra. Mas seus algoritmos são regularmente manipulados por embustes , anúncios falsos e trolls que procuram alterar os resultados da pesquisa. E esses problemas podem se estender a outras plataformas com links para a Wikipedia.
“Quando mais plataformas de mídia usam conteúdo da Wikipedia de forma acrítica, isso aumenta as apostas – tanto para aqueles que enganariam ou enganariam quanto para aqueles que espalhariam conhecimento”, disse Hansen. “Acho que, particularmente com links para a Wikipedia a partir de vídeos do YouTube sobre teorias da conspiração, isso pode ter o efeito de atrair a multidão errada.”
Em março, YouTube anunciado que ele vincularia diretamente as páginas da Wikipedia nas descrições dos vídeos para fornecer mais contexto e desmascarar as teorias da conspiração viral, que muitas vezes viralizam depois de notícias de última hora. Essas “pistas de informação” – que foram introduzidas na plataforma sem o conhecimento da Wikipedia — incluirá uma pequena linha sobre a fonte e um link para sua página da Wikipedia.
Esse recurso ainda não foi lançado, mas o YouTube introduziu um semelhante em fevereiro, que fornece mais contexto para organizações de notícias que recebem dinheiro do governo dos EUA.

(Captura de tela do YouTube)
Dada a maior visibilidade das páginas da Wikipédia, é concebível que vândalos possam migrar para a plataforma para vasculhar várias plataformas com uma edição.
“O 'hacking' da Wikipédia sempre foi um problema, mas era um problema que só realmente impactava os leitores da Wikipédia. Agora é ainda mais perigoso, pois as plataformas estão cada vez mais retirando automaticamente da Wikipedia”, disse Claire Wardle, diretora executiva do First Draft, em um e-mail para o Poynter. “Para os agentes de desinformação que desejam amplificação máxima, qualquer técnica que garanta que plataformas ou redações se repitam e, portanto, legitime uma falsidade, fornece um 'retorno sobre o investimento' desproporcional”.
Apesar de servir como fonte para mais plataformas, a Wikipedia não viu um aumento no vandalismo, disse Lien. Mas vendo como as adições pegaram a organização desprevenida, é incerto como exatamente elas afetarão a integridade das páginas da Wikipedia.
“A tendência das empresas de tecnologia usarem a Wikipédia para resolver questões de desinformação em suas próprias plataformas é um território novo para nós, e não sabemos quais serão as implicações totais”, disse ela. “No curto prazo, estamos monitorando de perto como isso afeta a Wikipedia e nossa comunidade global de voluntários. Não vimos nada que indique uma questão de vandalismo em escala mais ampla até o momento”.
Mas mesmo que houvesse um aumento do vandalismo na Wikipedia com a intenção de alterar os resultados nas plataformas, Lien disse que a organização não teria como saber.
“Não temos dados disponíveis que indiquem tendências de vandalismo com a intenção explícita de manipular outras plataformas”, disse ela.
Então, qual é a probabilidade de que mais informações erradas cheguem a outras plataformas? Joseph Reagle, professor associado de comunicação da Northeastern University e especialista da Wikipedia, disse ao Poynter que, embora não haja como saber sem os sistemas de monitoramento corretos, a estrutura que foi configurada pode tornar a desinformação mais visível - mesmo quando não é criada para enganar plataformas como Google e Facebook.
“Sim, isso é provável, e acho que se tornará ainda mais provável à medida que essas empresas com fins lucrativos continuarem entrando na onda”, disse ele. “No caso do Google, não acho que era a intenção da edição poluir os usuários downstream da Wikipedia, mas esse ainda era o efeito. O fato de a Wikipedia ser usada por esses tipos de agregadores downstream também tornará a Wikipedia mais um alvo, o que é um ponto de preocupação.”
Ainda assim, embora esteja diminuindo, a Wikipedia ainda tem uma comunidade comprometida de editores que anos de experiência lidar com artigos sobre notícias de última hora. Nathan Matias, pesquisador associado de pós-doutorado na Universidade de Princeton, disse ao Poynter em um e-mail que a desinformação provavelmente não passará despercebida com frequência por causa dessa comunidade.
Mas nas margens do site, essa chance aumenta substancialmente.
“Em casos de notícias de última hora, onde ativistas de todos os tipos desenvolveram maneiras de influenciar os algoritmos da plataforma mais rapidamente do que a velocidade do jornalismo, espero que a Wikipedia seja mais resiliente à influência”, disse ele. “Os riscos para a Wikipédia e para as plataformas serão maiores à margem do conhecimento e da atenção, já que é mais difícil identificar um pequeno fluxo de pessoas acessando material extremista de baixo perfil.”
Apesar dos desafios, alguns especialistas veem as plataformas de tecnologia com links para páginas da Wikipedia como um passo à frente para combater a desinformação online.
Eni Mustafaraj, professor assistente de ciência da computação no Wellesley College, disse ao Poynter em um e-mail que a adição da Wikipédia às grandes plataformas de tecnologia é um movimento positivo. Mas vem com ressalvas.
“Eles precisam fazer isso de forma consistente, e não apenas para combater desinformação, fraudes ou teorias da conspiração”, disse ela. “Para combater a desinformação, não devemos colocar o Facebook e o Google no comando, porque foram eles que agravaram o problema em primeiro lugar.”
Ao mesmo tempo, retirar informações da Wikipédia da plataforma pode confundir os leitores. Hansen disse que ver links para o site em plataformas de mídia social, mesmo que sejam bem rotulados, não provocará o mesmo tipo de ceticismo que é intrínseco aos usuários da Wikipédia.
“O leitor não sabe que isso é da Wikipedia. Isso meio que introduz uma camada em que você não pode ter certeza sobre a fonte da informação”, disse ele. “As pessoas são céticas quando estão na Wikipedia – você pode ver quando não há fonte… quando você está em uma plataforma diferente, você não está alerta para esse tipo de coisa.”
Depois, há a questão da largura de banda. À medida que a editoria continua a diminuir, a Wikipedia pode considerar a contratação de funcionários em tempo integral cujo trabalho é monitorar o vandalismo e garantir que ele não se espalhe para outras plataformas. Hansen disse que acha que a organização sem fins lucrativos deveria criar uma unidade interna de verificação de fatos ou solicitar editores e acadêmicos especializados para avaliar algumas das páginas mais sutis.
“Acho que essa é a única maneira de combater a desinformação na Wikipedia”, disse ele.
No mínimo, Lien sugeriu que as plataformas de tecnologia que usam a Wikipedia para combater a desinformação devolvam à organização sem fins lucrativos de alguma forma – um ponto que a diretora executiva da Wikimedia, Katherine Maher, argumentou em um artigo recente para Wired . (Facebook e YouTube não estão incluídos entre os principais benfeitores da Wikimedia.)
“Encorajamos as empresas que usam o conteúdo da Wikipedia a retribuir com o mesmo espírito de sustentabilidade”, disse ela. “Ao fazer isso, eles se juntariam aos milhões de indivíduos que contribuem para manter a Wikipedia forte e próspera.”
E Matias concordou.
“Se as empresas esperam contar com grandes quantidades de trabalho não remunerado e muitas vezes psicologicamente pesado dos wikipedistas e da Wikimedia Foundation para resolver alguns de seus problemas mais difíceis, eles precisam encontrar maneiras de apoiar esse trabalho enquanto protegem a independência intelectual da Wikipédia”, disse ele.