segunda-feira, 19 de junho de 2017

É hora de despoluir as redes sociais

Se Zuckerberg não se mexer logo, o ódio vai matar o Facebook

por John Naughton


Jonathan Nackstrand/AFP


Com pressa de crescer, a rede custa a corrigir problemas


"Mexa-se depressa e quebre as coisas”, era a exortação que o fundador do Facebook, Mark Zuckerberg, fazia inicialmente a seus desenvolvedores. É o mantra típico de um hacker: mesmo que as ferramentas e funções que eles desenvolveram para essa plataforma não fossem perfeitas, a velocidade era a principal aspiração, mesmo que houvesse alguns tropeços no caminho.

Em 2016, começamos a perceber que uma das coisas que podem ser quebradas na busca por velocidade de Zuckerberg é a democracia. O Facebook tornou-se uma das plataformas preferidas para disseminar “notícias falsas” e foi o instrumento ideal para “microdirecionar” eleitores com mensagens políticas personalizadas.

Também veio a ser um meio de transmissão ao vivo para os que praticam atos de assédio, estupro, lesões corporais e, em um caso, assassinato.

Uma maneira de pensar a internet é que ela oferece um espelho à natureza humana. Toda a vida humana está lá, e muito do que vemos refletido nela é banal (gatos engraçados, por exemplo), inofensivo, encantador, esclarecedor e intensificador da vida. Mas parte do que vemos é horrível: violento, racista, odioso, desprezível, cruel, misógino e até pior.

Há aproximadamente 3,4 bilhões de usuários da internet em todo o mundo. O Facebook tem hoje quase 2 bilhões de usuários, o que representa cerca de 58% de todas as pessoas do mundo que usam a rede.


O Facebook treina seus moderadores com slides como esses, cujos critérios são arbitrários e serão aplicados por uma equipe pequena demais ante o volume de informação

Era, portanto, inevitável que ele também se tornasse um espelho da natureza humana – e que as pessoas o usassem não apenas para bons propósitos, mas também para maus. Foi o que fizeram.

Zuckerberg e cia. demoraram para perceber que tinham um problema. E quando isso finalmente ficou claro para eles suas reações iniciais foram roboticamente inadequadas.

A primeira linha de defesa foi que o Facebook é apenas um canal condutor, algo que permite a livre expressão e a “formação de comunidades”, por isso não tem responsabilidade editorial pelo que as pessoas publicam lá.

A tática seguinte foi transferir a responsabilidade (e o trabalho) para os usuários do Facebook: se alguém encontrasse conteúdo inaceitável, bastaria marcá-lo e a empresa cuidaria do assunto.

Mas isso também não funcionou, então a reação seguinte foi o anúncio de que o Facebook estava trabalhando em uma solução tecnológica para o problema: programas de inteligência artificial encontrariam o material ofensivo e o eliminariam.

Entretanto, isso está além das capacidades da IA existente, por isso agora a empresa decidiu empregar um pequeno exército de monitores humanos (3 mil) que vão examinar todo o material desagradável e decidir o que fazer com ele.

Em um furo espetacular, The Guardian conseguiu cópias das diretrizes que esses censores vão aplicar. São uma leitura séria. Os moderadores têm apenas cerca de 10 segundos para tomar uma decisão.

Algo como “alguém dê um tiro em Trump” deve ser deletado? (Sim, porque ele é um chefe de Estado.) E “para quebrar o pescoço de uma ‘vagabunda’, aplique toda a sua força ao meio da garganta dela”? (Aparentemente, tudo bem, porque não é uma “ameaça verossímil”.) “Vamos bater nos meninos gordos” também não tem problema, ao que parece.

Vídeos de mortes violentas, embora marcados como perturbadores, nem sempre precisam ser apagados, porque “podem ajudar a gerar consciência sobre problemas como doença mental”. E assim por diante.

Ao se mergulhar nesses manuais, diretrizes e apresentações de treinamento, o pensamento inevitável é que essa abordagem parece destinada ao fracasso – por dois motivos. Um é a mera escala do problema: 1,3 milhão de novos posts por minuto, 4 mil novas fotos carregadas por segundo e Deus sabe quantos vídeos.

O segundo motivo é que a prosperidade do Facebook depende desse “envolvimento do usuário”, por isso medidas radicais que possam contê-lo minarão seu modelo de negócio. Mesmo que uma fração do conteúdo resultante seja inaceitável, porém, lidar com ela é uma tarefa de Sísifo – muito além da capacidade de 3 mil pessoas. (O governo chinês emprega “dezenas de milhares” para monitorar suas redes sociais.) Se Zuckerberg continuar nesse caminho, ele deverá ser lembrado como o rei Canuto 2.0.

Esse problema é do Facebook, mas também nosso, porque grande parte do discurso público hoje acontece nessa plataforma. E uma esfera pública poluída é muito ruim para a democracia. O que aprendemos com o furo do Guardian é que o sistema barroco, impraticável, aleatório do Facebook para a moderação de conteúdo é inadequado a seu fim. Se descobríssemos que a produção de uma fábrica de sorvetes incluía uma pequena, mas mensurável quantidade de esgoto nós a fecharíamos no mesmo instante. Mensagem para Zuckerberg: mexa-se depressa e conserte as coisas. Se não...


John Naughton
The Observer
Carta Capital 



Nenhum comentário:

Postar um comentário