Folha de S. Paulo


Opinião

O momento Frankenstein do Facebook

Hammer Film/Photofest
 Victor Frankenstein e sua criação, o Frankestein
Victor Frankenstein e sua criação, o Frankestein

Na quarta-feira (20), em resposta a uma reportagem do site ProPublica que revelava que o Facebook havia autorizado anunciantes a direcionar publicidade aos seus usuários por meio de termos ofensivos como "odeio os judeus", Sheryl Sandberg, a vice-presidente de operações da companhia pediu desculpas e prometeu que o Facebook ajustaria seus sistemas de venda de publicidade para impedir que problemas semelhantes ocorressem no futuro.

Quando li sua declaração, meus olhos se detiveram sobre uma linha em particular.

"Jamais pretendemos ou antecipamos que essa funcionalidade viesse a ser usada da maneira que foi e isso é culpa nossa", escreveu Sandberg.

Foi uma admissão franca que me fez recordar um momento de "Frankenstein", de Mary Shelley, quando o cientista Victor Frankenstein percebe que a criatura que criou com partes de cadáveres havia escapado ao seu controle.

"Fui o autor de males inalteráveis", ele diz, "e vivi a cada dia o medo de que o monstro que criei viesse a perpetrar novas maldades".

Se eu fosse executivo do Facebook, estaria sentindo inquietação digna de um Frankenstein, hoje. A companhia foi abalada por uma série de escândalos que macularam sua imagem, enraiveceram seus críticos e abriram a possibilidade de que, em busca de domínio mundial, o Facebook tenha criado alguma coisa que não é capaz de controlar plenamente.

O Facebook está tentando resolver um emaranhado de questões de privacidade, liberdade de expressão e moderação, junto a governos de todo o mundo. O Congresso americano está averiguando informações de que agentes russos usaram anúncios direcionados no Facebook a fim de influenciar a eleição dos Estados Unidos em 2016. Em Mianmar, ativistas estão acusando o Facebook de censurar os muçulmanos rohyngia, que estão sob ataque pelas forças armadas do país. Na África, a rede social enfrenta acusações de ter ajudado traficantes de pessoas a extorquir dinheiro de famílias de suas vítimas, ao permitir que vídeos abusivos fossem postados.

Poucas dessas questões envolvem malevolência deliberada da parte da empresa. Não é como se um engenheiro do Facebook em Menlo Park tivesse autorizado a propaganda russa pessoalmente. Na quinta-feira (21), a companhia anunciou que entregaria os anúncios adquiridos por russos na eleição de 2016, bem como algumas informações referentes a eles, a investigadores do Congresso.

Mas os problemas tornam claro que o Facebook simplesmente não foi construído para lidar com dificuldades dessa magnitude. Trata-se de uma empresa de tecnologia, e não de uma agência de inteligência ou de um corpo diplomático internacional. O trabalho de seus engenheiros é criar apps e vender publicidade, e não determinar o que constitui retórica do ódio em Mianmar. E com 2 bilhões de usuários, entre os quais 1,3 bilhão que usam a rede social a cada dia, transferindo volume cada vez maior de suas atividades sociais e políticas ao Facebook, é possível que a empresa seja simplesmente grande demais para compreender todas as maneiras nocivas pelas quais as pessoas podem usar seus produtos.

"A realidade é que, se você está no leme de uma máquina que carrega dois bilhões de pessoas ruidosas e exigentes, é basicamente impossível prever todos os possíveis usos malévolos", disse Antonio Garcia Martinez, autor do livro "Chaos Monkeys" e antigo executivo publicitário do Facebook. "O problema é que quando você elimina uma dificuldade, outras surgem".

Elliot Schrage, vice-presidente de comunicações e política pública do Facebook, anunciou em comunicado que "trabalhamos com muito afinco para apoiar nossos milhões de anunciantes em todo o mundo, mas às vezes —raramente— os maus elementos vencem. Investimos muito tempo, energia e recursos na extinção desses acontecimentos já raros, e somos gratos à nossa comunidade por nos apontar o que podemos fazer melhor".

Quando Mark Zuckerberg criou o Facebook, em seu dormitório da Universidade Harvard em 2004, ninguém teria imaginado que sua ideia se tornaria uma ferramenta de censura para regimes repressivos, um árbitro dos padrões de discurso mundiais ou um veículo para propagandistas estrangeiros.

Mas o Facebook se tornou uma espécie de praça central para todo o planeta, e teve de se adaptar à influência que conquistou. Muitos de seus usuários veem as redes sociais como serviço essencial, e as decisões da empresa —que posts remover, que anúncios permitir, que vídeos exibir— podem ter consequências de vida e morte no mundo real. A empresa desenvolveu algoritmos complexos para tomar muitas dessas decisões, o que acarreta outros riscos, mas muitas das escolhas mais difíceis que o Facebook faz continuam a cargo de pessoas.

"Eles ainda se veem como um intermediário tecnológico", disse Garcia Martinez. "O Facebook não deveria ser um elemento da guerra de propaganda. Eles não estão equipados de maneira alguma para lidar com isso".

Mesmo que Zuckerberg e Sandberg não tenham aspirações políticas pessoais, apesar de boatos em contrário, já são líderes de uma organização que influencia a política em todo o mundo. E há sinais de que o Facebook está começando a compreender suas responsabilidades. Contratou especialistas em combate ao terrorismo e está expandindo suas equipes de moderadores em todo o mundo, para busca e remoção de conteúdo perigoso.

Na quinta, Zuckerberg afirmou em um vídeo postado no Facebook que a empresa tomaria diversas medidas para ajudar a proteger a integridade das eleições, por exemplo tornar mais transparentes os anúncios políticos e expandir sua parceria com as autoridades eleitorais.

"Faremos nossa parte não só para garantir a integridade de eleições livres e justas em todo o mundo mas também para dar voz a todos e para lutar pelo bem e pela democracia em toda parte", disse.

Mas é bem possível que não haja como impedir que desfechos negativos surjam no Facebook, cujo alcance é quase inimaginável. Alex Stamos, vice-presidente de segurança do Facebook, disse no mês passado que a empresa fecha mais de um milhão de contas de usuários a cada dia, por violação dos padrões comunitários do serviço. Mesmo que apenas 1% dos usuários diários da rede social se comportem mal, isso representaria 13 milhões de pessoas violando as regras, mais ou menos a população do Estado da Pensilvânia.

Além dos desafios do tamanho, a cultura empresarial do Facebook é definida por um otimismo entusiástico. Isso talvez conviesse à empresa quando estava começando, mas pode prejudicar sua capacidade de prever riscos com precisão agora que seus serviços servem como campo de batalha em grandes conflitos mundiais.

Diversos atuais e antigos funcionários da empresa me descreveram o Facebook como um lugar onde engenheiros e executivos em geral contam com o melhor da parte dos usuários, em lugar de se prepararem para o pior. Mesmo a declaração de propósitos da empresa —"dar às pessoas o poder de construir comunidades, e unir mais o mundo"— implica que pessoas que ganhem acesso a instrumentos poderosos os usarão para propósitos construtivos. E é evidente que esse nem sempre é o caso.

Contratar pessoas com uma visão de mundo mais sombria poderia ajudar o Facebook antecipar conflitos e usos indevidos. Mas o pessimismo não bastará para consertar todos os problemas. Será necessário continuar a investir pesadamente em recursos defensivos, entre os quais inteligência artificial e equipes de moderadores humanos, para impedir as ações dos maus elementos. Também seria sábio que a empresa aprofundasse seu conhecimento sobre os países em que opera, contatando mais especialistas regionais que compreendam as nuanças do ambiente político e cultural local.

O Facebook poderia até aprender com Wall Street e criar um departamento de risco que fiscalizaria suas equipes de engenharia, avaliando novos produtos e recursos antes que eles sejam lançados, em busca de potenciais usos indevidos.

Agora que o Facebook está ciente de sua influência, a companhia não pode continuar evitando a responsabilidade pelo mundo que ajudou a construir. No futuro, jogar a culpa no monstro não será suficiente.

Tradução de PAULO MIGLIACCI


Endereço da página:

Links no texto: