"O que mais tem é pornografia", diz Sara Katz, ao se lembrar dos oito meses em que trabalhou como moderadora do Facebook.
"A agência foi muito direta sobre o tipo
de conteúdo que veríamos e o quão gráfico era, portanto sabíamos o que
estávamos enfrentando", declara.
Katz se refere a uma agência de
moderadores humanos com sede na Califórnia, nos Estados Unidos, que o
Facebook e outras empresas contratam. Ela trabalhou com isso em 2016.
- 'Checava se alguém se mataria ao vivo': a rotina do brasileiro que moderava posts denunciados no Facebook
- 'Evito as redes sociais pela mesma razão que evito as drogas', diz o criador da realidade virtual
A tarefa de Katz consistia em revisar as queixas sobre conteúdo inapropriado que chegavam dos usuários do Facebook.
Não era uma tarefa tranquila. "Davam para
a gente cerca de um minuto por publicação, para decidir se era spam e
tinha que ser apagado. Às vezes, apagávamos a conta associada à postagem
também", explica.
"A gerência não gostava que
trabalhássemos mais que oito horas por dia, e revisávamos uma média de 8
mil publicações por dia, mil por hora."
Katz diz que "aprendeu bastante" no
período, mas destaca que, se tivesse que descrever o trabalho com uma só
palavra seria, "extenuante".
Imagens ilegais
"Definitivamente você tem que estar
preparado para ver qualquer tipo de coisa em apenas um clique. As
imagens chegam de repente, sem aviso prévio", diz.
A que mais a impactou foi uma fotografia
que sugeria pornografia infantil. "Era de um menino e uma menina. O
menino tinha uns 12 anos, e a menina, oito ou nove. Eles estavam de
frente um para o outro, sem calça", descreve.
"Parecia que um adulto estava dizendo a
eles o que fazer. Foi muito perturbador, principalmente porque dava para
ver que era real."
Publicações que se repetem
"Muitas dessas publicações explícitas
circulavam continuamente. Víamos passar por seis contas distintas ao
longo do dia, mas era difícil achar a fonte original", se lembra.
Katz diz que, na época em que fazia o
monitoramento de publicações, não havia para os funcionários serviços de
aconselhamento e ajuda psicológica. "Pode ser que hoje exista, não
tenho certeza", afirma.
Ela reconhece que, se tivessem oferecido esse tipo de apoio em 2016, ela certamente teria aceitado a ajuda.
"Definitivamente te advertem, mas ser alertado e ver são duas coisas diferentes", destaca.
"Alguns pensam que podem lidar com a situação, mas acabam vendo que não conseguem, porque a realidade é pior do que esperavam."
Violência gráfica
Katz avalia que os moderadores acabam se
tornando, muitas vezes, "bastante insensíveis" com o tempo. "Não diria
que é mais fácil (ver imagens violentas e de pornografia), mas você se
acostuma", explica.
"Obviamente havia muito mais pornografia genérica entre adultos, o que não era tão perturbador."
Em alguns casos, as fotografias incluíam animais. "Tinha uma imagem com um cavalo que circulava com frequência", recorda.
E também apareciam muitas cenas violentas. "Lembro de uma publicação em que arrancavam a cabeça de uma mulher", conta.
"Parte do corpo dela estava no solo, e a outra metade, o torso, numa cadeira", descreve.
"A política era mais rigorosa para a eliminação de pornografia que para violência gráfica."
Notícias falsas
"Creio que as notícias falsas pegaram o Facebook de surpresa", diz Katz.
"Durante a campanha para as eleições dos
Estados Unidos era algo que estava fora do radar, ao menos durante o
tempo em que eu trabalhei ali."
"Realmente não me recordo de ter escutado muito o termo 'fake news'", assegura.
"Circulava uma grande quantidade de
artigos que eram denunciados pelos usuários, mas não me lembro de os
gerentes pedirem que verificássemos se os fatos correspondiam à
realidade", conta.
Embora tenha tido contato com algumas imagens perturbadoras, em geral, o trabalho de moderador era "monótono", diz ela.
"Realmente você acaba se acostumando a
identificar o que é spam e o que não é. Simplesmente, a atividade se
converte numa monotonia de cliques."
Perguntada se recomendaria o trabalho, ela é taxativa: "Se você puder fazer qualquer outra coisa, eu diria que não".
A resposta do Facebook
A BBC encaminhou o relato de Katz ao
Facebook. Em resposta, um porta-voz da empresa disse: "Nossos revisores
desempenham um papel crucial para fazer do Facebook um local seguro e
aberto".
A rede social reconheceu que o trabalho
de moderador "pode ser muito desafiador". "Queremos assegurar que (os
moderadores) estejam devidamente respaldados."
"Por isso, oferecemos capacitação
regularmente, assessoramento e apoio psicológico a todos os nossos
empregados e a todos os que trabalham para nós por meio de nossos
sócios", completou.
O Facebook também disse que, embora use
inteligência artificial sempre que possível, existem mais de 7 mil
pessoas que revisam conteúdo da rede social. "Cuidar do bem estar deles é
uma verdadeira prioridade nossa."
Nenhum comentário:
Postar um comentário