Além dos anúncios em criptografia, a empresa apresentou o que está fazendo para controlar o conteúdo problemático que existe na rede.
O diretor de tecnologia do Facebook, Mike Schroepfer, tomou o palco da F8, conferência de desenvolvedores da empresa, nesta quarta-feira (1º) para falar dos avanços que a rede está fazendo em inteligência artificial (IA) e reconhecimento de imagens e voz, com foco em tentar diminuir as violações de políticas de conteúdo.
Em conversa com a imprensa, Schroepfer afirmou que as mudanças do Facebook e o foco em privacidade não impactarão o funcionamento dessa inteligência artificial que remove postagens danosas da plataforma. Ele também disse que os grupos não serão submetidos à criptografia, o que manterá em pé as políticas atuais de conteúdo.
O executivo apresentou os avanços mais recentes — e já em funcionamento — em sistemas de IA para capturar conteúdo irregular, antes mesmo que ele precise passar por um editor ou seja denunciado por um usuário do Facebook. Esse tipo de conteúdo vai desde imagens de violência e nudez até discurso de ódio, spam ou anúncio de venda de drogas.
Em 2014, a empresa tentava remover conteúdo apenas fazendo o "match" entre palavras chave no texto e a imagem de anúncio ou post, por exemplo.
Agora é possível treinar o algoritmo para aprimorar o reconhecimento de imagens, sabendo com detalhes o que há em uma foto, e também analisar texto, imagem, áudio e vídeo ao mesmo tempo para entender o que determinado conteúdo significa.
Na apresentação, Schroepfer usou anúncios de maconha como exemplo: antes só era possível reconhecer imagens e textos sobre drogas, agora esse algoritmo já capta até embalagens ou mesmo gírias e códigos para designar esse tipo de anúncio. Reconhecimento de vídeo e áudio, além de traduções simultâneas também são utilizadas por essa tecnologia.
Embora o sistema esteja se aprimorando para resolver questões como dispersão de imagens de violência, nudez e até spam, ainda é incipiente em lidar com questões mais subjetivas e submetidas a um julgamento mais específico, como assédio ou linguagem de ódio.
Schroepfer reconheceu que o atual estado do algoritmo está longe de ser a solução necessária para esses problemas, mas que o trabalho de sua equipe é continuar nesse caminho.
“É um trabalho complicado e é por isso que as pessoas estão céticas quando dizemos que estamos tentando resolver problemas de segurança no Facebook”, disse. “É fácil perder a esperança diante de vários conteúdos que aparecem na rede todos os dias, mas inteligência artificial é nossa melhor aposta em manter a plataforma segura.
Casos difíceis
Um caso notório que mostrou as dificuldades da inteligência artificial foi o ataque terrorista a uma mesquita na Nova Zelândia, em março. "Como não temos um banco de dados grande de imagens de um atentado acontecendo em primeira pessoa, é difícil remover esse tipo de conteúdo", disse Schroepfer.
Segundo ele, as pessoas continuavam fazendo o upload do vídeo com algumas alterações na imagem, o que mudava os dados da gravação e impedia o funcionamento da IA nesse caso. "Nudez é algo mais estrito. Mas violência é um conceito mais amplo, que pode ser difícil de treinar um computador para reconhecer.
Questionado sobre se o Facebook aproveita os avanços em inteligência artificial para diminuir a quantidade de editores humanos que emprega para remoção de conteúdo, o executivo negou. "O que fazemos é mudar o trabalho dos editores humanos. Tentamos designá-los para conteúdos mais leves, como análises políticas, e menos para imagens violentas, por exemplo", disse.