A Meta anunciou na quinta-feira que está a começar a implementar sistemas de IA mais avançados para lidar com a aplicação de políticas de conteúdo, ao mesmo tempo que planeia reduzir a contratação de fornecedores externos. As tarefas relacionadas com a moderação incluem a deteção e remoção de conteúdos sobre terrorismo, exploração infantil, substâncias ilícitas, fraude e esquemas (scams).
A empresa afirma que irá implementar estes sistemas de IA mais avançados em todas as suas aplicações assim que estes superarem consistentemente os métodos atuais de moderação. Paralelamente, reduzirá a sua dependência de empresas externas para estas funções.
“Embora continuemos a ter pessoas a rever conteúdos, estes sistemas serão capazes de assumir o trabalho mais adequado para a tecnologia, como revisões repetitivas de conteúdo gráfico ou áreas onde agentes adversários mudam constantemente de tática, como na venda de substâncias ilícitas ou esquemas de fraude”, explicou a Meta numa publicação no seu blogue.
A Meta acredita que estes sistemas de IA podem detetar mais violações com maior precisão, prevenir melhor as fraudes, responder mais rapidamente a eventos do mundo real e reduzir a moderação excessiva.
Segundo a empresa, os testes iniciais têm sido promissores, conseguindo detetar o dobro do conteúdo de solicitação sexual de adultos em comparação com as equipas humanas, reduzindo simultaneamente a taxa de erro em mais de 60%. Afirma ainda que os sistemas podem identificar e prevenir mais contas de usurpação de identidade de celebridades e figuras públicas, além de ajudar a impedir a tomada de controlo de contas ao detetar sinais como inícios de sessão em novos locais, alterações de palavras-passe ou edições no perfil.
Adicionalmente, a Meta refere que os sistemas conseguem identificar e mitigar cerca de 5.000 tentativas de fraude por dia, nas quais burlões tentam enganar utilizadores para que estes cedam os seus dados de acesso.
“Especialistas irão conceber, treinar, supervisionar e avaliar os nossos sistemas de IA, medindo o desempenho e tomando as decisões mais complexas e de alto impacto”, escreveu a Meta. “Por exemplo, as pessoas continuarão a desempenhar um papel fundamental nas decisões de maior risco e mais críticas, como recursos de desativação de contas ou denúncias às autoridades.”
Esta medida surge numa altura em que a Meta tem vindo a flexibilizar as suas regras de moderação de conteúdo no último ano, coincidindo com o segundo mandato do Presidente Donald Trump. No ano passado, a empresa terminou o seu programa de verificação de factos por terceiros em favor de um modelo de “Notas da Comunidade”, semelhante ao do X. Também levantou restrições em torno de “temas que fazem parte do discurso convencional” e afirmou que os utilizadores seriam incentivados a adotar uma abordagem “personalizada” ao conteúdo político.
Este lançamento ocorre também num momento em que a Meta, e outras gigantes tecnológicas, enfrentam vários processos judiciais que procuram responsabilizar as redes sociais por danos causados a crianças e jovens utilizadores.
A Meta anunciou ainda na quinta-feira o lançamento de um assistente de suporte com IA, que dará aos utilizadores acesso a apoio 24 horas por dia, 7 dias por semana. O assistente está a ser disponibilizado globalmente nas aplicações do Facebook e Instagram para iOS e Android, e no Centro de Ajuda do Facebook e Instagram para computador.