mobbip
o-meta-oversight-board-diz-que-as-remocoes-automatizadas-de-imagens-do-facebook-estao-quebradas.jpg

O Meta Oversight Board diz que as remoções automatizadas de imagens do Facebook estão quebradas

Por Gabriel Bonne · 15 de setembro de 2022 10:25

O Conselho de Supervisão da Meta diz que a empresa deveria ter mais cuidado com as ferramentas de moderação automatizadas, criticando-a por remover um desenho que retrata a violência policial na Colômbia. A decisão chegou quando o conselho assumiu uma série de novos casos, incluindo uma pergunta sobre um vídeo de agressão sexual na Índia.

O Conselho de Supervisão, um órgão semi-independente financiado pelo Meta, considerou uma charge política mostrando policiais colombianos espancando um homem com cassetetes. O desenho foi em algum momento adicionado ao banco de dados do Meta's Media Matching Service, o que significava que o sistema do Meta o sinalizava automaticamente para remoção quando os usuários o postavam. Mas quando os usuários viram suas postagens removidas, eles começaram a apelar da decisão – e vencer. O Conselho de Supervisão diz que 215 pessoas apelaram da remoção e 98% dos recursos foram bem-sucedidos. A Meta, no entanto, não removeu o desenho de seu banco de dados até que o Conselho de Supervisão assumiu o caso.

A automação pode amplificar os efeitos de uma chamada de moderação ruim

Esse fato incomodou o Conselho de Supervisão. “Ao usar sistemas automatizados para remover conteúdo, os bancos do Media Matching Service podem amplificar o impacto de decisões incorretas de revisores humanos individuais”, diz a decisão. Um sistema mais responsivo poderia ter resolvido o problema acionando uma revisão do banco quando postagens individuais com a imagem foram contestadas com sucesso. Caso contrário, imagens banidas com base em uma má decisão podem permanecer secretamente proibidas indefinidamente, mesmo quando revisores individuais chegarem a uma conclusão diferente.

É um dos vários casos do Conselho de Supervisão questionando se a moderação automatizada do Facebook e do Instagram está calibrada para evitar remoções excessivamente agressivas e, como em casos anteriores, o Conselho de Supervisão quer mais métodos de supervisão. “O conselho está particularmente preocupado com o fato de o Meta não medir a precisão dos bancos do Media Matching Service para políticas de conteúdo específicas”, observa. “Sem esses dados, que são cruciais para melhorar o funcionamento desses bancos, a empresa não pode dizer se essa tecnologia funciona de forma mais eficaz para alguns padrões da comunidade do que para outros.”

Está pedindo ao Meta que publique as taxas de erro para o conteúdo incluído por engano no banco correspondente. Como de costume para as recomendações de políticas do conselho, a Meta deve responder à sugestão, mas pode escolher se a implementará.

As punições de Meta por elogiar grupos extremistas são “incertas e severas”

O Conselho de Supervisão também abordou um dos vários incidentes que testam a linha do Facebook entre apoiar grupos extremistas e relatar sobre eles. Ele determinou que a Meta havia cometido um erro ao derrubar uma postagem no Facebook em urdu informando sobre o Talibã reabrindo escolas e faculdades para mulheres e meninas. A regra proíbe “elogios” de grupos como o Talibã, e a postagem foi retirada. Ele foi encaminhado após um apelo a uma fila de moderação especial, mas nunca foi realmente revisado – o Conselho de Supervisão observa que, na época, o Facebook tinha menos de 50 revisores de língua urdu atribuídos à fila.

O caso, diz o conselho, “pode indicar um problema mais amplo” com as regras sobre organizações perigosas. Após vários incidentes, ele diz que a política parece pouco clara para usuários e moderadores, e as punições por quebrar a regra são “incertas e severas”. Está pedindo uma definição mais clara e restrita de “elogiar” indivíduos perigosos e dedicar mais moderadores à fila de revisão.

Enquanto isso, o Conselho de Supervisão está buscando comentários públicos sobre dois casos: o primeiro diz respeito a um vídeo de um tiroteio em massa em uma igreja nigeriana, que foi banido por violar a política de “conteúdo violento e gráfico” da Meta, mas pode ter valor de notícia que deveria ter justificado mantendo-o. Da mesma forma, está interessado em saber se um vídeo que retrata agressão sexual na Índia deve ter permissão para aumentar a conscientização sobre violência baseada em casta e gênero ou se sua representação gráfica de toque não consensual é inerentemente prejudicial. A janela de comentários para ambos os casos será encerrada em 29 de setembro.

Traduzido de: https://www.theverge.com/2022/9/15/23353593/meta-facebook-oversight-board-decisions-automated-image-takedowns-extremist-groups

Outras postagens

Motorola G60
3 de outubro de 2022, 14:32 | RECOMENDAÇÕESMotorola G60: Bateria de 6000mAh e mais recursos
Como somar no Excel?
1 de outubro de 2022, 00:53 | TUTORIAISSaiba como somar no Excel de maneira simples e fácil
Download de musicas
29 de setembro de 2022, 23:03 | TUTORIAISTOP 6 melhores sites para baixar músicas grátis
Como consultar o número do NIS
27 de setembro de 2022, 18:15 | TUTORIAISSaiba como consultar o número do NIS
internet das coisas
25 de setembro de 2022, 03:18 | CURIOSIDADESO que é Internet das Coisas? Saiba como a tecnologia funciona!
Como criar um canal no Youtube
22 de setembro de 2022, 20:53 | TUTORIAISComo criar um canal no YouTube em 2022 [ATUALIZADO]
Onde assistir Naruto em 2022
20 de setembro de 2022, 20:28 | RECOMENDAÇÕESOnde assistir à série Naruto em 2022 [ATUALIZADO]
Melhores sites para assistir futebol
17 de setembro de 2022, 18:27 | RECOMENDAÇÕESTOP 5 melhores sites para assistir futebol ao vivo grátis em 2022
mobbip
Sobre

O Mobbip é um portal criado para trazer informações e notícias sobre o universo da tecnologia, com uma base robusta com mais de 6 mil produtos, vamos trazer reviews, especificações técnicas e muitas outras informações para você sanar todas as dúvidas na hora de comprar.