O YouTube relaxou silenciosamente suas políticas de moderação de conteúdo, instruindo os revisores a permitir vídeos que contenham discursos de ódio e informações erradas se o conteúdo for considerado o”interesse público”. A mudança anteriormente não divulgada, implementada em dezembro, aumenta o limite para o material de quebra de regras em um único vídeo de um quarto a metade do seu tempo de execução. A medida segue uma decisão semelhante da Meta de reduzir seu programa de verificação de fatos nos EUA, consolidando uma tendência em todo o setor para padrões de conteúdo mais permissivos. Um porta-voz do YouTube explicou que o ajuste fazia parte de um processo em evolução, declarando que a meta da empresa permanece”proteger a liberdade de expressão no YouTube enquanto mitigam danos flagrantes”. Os materiais de treinamento revisados ​​por repórteres ilustraram a política com exemplos do mundo real. Um vídeo que usava uma insulta direcionado a um indivíduo transgênero foi autorizado a permanecer online porque foi uma única violação em uma discussão política maior. valor a ser maior que seu potencial de dano. A definição de”interesse público”da plataforma é expansiva, cobrindo tudo, desde eleições e ideologias políticas a raça e gênero, distanciando a empresa de suas ações de aplicação mais agressivas durante a pandemia de Covid-19. A mudança ocorre quando a empresa-mãe Google enfrenta dois principais processos antitruste do Departamento de Justiça, e alguns analistas veem a moderação relaxada como uma tentativa de diminuir o perfil político da empresa. No entanto, essa abordagem entra em conflito com a pressão regulatória internacional, pois a UE prepara uma multa potencial de bilhões de dólares contra o X por falhas de moderação de conteúdo. O próprio pivô de política da Meta foi fortemente criticado por seu conselho de supervisão independente, que descreveu o lançamento como sendo”anunciado apressadamente, em um afastamento do procedimento regular”e sem ter uma revisão adequada dos direitos humanos. Enquanto a Tiktok demitiu moderadores humanos para se apoiar na IA, os meta-planos para a IA lidar com até 90% de suas revisões de risco de produto, um movimento que um ex-executivo alertou teria consequências sérias.

Categories: IT Info