AutomaçãoConteúdoConteúdo

Novo quadro de Inteligência Artificial impulsiona a moderação de conteúdo online.

Conectado a um novo sistema de moderação de conteúdo que representa um avanço na eficiência das filas de moderação, diminuindo em 60% o tempo necessário para identificar violações de políticas. Essa inovação pode vir a ser a próxima etapa na moderação de conteúdo, à medida que se tornar mais amplamente acessível.

Como envolvido em transgressões de conteúdo moderado.

Ligado Em conta com equipes de moderação de conteúdo que realizam a revisão manual de possíveis conteúdos para garantir o cumprimento das políticas de navegação.

Eles empregam uma mistura de inteligência artificial, conexões em relatórios de usuários e intervenção humana para identificar e eliminar conteúdo nocivo.

No entanto, a magnitude do desafio é vasta devido à necessidade de revisar centenas de milhares de itens semanalmente.

No passado, com o método de processo FIFO (primeiro a entrar, primeiro a sair), o que costumava ocorrer era que cada item aguardava sua revisão em uma fila, levando muito tempo para que conteúdos ofensivos fossem revisados e removidos.

Dessa forma, a utilização do método FIFO resultou na exposição dos usuários a conteúdo prejudicial.

No texto “Ligado No”, foram mencionadas as desvantagens do sistema FIFO que era utilizado anteriormente.

…esse método apresenta dois pontos negativos importantes.

Primeiramente, uma parte significativa do material revisado pelos humanos não está em desacordo com as nossas políticas, sendo considerada como não violadora, ou seja, adequada.

Isso faz com que o revisor gaste tempo revisando conteúdo que não viola as regras, em vez de se concentrar no que realmente viola.

Segundo o texto, quando os itens são revisados de acordo com o método FIFO, pode ser mais difícil detectar conteúdo violativo se ele for analisado depois do conteúdo não-violativo.

Focado em desenvolver um sistema automatizado com base em um modelo de machine learning para dar prioridade ao conteúdo que possivelmente está em desacordo com as políticas, colocando esses itens no topo da lista.

Este novo método contribuiu para acelerar o procedimento de revisão.

Novo modelo de referência emprega o XGBoost.

O recente framework utiliza um modelo de aprendizado de máquina XGBoost para antecipar qual conteúdo pode potencialmente violar a política estabelecida.

XGBoost é uma abreviação para Extreme Gradient Boosting, que é uma biblioteca de código aberto de aprendizado de máquina que auxilia na classificação e ordenação de elementos em um conjunto de dados.

Este modelo de aprendizado de máquina chamado XGBoost utiliza algoritmos para treinar o modelo a identificar padrões específicos em um conjunto de dados que possui rótulos (indicando qual conteúdo está em violação).

Ligado Em empregou essa mesma abordagem para treinar a sua nova organização.

Esses modelos são treinados em um conjunto de dados representativo que contém etiquetas feitas por humanos em conteúdos revisados, e são testados em outra amostra de dados separada no tempo.

Após ser treinado, o modelo é capaz de reconhecer o conteúdo que possivelmente está em desacordo e requer uma análise feita por um ser humano, neste contexto tecnológico.

XGBoost é uma tecnologia avançada que se destacou em testes de benchmarking por sua eficácia e eficiência, superando outros algoritmos em termos de precisão e velocidade de processamento.

Focado nas informações fornecidas sobre essa nova perspectiva.

Com a utilização desse sistema, os fluxos de revisão do conteúdo de entrada são identificados por um conjunto de modelos de inteligência artificial para estimar a chance de que ele possa infringir nossas diretrizes.

Conteúdo que provavelmente não viola as regras é mantido em privado para economizar tempo do revisor, enquanto conteúdo mais propenso a violações é priorizado para identificação e remoção ágil.

Impacto no processo de controle.

Conforme descrito, o novo framework tem a capacidade de tomar decisões automáticas sobre aproximadamente 10% do conteúdo em espera para revisão, alcançando um nível de precisão considerado “extremamente alto” pelo LinkedIn. O modelo de inteligência artificial é tão preciso que supera o desempenho de um revisor humano.

De forma significativa, o novo sistema diminui em aproximadamente 60% o tempo médio necessário para capturar conteúdo de acordo com as políticas estabelecidas.

Em quais áreas a inteligência artificial está sendo aplicada?

O sistema de priorização de revisão de conteúdo, atualmente empregado para mensagens de feed e comentários, será implementado em outras áreas do LinkedIn, conforme anunciado pelo Ligado Em.

É fundamental moderar o conteúdo nocivo para aprimorar a experiência do usuário, diminuindo a exposição de usuários a materiais prejudiciais.

Também é vantajoso para a equipe de moderação, pois auxilia na gestão e resolução eficiente de um alto fluxo de conteúdo.

Essa tecnologia demonstrou ser eficaz e, com o tempo, pode se tornar mais comum à medida que se torna mais acessível de forma mais abrangente.

Por favor, leia o LinkedIn no anúncio.

Melhorar nossa abordagem na moderação de conteúdo por meio da utilização de inteligência artificial e classificação dinâmica de conteúdo.

A imagem principal é fornecida por Shutterstock/wichayada suwanachun.

Artigos relacionados

Back to top button