Sat. Jul 27th, 2024

Vinculado a um novo sistema de moderação de conteúdo que representa um avanço na melhoria do gerenciamento das filas de moderação, resultando em uma redução de 60% no tempo necessário para identificar violações de políticas. Essa tecnologia pode ser considerada o futuro da moderação de conteúdo, à medida que se torna mais acessível.

Como enfrentar situações em que o conteúdo moderado é violado.

Ligado Em conta com equipes responsáveis pela moderação de conteúdo, as quais realizam uma revisão manual de possíveis conteúdos para garantir sua conformidade com as políticas de navegação.

Eles utilizam uma variedade de métodos, como modelos de inteligência artificial, análises de membros do LinkedIn e intervenção humana, para detectar e eliminar conteúdo prejudicial.

No entanto, a dimensão do desafio é colossal, uma vez que há um grande número de itens que necessitam ser revisados semanalmente.

No passado, o que costumava ocorrer com o processo de primeiro a entrar, primeiro a sair (FIFO) era que cada item que necessitava de uma revisão ficaria em uma fila, o que resultava em um atraso significativo na revisão e remoção de conteúdo ofensivo real.

Dessa forma, o resultado de utilizar o método FIFO é que os usuários foram expostos a conteúdo nocivo.

Relacionado ao mencionado, as desvantagens do sistema FIFO utilizado anteriormente:

“…este enfoque apresenta duas desvantagens notáveis.”

Primeiramente, nem todo o conteúdo que passa pela revisão humana vai contra as nossas políticas – uma parte significativa é considerada não ofensiva (ou seja, livre de problemas).

Isso faz com que o revisor gaste seu precioso tempo revisando conteúdo que não viola as regras.

Além disso, se os itens forem revisados em ordem de chegada, o conteúdo que viola as regras pode ser mais difícil de detectar se for analisado após o conteúdo que está de acordo com as regras.

Leia Mais:   Como o Rover utiliza a plataforma Sprout Social para avaliar e aprimorar o seu desempenho em uma escala global.

Relacionado à ideia de um sistema automatizado que utiliza um modelo de aprendizado de máquina para dar prioridade ao conteúdo que possivelmente está violando políticas de conteúdo, colocando esses itens na frente da fila.

Essa nova metodologia contribuiu para agilizar a revisão.

Um novo sistema de trabalho utiliza a tecnologia XGBoost.

O framework recente emprega um modelo de aprendizado de máquina chamado XGBoost para prever quais itens de conteúdo têm maior probabilidade de violar a política.

O XGBoost é uma biblioteca de aprendizado de máquina de código aberto que ajuda na classificação e no ranqueamento de itens em um conjunto de dados. O nome XGBoost é uma abreviação para Extreme Gradient Boosting.

O XGBoost, um modelo de aprendizado de máquina, utiliza algoritmos para treinar o modelo com o objetivo de identificar padrões específicos em um conjunto de dados que possui rótulos indicando a violação de conteúdo.

Ligado Em empregou essa mesma abordagem para capacitar sua nova organização.

Esses modelos passam por um treinamento utilizando uma amostra representativa de dados etiquetados por humanos da fila de revisão de conteúdo e são testados em uma outra amostra em um momento diferente.

Após receber treinamento, o modelo tem a capacidade de reconhecer o conteúdo que, nessa aplicação tecnológica, provavelmente está em desacordo e requer uma avaliação feita por um humano.

XGBoost é uma tecnologia avançada que demonstrou ser altamente eficiente em testes de benchmarking, tanto em termos de precisão quanto de tempo de processamento, superando outros algoritmos.

Na descrição deste novo método, eu fiz uma ligação.

Com esta estrutura, os conjuntos de modelos de inteligência artificial são usados para marcar as filas de revisão de entrada de conteúdo, com o objetivo de calcular a probabilidade de que ele possivelmente esteja em violação de nossas políticas.

Leia Mais:   O Google finaliza a migração para a indexação Mobile-First.

O conteúdo que tem baixa probabilidade de ser ofensivo é mantido em privado, o que economiza o tempo do revisor humano. Já o conteúdo com maior probabilidade de violar as políticas é priorizado para ser detectado e removido mais rapidamente.

Efeitos na moderação

Segundo informações, o LinkedIn desenvolveu um novo framework que tem a capacidade de tomar decisões automáticas em relação a aproximadamente 10% do conteúdo em espera para revisão. Essas decisões são tomadas com um nível de precisão extremamente alto, a ponto de superar o desempenho de um revisor humano.

De forma impressionante, o tempo médio de captura de conteúdo é reduzido em aproximadamente 60% pelo novo framework em comparação com as políticas anteriores.

Em quais áreas a inteligência artificial está sendo aplicada?

Atualmente, o LinkedIn está utilizando um novo sistema para priorizar a revisão de conteúdo em mensagens de feed e comentários. A empresa anunciou que também está trabalhando para implementar esse processo em outras áreas da plataforma.

É essencial moderar o conteúdo prejudicial, pois isso contribui para aprimorar a experiência do usuário ao reduzir a exposição de um grande número de pessoas a conteúdos prejudiciais.

Além disso, é uma ferramenta valiosa para a equipe de moderação, pois auxilia a gerenciar e lidar com a grande quantidade de informações.

Essa tecnologia já foi comprovada como eficaz e, com o passar do tempo, pode se tornar ainda mais comum à medida que se torna mais acessível.

Leia o anúncio do LinkedIn.

Melhorar nossas estratégias de moderação de conteúdo por meio do uso de algoritmos de aprendizado de máquina e da priorização flexível de conteúdo.

A imagem destacada é fornecida pela plataforma Shutterstock, e foi criada por Wichayada Suwanachun.

Leia Mais:   É necessário que os profissionais que atuam como gerentes de mídia social possuam um mestrado?