Nos últimos anos, as grandes linguagens de modelagem alimentadas por IA têm se tornado populares, originando enormes quantidades de texto, imagens e conteúdos de vídeo. Ainda que essa tecnologia tenha seus benefícios, existe uma crescente preocupação entre os anunciantes com o fato de que seu dinheiro destinado a anúncios pode inadvertidamente apoiar conteúdos de baixa qualidade. Uma recente pesquisa da NewsGuard descobriu a rápida expansão de sites suspeitos que publicam conteúdos criados pela IA e os monetizam.
A NewsGuard realizou um estudo aprofundado em centenas de anúncios gerados por inteligência artificial em plataformas online. Constataram que os sites estavam publicando muitos artigos a cada dia, que iam desde versões copiadas de notícias reais até títulos de conteúdo duvidoso que promoviam remédios não comprovados ou potencialmente nocivos. Os resultados alarmantes indicam que os anunciantes podem estar ligando suas marcas a artigos de qualidade inferior e fraudulentos.
Durante seu trabalho de investigação, a NewsGuard detectou aproximadamente 400 anúncios de 141 grandes marcas em mais de 50 sites alemães, franceses, italianos e norte-americanos. É provável que os anunciantes não tenham conhecimento de que seus anúncios estavam sendo exibidos em plataformas geradas por inteligência artificial, pois eles depositaram sua confiança em publicidade em terceiros, como o Google Ads. Esta falta de transparência levanta preocupações sobre a segurança de uma marca e a dor de reputação que pode ser causada por se associar a conteúdo de baixa qualidade e desinformação.
A monetização de sites produzidos pela Inteligência Artificial é amplamente impulsionada por grandes operadoras de publicidade, cujo objetivo é maximizar os seus lucros. Estas empresas muitas vezes não garantem a supervisão humana ou os processos de verificação da precisão do conteúdo publicado nestes sites. Como consequência, os sites de notícias com produção de IA são gerados e monetizados sem a devida supervisão de qualidade.
Jack Brewster, Editor da NewsGuard Enterprise, salientou a participação das empresas ad-tech nesta edição, declarando: “Grandes empresas ad-tech estão promovendo a monetização de sites de notícias produzidos por Inteligência Artificial em grande escala, sem aparentemente verificar se há supervisão ou precisão humanas, o que contribui para a disseminação de sites de qualidade inferior”.
Quando as marcas permitem que seus anúncios sejam apresentados em sites criados por inteligência artificial, elas correm o risco de associar sua marca a conteúdo de baixa qualidade, enganoso ou potencialmente perigoso. Isso levanta questões importantes sobre a segurança da marca e pode comprometer a confiança e a lealdade dos consumidores. Os anunciantes dedicam muito tempo e recursos para cuidadosamente construir o seu posicionamento de marca, e é fundamental que eles protejam sua reputação, garantindo que os seus anúncios sejam exibidos em ambientes seguros e confiáveis.
De acordo com a pesquisa do NewsGuard, muitas companhias em diferentes áreas, incluindo bancos, streaming, tecnologia, automotivo, vestuário esportivo e suprimentos para animais de estimação, veiculam seus anúncios em sites gerados pela Inteligência Artificial. A grande maioria dos anúncios mapeados foram feitos pelo Google Ads, o que evidencia a necessidade de medidas mais robustas para proteger a segurança da marca e impedir a publicidade em sites produzidos por IA insuficientes.
Anunciantes estão explorando maneiras de prevenir ou atenuar os riscos associados à publicidade programática e a inteligência artificial cada vez mais evidente. Por esse motivo, empresas como a DoubleVerify estão oferecendo sistemas de segurança de marca voltados especificamente para os problemas criados por conteúdo gerado por IA.
A DoubleVerify, uma empresa líder em segurança de marca e verificação de anúncios, informou um aumento de 56% em sua tecnologia de segurança de marca no primeiro trimestre de 2023 em comparação com o ano anterior. Este aumento substancial é atribuído ao aumento das fazendas de conteúdo AI, que ampliam as preocupações de segurança da marca. Ao investir em suas próprias ferramentas de IA, a DoubleVerify visa detectar e prevenir a colocação de anúncios ao lado de conteúdo de baixa qualidade, enganoso ou prejudicial. Seu foco é desenvolver tecnologia avançada que pode detectar violações em vários idiomas e formatos de conteúdo, incluindo vídeo.
Embora o debate sobre o conteúdo produzido pela Inteligência Artificial persista, é fundamental reconhecer que a qualidade desse conteúdo é mais relevante do que se foi gerado pela IA. Mark Zagorski, CEO da DoubleVerify, destaca a relevância de dar prioridade à qualidade do conteúdo, afirmando: “O interessante é que, se for produzido por inteligência artificial generativa, isso é menos importante do que o conteúdo em si”. Ele enfatiza, ainda, a importância de utilizar medidas precisas e direcionadas para garantir a exibição de anúncios em locais apropriados.
Os desafios colocados pela AI generativa estendem-se além das preocupações de segurança da marca. Evelyn Mitchell-Wolf, analista sênior do eMarketer, destaca as complexidades adicionais que a AI apresenta ao ecossistema de anúncios programático. Mitchell-Wolf sugere que os editores tradicionais enfrentam uma “crise existente” à medida que se acumulam com a decisão de utilizar ferramentas de IA generativas, investir em conteúdo criado pelo homem, ou fornecer modelos de IA com acesso a conteúdo de qualidade para fins de treinamento. A crescente área de superfície para baixo teor de AI gerado cria um efeito de bola de neve, tornando-o ainda mais desafiador para controlar a qualidade e adequação do conteúdo que está sendo servido ao lado de anúncios programáticos.
Após o relatório de NewsGuard, o Google examinou os sites produzidos pela inteligência artificial mencionados e tomaram passos para excluir anúncios de muitos deles devido às infrações de política. Embora o Google tenha reconhecido que o conteúdo desenvolvido pela inteligência artificial não viole necessariamente seus regulamentos, eles têm diretrizes rígidas a serem seguidas sobre o tipo de conteúdo permitido em sua plataforma. O foco do Google é a qualidade do conteúdo e não como ele foi criado. Caso as violações sejam detectadas, como conteúdo nocivo ou spam, bem como conteúdo copiado de outros sites, os anúncios são bloqueados ou removidos.
Um estudo recente realizado pela Associação de Conselheiros Nacionais destacou que as impressões e os gastos de anúncios nos sites “feitos para publicidade” (MFA) constituíam uma parte considerável da cadeia de fornecimento de mídia programática. Esta descoberta evidencia a escassez de controle que os anunciantes têm sobre a colocação de seus anúncios e o mais urgente necessidade de maior transparência programática, além dos perigos relacionados à AI gerativa.
Keri Bruce, um advogado da Reed Smith ligado ao relatório da ANA, expressou que a Inteligência Artificial torna mais fácil a criação de sites a um ritmo acelerado, que pode resultar em desafios de apropriação da marca e permitir que “agentes mal-intencionados” lucrem ainda mais. Ela sugeriu que os anunciantes se concentrem em listas de inclusão, ao invés de depositar confiança em listas de exclusão para recuperar o controle sobre suas estratégias de publicidade. Com milhares de sites disponíveis para anúncios, torna-se vital alcançar um equilíbrio entre alcançar um grande público e assegurar a segurança da marca.
À medida que a IA gerativa muda o panorama da publicidade, os anunciantes precisam se manter alertas e tomar medidas para proteger sua marca de riscos associados ao programático. O aumento do conteúdo produzido por IA destaca a importância de salvaguardas eficazes e medidas de segurança da marca. Ad-techs, anunciantes e partes interessadas no setor devem trabalhar juntos para estabelecer práticas transparentes, impor diretrizes de conteúdo rigorosas e desenvolver tecnologias de ponta para detectar e impedir que anúncios sejam veiculados em sites de qualidade inferior e fraudulentos criados com auxílio de IA.
Ao enfatizar a qualidade do conteúdo, destinar recursos às tecnologias de proteção da marca e estimular a transparência programática, os anunciantes podem lidar com os problemas trazidos pela Inteligência Artificial generativa e manter a autenticidade de suas mensagens de marca e reputação. À medida que a tecnologia avança, é fundamental acompanhar a evolução e se manter à frente, explorando os benefícios da IA ao mesmo tempo em que se diminuem seus possíveis riscos. Com uma visão abrangente dos riscos de marca associados a anúncios programáticos na era da Inteligência Artificial generativa, os anunciantes conseguem tomar decisões fundamentadas e preservar suas marcas nessa paisagem em constante transformação.
De acordo com o Digiday, foi relatado inicialmente.