Sun. Oct 6th, 2024

A OpenAI emitiu uma resposta ao processo movido pelo The New York Times, alegando que o jornal utilizou técnicas de manipulação de prompt para fazer com que o ChatGPT reproduzisse longas passagens de texto. A OpenAI afirma que o processo é baseado no uso inadequado do ChatGPT, com o objetivo de “gerar” exemplos para o processo.

O Conselheiro do New York Times oferece uma resposta ao artigo publicado no blog da OpenAI.

Ian Crosby, advogado da empresa Susman Godfrey e conselheiro principal do The New York Times, fez um comentário no Search Engine Journal.

O blog reconhece que a OpenAI utilizou o trabalho do The Times, assim como o trabalho de várias outras fontes, para desenvolver o ChatGPT.

De acordo com a reclamação feita pelo The Times, há uma tentativa de aproveitar a grande quantia de investimento que o jornal fez em seu jornalismo, por meio do Google Chat da Microsoft (agora chamado de ‘Copilot’) e do ChatGPT da OpenAI, para criar produtos similares sem autorização ou compensação financeira.

Isto não é considerado justo em qualquer aspecto.

O OpenAI está sendo processado pelo jornal The New York Times.

O New York Times entrou com um processo contra a OpenAI (e Microsoft) por suposta violação de direitos autorais, alegando que o ChatGPT copia o conteúdo do Times antes mesmo de ser publicado, além de outras reclamações.

Durante o processo, foram apresentadas provas que demonstraram como o GPT-4 seria capaz de produzir uma grande quantidade de conteúdo do New York Times sem dar crédito, como forma de comprovar que o GPT-4 viola o conteúdo do The New York Times.

A alegação de que o GPT-4 está gerando reproduções exatas do conteúdo do New York Times é significativa, pois questiona a afirmação da OpenAI de que sua utilização de dados é inovadora, o que tem implicações legais relacionadas à doutrina de uso legítimo.

O uso justo de conteúdo protegido por direitos autorais é definido como transformador pelo escritório de direitos autorais dos Estados Unidos.

A doutrina jurídica do uso do ar é uma norma que favorece a liberdade de expressão, possibilitando a utilização de obras protegidas por direitos autorais sem a necessidade de licença em certas situações.

Leia Mais:   Problema no algoritmo de classificação do Google faz com que sites sejam desclassificados nos fins de semana.

Os usos que trazem transformação são mais susceptíveis de serem vistos como justos. Esses usos transformadores são aqueles que acrescentam algo novo, com um propósito adicional ou caráter diferente, ao invés de substituir o uso original do trabalho.

Essa é a razão pela qual é essencial para o The New York Times destacar que o uso do material da OpenAI não é imparcial.

O processo movido pelo New York Times contra a OpenAI alega que…

Os defensores argumentam que o uso não autorizado de conteúdo protegido por direitos autorais para treinar modelos GenAI é considerado “uso justo” porque serve a um propósito “transformativo” novo. No entanto, não há nada de “transformativo” em usar o conteúdo do The Times… Pois as saídas dos modelos GenAI dos réus competem e imitam de perto as entradas usadas para treiná-las, portanto, copiar obras do Times para esse fim não é considerado uso justo.

A imagem a seguir exibe provas de como o GPT-4 reproduz fielmente o conteúdo do Times. O texto em vermelho representa o conteúdo original criado pelo New York Times, que foi gerado pelo GPT-4.

OpenAI: New York Times Lawsuit Based On Misuse Of ChatGPT
Imagem: astrovariable/StockVault

A resposta da OpenAI à ação do NYTimes

A OpenAI expressou uma resposta contundente contra as afirmações feitas no processo movido pelo New York Times, afirmando que ficaram surpresos com a decisão do Times de levar o caso ao tribunal, uma vez que acreditavam que as negociações estavam avançando em direção a uma solução.

O New York Times revelou uma descoberta importante sobre o OpenAI. Segundo o jornal, o GPT-4, desenvolvido pela OpenAI, é capaz de produzir conteúdo idêntico ao original. No entanto, a empresa afirma que o GPT-4 não foi projetado para gerar conteúdo idêntico e que o The New York Times utilizou técnicas para contornar as restrições do GPT-4, a fim de produzir o conteúdo questionado. Isso levanta dúvidas sobre a afirmação do The New York Times de que o conteúdo idêntico é uma ocorrência comum do GPT-4.

Leia Mais:   Como líderes de marketing, de que maneira podem impulsionar o crescimento utilizando as redes sociais?

O Prompting Adversarial é o termo utilizado para descrever um tipo de comando que é projetado para manipular o ChatGPT e produzir uma resposta indesejável.

Ataques de Prompting Adversarial se referem a estratégias maliciosas que buscam enganar ou manipular a interação entre um usuário e um sistema, com o objetivo de obter informações confidenciais ou realizar ações indesejadas.

A IA generativa é influenciada pelos diferentes tipos de solicitações feitas a ela e, apesar dos esforços dos engenheiros para impedir o uso inadequado da IA generativa, ainda há maneiras de utilizar as solicitações para obter respostas que driblam as restrições incorporadas à tecnologia, que têm como objetivo evitar resultados indesejáveis.

A OpenAI está acusando o The New York Times de utilizar técnicas de Prompting Adversarial para criar intencionalmente resultados indesejados e construir evidências de que o uso do GPT-4 com conteúdo protegido por direitos autorais não é inovador.

É relevante a afirmação da OpenAI de que houve abuso do GPT-4 pelo The New York Times, pois isso enfraquece a sugestão de que a criação de conteúdo protegido por direitos autorais seja algo comum.

Esse tipo de aviso negativo também vai contra as regras de uso da OpenAI, que estipulam:

As ações que estão fora de suas possibilidades.

  • Utilize nossos serviços de maneira que não viole, desrespeite ou prejudique os direitos de terceiros.
  • Interferir ou interromper o funcionamento dos nossos serviços, como burlar limitações de uso ou medidas de segurança que implementamos em nossos serviços.

OpenAI afirma ter desenvolvido um sistema de aplicação da lei que se baseia em protocolos manipulados.

A resposta da OpenAI argumenta que o New York Times utilizou instruções manipuladas de propósito para desafiar as proteções do GPT-4, com o objetivo de criar conteúdo original.

A empresa OpenAI expressa:

Parece que eles deliberadamente modificaram os estímulos, frequentemente adicionando extensas partes de artigos, com o objetivo de fazer com que nosso modelo reproduza o conteúdo.

Apesar de usar esses estímulos, nossos modelos geralmente não agem da maneira sugerida pelo The New York Times, o que indica que eles não foram instruídos a regurgitar ou selecionar seletivamente seus exemplos de várias tentativas.

Leia Mais:   Falha de segurança identificada no Plugin Elementor para WordPress.

O OpenAI também se opôs à ação do The New York Times, alegando que os métodos empregados pelo jornal para criar conteúdo por meio de palavras foram uma transgressão das atividades permitidas pelos usuários e um uso inadequado.

Eles estão escrevendo.

“Embora o usuário faça alegações, essa utilização inadequada não é uma atividade comum ou permitida.”

A OpenAI informou que está se mantendo preparada para combater os tipos de ataques de alerta adversário utilizados pelo The New York Times.

Eles estão escrevendo.

Além disso, estamos constantemente fortalecendo nossos sistemas para evitar ataques que possam comprometer os dados de treinamento, e temos feito avanços significativos em nossos modelos mais recentes.

A OpenAI reforçou sua posição sobre a importância dos direitos autorais, mencionando sua resposta anterior de julho de 2023, na qual relatava que o ChatGPT estava produzindo respostas precisas.

Encontramos um problema no beta “Browse” do ChatGPT, onde às vezes exibe conteúdo de maneiras indesejadas. Por exemplo, se um usuário solicitar o texto completo de uma URL, ele pode inadvertidamente atender a essa solicitação. Estamos desativando a funcionalidade de Navegar enquanto corrigimos esse problema, pois queremos agir de forma correta em relação aos proprietários de conteúdo.

Mensagem do Twitter do OpenAI em 4 de julho de 2023.

A disputa entre o The New York Times e a OpenAI.

Sempre há dois pontos de vista em uma história, e a OpenAI acaba de apresentar o seu, revelando que as declarações do The New York Times são fundamentadas em ataques de oponentes e no uso inadequado do ChatGPT para obter respostas exatas.

Confira a resposta fornecida pela OpenAI:

Nós fornecemos suporte ao jornalismo, em colaboração com organizações de notícias, e não consideramos o processo movido contra o New York Times como válido.

A imagem destacada é fornecida por Shutterstock/pizzastereo.