Sat. Dec 2nd, 2023

John Villafranco, da Kelley Drye, é um parceiro que oferece serviços de contencioso e consultoria para empresas domésticas e Fortune 500, com atenção para a lei de publicidade e direitos do consumidor. As visões contidas neste artigo são da responsabilidade do autor.

À medida que a tecnologia de inteligência artificial (AI) vai acelerando, as leis também se esforçam para acompanhar o passo, visando mitigar os possíveis perigos decorrentes de modelos cada vez mais poderosos. As companhias que usam a IA estão descobrindo as muitas oportunidades oferecidas por ela, mas também estão aprendendo a lidar com as preocupações jurídicas relacionadas a áreas como a proteção do consumidor, a privacidade e a ética.

Por exemplo, tecnologias como o ChatGPT e outros Modelos de Língua Grande (LLMs) podem criar resultados enganadores, tendenciosos, ilegais ou inexatos para o usuário. Nestes casos, torna-se difícil identificar o erro ou responsabilizar alguém pelas consequências. Estas questões têm sido reconhecidas pelo diretor executivo da OpenAI, Sam Altman, e requerem regulação, o que pode trazer riscos e responsabilidades para os anunciantes e profissionais de marketing, mas que acima de tudo prioriza a segurança.

A Comissão do Comércio Federal fornece diretrizes para serem seguidas.

A Comissão Federal de Comércio (FTC) afirmou que, se a atividade for comercial, considera-se estar dentro de seu alcance. Se essa conduta gerar dano aos consumidores, as organizações devem esperar a ação da FTC. Isto se aplica tanto à Inteligência Artificial como a qualquer outra forma de publicidade e marketing tradicionais.

O FTC aconselhou recentemente os usuários de inteligência artificial para evitar práticas que possam provocar prejuízos, bem como empregar a tecnologia de modo a não orientar as pessoas desonestamente ou de forma desigual em decisões que possam causar danos. A atenção foi direcionada a áreas como finanças, saúde, educação, moradia e emprego.

Leia Mais:   Por que você deve adicionar localização à sua estratégia de marketing

A FTC indicou que a manipulação pode ser considerada uma conduta desleal ou enganosa de acordo com a Seção 5 da Lei FTC se a saída de inteligência artificial for direcionar o consumidor para um determinado website, serviço ou produto, devido a uma relação comercial. Esta orientação segue o foco da FTC sobre os chamados “padrões escuros”, práticas de design complexas ou formatos que induzem ou enganam os consumidores a tomar ações que não seriam tomadas de outra maneira.

No último mês, a FTC alertou as companhias sobre o uso excessivo de chatbots e inteligência artificial geradora para atender aos seus clientes e responder às suas dúvidas. Esta advertência foi em resposta ao filme de suspense psicológico lançado em 2014, chamado “Ex Machina”. A FTC está preocupada com a limitação da tecnologia para lidar com problemas complexos, a possibilidade de informações incorretas ou insuficientes e os riscos associados à segurança.

Numa reportagem recente apresentada no New York Times, a presidente da FTC, Lina Khan, declarou que a agência está examinando maneiras de cumprir seu compromisso duplo de promover a concorrência justa e defender os americanos de publicidade imprópria ou desonestas. Sua principal preocupação em relação à Inteligência Artificial é evitar que ela seja usada para aumentar as vantagens das grandes empresas de tecnologia incumbentes, porém, as práticas de publicidade injustas e enganosas relacionadas à IA também estão no alvo da FTC.

Grandes inquietações a respeito da privacidade

O uso de sistemas de aprendizado de máquina (LLMs) em produtos relacionados ao negócio aumenta o risco de preocupações em relação à privacidade, o que pode ser prejudicial para a imagem da empresa, bem como suscitar dúvidas sobre sua ética por parte dos consumidores e dos órgãos reguladores do governo. Por exemplo, o ChatGPT pode …

  • Utilize de forma consciente ou por acaso dados pessoais adquiridos sem nenhuma fundamentação legal ou sem a devida transparência e alertas apropriados.
  • Divulgar os detalhes particulares ou referências dos usuários a terceiros, que podem ter acesso a ou examinar os acessos e saídas da ferramenta, pondo em risco potencial a segurança dos dados ou responsabilidades de discrição.
  • Divulgar detalhes críticos fornecidos ao recurso, de forma intencional ou acidental, incluindo registros financeiros, saúde ou informações confidenciais de negócios, o que pode acarretar responsabilidade por violações de informações.
Leia Mais:   3 estratégias de marketing digital que economizarão 20 horas por semana

Qualquer um destes desfechos pode expor uma empresa a responsabilidades sob a legislação da FTC e leis estaduais que proíbem ações e práticas injustas e fraudulentas.

Atualmente, vários questionamentos e demandas estão sendo feitos em relação à Inteligência Artificial, juntamente com os processos que lhe são associados.

As partes interessadas estão vigilante e prontas para tomar passos para manter as corporações responsáveis. Por exemplo, o Centro de Inteligência Artificial e Política Digital (CAIDP) recentemente apresentou um pedido ao FTC, solicitando que a agência investigasse o OpenAI, alegando que suas práticas comerciais são ilegais e fraudulentas em violação à Lei FTC, levantando questões graves sobre preconceito, segurança infantil, proteção ao consumidor, segurança cibernética, engano, privacidade, transparência e segurança pública.

Numerosos processos particulares também foram descartados alegando violações de direitos autorais devido à Inteligência Artificial. Por exemplo, Microsoft, GitHub e Open AI são atualmente acusados em uma ação de classe fora da Califórnia que declara que seu gerador de código de IA infringe a lei de direitos autorais, criando código licenciado sem fornecer reconhecimento. Getty Images também entrou com uma ação contra a Stability AI, sustentando que sua ferramenta de IA de arte raspava imagens de seu site.

E a preocupação é global, não apenas doméstica. Em março de 2023, Garante, Autoridade de supervisão de dados da Itália, ordenou que a OpenAI parasse de processar os dados dos usuários italianos sob uma proibição temporária, afirmando que o ChatGPT provavelmente viola o GDPR (falta de aviso aos usuários, nenhuma base legal para o processamento, falha em verificar a idade dos usuários ou impedir que as crianças usem o serviço). Além disso, o Escritório de Privacidade do Canadá abriu uma investigação sobre o OpenAI sobre a “coleção, uso e divulgação de informações pessoais sem consentimento”. O escritório do comissário de privacidade Philippe Dufresne afirmou que ficar à frente de “avanços tecnológicos em movimento rápido” é uma área chave de foco.

Leia Mais:   Como criar um cabeçalho do Twitter que atrai seguidores

Levar em conta a opinião dos especialistas em marketing é crucial para a realização de um plano de marketing bem-sucedido.

Com tantas pessoas interessadas na Inteligência Artificial, anunciantes e profissionais de marketing devem agir com cautela. Enquanto os benefícios de usar sistemas avançados começam a se tornar evidentes, é preciso garantir que a segurança seja implementada, que os dados sejam tratados de forma responsável, que as práticas sejam claras e que seja assegurada a confiabilidade dos fatos, supervisionada por humanos e permitindo a intervenção.