A Administração Nacional de Telecomunicações e Informações (NTIA), uma divisão do Departamento de Comércio dos Estados Unidos, pediu comentários públicos sobre estratégias para incentivar a responsabilidade em sistemas confiáveis de inteligência artificial (IA).
O objetivo era solicitar feedback das partes interessadas para formular sugestões para um próximo relatório sobre garantia de IA e estruturas de responsabilidade. Essas sugestões podem ter norteado futuras regulamentações federais e não governamentais.
A promoção de uma IA confiável que defenda os direitos humanos e os princípios democráticos foi um dos principais focos federais de acordo com a solicitação da NTIA. No entanto, ainda havia lacunas para garantir que os sistemas de IA fossem responsáveis e aderissem a regras confiáveis de IA sobre justiça, segurança, privacidade e transparência.
Mecanismos de responsabilidade, como auditorias, avaliações de impacto e certificações, podem oferecer garantia de que os sistemas de IA seguem critérios confiáveis. Porém, a NTIA observou que a implementação da responsabilidade efetiva ainda apresentava desafios e complexidades.
A NTIA discutiu uma variedade de considerações sobre o equilíbrio entre metas de IA confiáveis, obstáculos para implementar responsabilidades, cadeias de suprimentos e cadeias de valor complexas de IA e dificuldades na padronização de medições.
Mais de 1.450 comentários sobre a responsabilidade da IA
Os comentários foram aceitos até 12 de junho para ajudar a moldar o futuro relatório da NTIA e orientar possíveis desenvolvimentos de políticas em torno da responsabilidade da IA.
O número de comentários ultrapassou 1.450.
Os comentários, que podem ser pesquisados usando palavras-chave, ocasionalmente incluem links para artigos, cartas, documentos e ações judiciais sobre o impacto potencial da IA.
Empresas de tecnologia respondem à NTIA
Os comentários incluíram feedback das seguintes empresas de tecnologia que se esforçam para desenvolver produtos de IA para o local de trabalho.
Carta da OpenAI para a NTIA
Na carta da OpenAI, ela acolheu o enquadramento da questão pela NTIA como um “ecossistema” de medidas de responsabilidade de IA necessárias para garantir uma inteligência artificial confiável.
Os pesquisadores da OpenAI acreditavam que um ecossistema de responsabilidade de IA maduro consistiria em elementos de responsabilidade geral que se aplicam amplamente em domínios e elementos verticais personalizados para contextos e aplicativos específicos.
A OpenAI tem se concentrado no desenvolvimento de modelos básicos – modelos de IA amplamente aplicáveis que aprendem com extensos conjuntos de dados.
Ele vê a necessidade de adotar uma abordagem focada na segurança para esses modelos, independentemente dos domínios específicos em que possam ser empregados.
A OpenAI detalhou várias abordagens atuais para a responsabilidade da IA. Ela publica “placas de sistema” para oferecer transparência sobre problemas significativos de desempenho e riscos de novos modelos.
Ele conduz testes qualitativos de “red teaming” para sondar capacidades e modos de falha. Ele realiza avaliações quantitativas para vários recursos e riscos. E tem políticas de uso claras que proíbem usos nocivos junto com mecanismos de fiscalização.
A OpenAI reconheceu vários desafios significativos não resolvidos, incluindo a avaliação de recursos potencialmente perigosos à medida que os recursos do modelo continuam a evoluir.
Ele discutiu questões em aberto sobre avaliações independentes de seus modelos por terceiros. E sugeriu que os requisitos de registro e licenciamento podem ser necessários para futuros modelos de fundação com riscos significativos.
Embora as práticas atuais da OpenAI se concentrem em transparência, testes e políticas, a empresa parecia aberta a colaborar com os formuladores de políticas para desenvolver medidas de responsabilidade mais robustas. Sugeriu que estruturas regulatórias personalizadas podem ser necessárias para modelos de IA competentes.
No geral, a resposta da OpenAI refletiu sua crença de que uma combinação de esforços autorregulatórios e políticas governamentais desempenhariam papéis vitais no desenvolvimento de um ecossistema de responsabilidade de IA eficaz.
Carta da Microsoft à NTIA
Em sua resposta , a Microsoft afirmou que a responsabilidade deve ser um elemento fundamental das estruturas para abordar os riscos apresentados pela IA enquanto maximiza seus benefícios. As empresas que desenvolvem e usam IA devem ser responsáveis pelo impacto de seus sistemas, e as instituições de supervisão precisam de autoridade, conhecimento e ferramentas para exercer a supervisão apropriada.
A Microsoft destacou as lições de seu programa de IA responsável, que visa garantir que as máquinas permaneçam sob controle humano. A responsabilidade é incorporada à estrutura de governança e ao padrão de IA responsável e inclui:
- Realização de avaliações de impacto para identificar e abordar possíveis danos.
- Supervisão adicional para sistemas de alto risco.
- Documentação para garantir que os sistemas sejam adequados à finalidade.
- Práticas de governança e gerenciamento de dados.
- Avanço da direção e controle humanos.
- A Microsoft descreveu como conduz o red teaming para descobrir possíveis danos e falhas e publica notas de transparência para seus serviços de IA. O novo mecanismo de pesquisa Bing da Microsoft aplica essa abordagem de IA responsável.
A Microsoft fez seis recomendações para promover a responsabilidade:
- Desenvolva o AI Risk Management Framework do NIST para acelerar o uso de mecanismos de responsabilidade, como avaliações de impacto e red teaming, especialmente para sistemas de IA de alto risco.
- Desenvolva uma estrutura legal e regulatória com base na pilha de tecnologia de IA, incluindo requisitos de licenciamento para modelos de fundação e provedores de infraestrutura.
- Promova a transparência como um facilitador da responsabilidade, como por meio de um registro de sistemas de IA de alto risco.
- Invista na capacitação de legisladores e reguladores para acompanhar os desenvolvimentos da IA.
- Invista em pesquisas para melhorar os benchmarks de avaliação de IA, explicabilidade, interação humano-computador e segurança.
- Desenvolva e alinhe-se aos padrões internacionais para sustentar um ecossistema de garantia, incluindo padrões ISO AI e padrões de proveniência de conteúdo.
- No geral, a Microsoft parecia pronta para fazer parceria com as partes interessadas para desenvolver e implementar abordagens eficazes para a responsabilidade da IA.
A Microsoft, em geral, parecia estar pronta para fazer parceria com as partes interessadas para desenvolver e implementar abordagens eficazes para a responsabilidade da IA.
Carta do Google para a NTIA
A resposta do Google acolheu a solicitação da NTIA de comentários sobre as políticas de responsabilidade da IA. Ele reconheceu a necessidade de autorregulação e governança para alcançar uma IA confiável.
O Google destacou seu próprio trabalho sobre segurança e ética de IA, como um conjunto de princípios de IA focados em justiça, segurança, privacidade e transparência. O Google também implementou práticas de IA responsável internamente, incluindo a realização de avaliações de risco e avaliações de imparcialidade.
O Google endossou o uso de estruturas regulatórias existentes quando aplicável e intervenções baseadas em risco para IA de alto risco. Ele incentivou o uso de uma abordagem colaborativa e baseada em consenso para o desenvolvimento de padrões técnicos.
O Google concordou que mecanismos de responsabilidade, como auditorias, avaliações e certificações, poderiam fornecer garantia de sistemas de IA confiáveis. Mas observou que esses mecanismos enfrentam desafios na implementação, incluindo a avaliação da multiplicidade de aspectos que afetam os riscos de um sistema de IA.
O Google recomendou focar os mecanismos de responsabilidade nos principais fatores de risco e sugeriu o uso de abordagens voltadas para as formas mais prováveis de os sistemas de IA impactarem significativamente a sociedade.
O Google recomendou um modelo “hub-and-spoke” de regulamentação de IA, com reguladores setoriais supervisionando a implementação da IA com orientação de uma agência central como o NIST. Ele apoiou o esclarecimento de como as leis existentes se aplicam à IA e incentivou medidas proporcionais de responsabilidade baseadas em risco para IA de alto risco.
Como outros, o Google acreditava que exigiria uma mistura de autorregulação, padrões técnicos e políticas governamentais limitadas e baseadas em risco para promover a responsabilidade da IA.
Carta antrópica para a NTIA
A resposta da Anthropic descreveu a crença de que um ecossistema de responsabilidade de IA robusto requer mecanismos personalizados para modelos de IA. Ele identificou vários desafios, incluindo a dificuldade de avaliar rigorosamente os sistemas de IA e acessar informações confidenciais necessárias para auditorias sem comprometer a segurança.
Financiamento apoiado pela Anthropic para o seguinte:
- Avaliações de modelo: As avaliações atuais são uma colcha de retalhos incompleta e requerem conhecimento especializado. Ele recomendou a padronização das avaliações de capacidade com foco em riscos como engano e autonomia.
- Pesquisa de interpretabilidade: subsídios e financiamento para pesquisa de interpretabilidade podem permitir modelos mais transparentes e compreensíveis. No entanto, as regulamentações que exigem interpretabilidade são atualmente inviáveis.
- Pré-registro de grandes execuções de treinamento de IA: os desenvolvedores de IA devem relatar grandes execuções de treinamento aos reguladores para informá-los sobre novos riscos sob proteções de confidencialidade apropriadas.
- Red teaming externo: teste contraditório obrigatório de sistemas de IA antes do lançamento, seja por meio de uma organização centralizada como o NIST ou via acesso de pesquisador. No entanto, o talento do red-teaming atualmente reside em laboratórios privados de IA.
- Auditores com conhecimento técnico, consciência de segurança e flexibilidade: os auditores precisam de uma profunda experiência em aprendizado de máquina enquanto evitam vazamentos ou hackers, mas também devem operar dentro de restrições que promovam a competitividade.
- A Anthropic recomendou medidas de responsabilidade de escopo com base nas capacidades de um modelo e riscos demonstrados, avaliados por meio de avaliações de capacidades direcionadas. Ele sugeriu esclarecer as estruturas de propriedade de IP para IA para permitir o licenciamento justo e fornecer orientação sobre questões antitruste para permitir colaborações de segurança.
- No geral, a Anthropic enfatizou as dificuldades de avaliar rigorosamente e acessar informações sobre sistemas avançados de IA devido à sua natureza sensível. Ele argumentou que avaliações de capacidade de financiamento, pesquisa de interpretabilidade e acesso a recursos computacionais são essenciais para um ecossistema de responsabilidade de IA eficaz que beneficia a sociedade.
O que esperar a seguir
As respostas à solicitação de comentários da NTIA mostram que, embora as empresas de IA reconheçam a importância da responsabilidade, ainda há questões e desafios em aberto sobre a implementação e o dimensionamento efetivo dos mecanismos de responsabilidade.
Eles também indicam que tanto os esforços autorregulatórios das empresas quanto as políticas governamentais desempenharão um papel no desenvolvimento de um ecossistema robusto de responsabilidade da IA.
Daqui para frente, espera-se que o relatório da NTIA faça recomendações para promover o ecossistema de responsabilidade da IA, aproveitando e desenvolvendo os esforços existentes de autorregulação, padrões técnicos e políticas governamentais. A contribuição das partes interessadas por meio do processo de comentários provavelmente ajudará a moldar essas recomendações.
No entanto, a implementação de recomendações em mudanças políticas concretas e práticas do setor que podem transformar a forma como a IA é desenvolvida, implantada e supervisionada exigirá coordenação entre agências governamentais, empresas de tecnologia, pesquisadores e outras partes interessadas.
O caminho para a responsabilidade madura da IA promete ser longo e difícil. Mas essas etapas iniciais mostram que há impulso para atingir esse objetivo.