Análise

OpenAI, Microsoft, Google e Anthropic atendem ao apelo de responsabilidade da NTIA.

A NTIA, uma divisão do Departamento de Comércio dos EUA, solicitou opiniões do público sobre formas de promover a responsabilidade em sistemas de inteligência artificial confiáveis.

O propósito era pedir a opinião das partes interessadas a fim de criar recomendações para um futuro relatório sobre as normas de garantia e responsabilidade da inteligência artificial. Essas recomendações poderiam ter influenciado as futuras regulamentações tanto governamentais quanto não governamentais.

Promover a inteligência artificial confiável que respeite os direitos humanos e os princípios democráticos foi uma prioridade central do governo federal conforme solicitado pela NTIA. No entanto, ainda há desafios em assegurar que os sistemas de IA sejam responsáveis e cumpram com normas confiáveis sobre justiça, segurança, privacidade e transparência.

Formas de responsabilidade, como auditorias, avaliações de impacto e certificações, podem assegurar que os sistemas de IA cumpram critérios confiáveis. No entanto, a NTIA notou que a aplicação eficaz da responsabilidade ainda enfrentava dificuldades e complicações.

A NTIA abordou várias questões relacionadas ao equilíbrio entre metas confiáveis de inteligência artificial, desafios na aplicação da responsabilidade, complexidade das cadeias de suprimentos de IA e cadeias de valor, e dificuldades na definição de padrões de medição.

Mais de 1,450 opiniões sobre a responsabilidade da Inteligência Artificial.

Os comentários foram recebidos até o dia 12 de junho para contribuir com a elaboração do próximo relatório da NTIA e direcionar possíveis avanços políticos relacionados à responsabilidade da inteligência artificial.

Foram feitos mais de 1,450 comentários.

Os comentários podem ser encontrados através de palavras-chave e, às vezes, contêm links para informações adicionais, como artigos, cartas, documentos e estudos sobre os possíveis efeitos da Inteligência Artificial.

Empresas do setor de tecnologia estão dando retorno à NTIA.

As observações abrangeram opiniões de empresas de tecnologia dedicadas a criar produtos de inteligência artificial para uso no ambiente de trabalho.

Mensagem da OpenAI para o NTIA

No comunicado da OpenAI, foi bem recebida a designação da NTIA como um conjunto de ações de responsabilidade em inteligência artificial essenciais para assegurar a confiabilidade da mesma.

Os pesquisadores da OpenAI consideravam que um sistema de responsabilidade de inteligência artificial bem desenvolvido consistia em elementos de responsabilidade abrangentes que são aplicáveis em diversos setores, juntamente com componentes específicos adaptados para contextos e finalidades particulares.

A OpenAI tem se dedicado ao desenvolvimento de modelos fundamentais – modelos de inteligência artificial versáteis que se baseiam em grandes conjuntos de dados para aprender.

Ele reconhece a importância de adotar uma estratégia de segurança específica para esses modelos, não importando em que áreas eles sejam utilizados.

A OpenAI apresentou diferentes formas atuais de lidar com a responsabilidade da inteligência artificial. A organização cria “cartões de sistema” para fornecer informações claras sobre questões importantes de desempenho e possíveis riscos de novos modelos.

Realiza testes de “combinação vermelha” para explorar recursos e possíveis falhas, conduzindo também avaliações quantitativas sobre capacidades e riscos. Conta com diretrizes de utilização bem definidas que proíbem práticas prejudiciais, além de possuir mecanismos de fiscalização.

A OpenAI identificou diversos obstáculos importantes que ainda não foram superados, como a necessidade de avaliar capacidades que possam ser perigosas à medida que os modelos se tornam mais avançados.

Ele abordou questões em aberto sobre a avaliação independente de seus modelos por terceiros e indicou a possibilidade de exigir registro e licenciamento para os próximos modelos de fundação com riscos consideráveis.

Enquanto a OpenAI atualmente se dedica à transparência, testes e políticas, ela expressou disposição em trabalhar com autoridades para aprimorar as medidas de responsabilidade. A empresa indicou que regulamentações específicas podem ser essenciais para modelos de IA avançados.

Em linhas gerais, a posição da OpenAI demonstrou sua convicção de que tanto a regulação interna quanto as políticas governamentais seriam fundamentais para a criação de um ambiente eficaz de responsabilidade na inteligência artificial.

Mensagem da Microsoft para a NTIA.

A Microsoft destacou que a responsabilidade deve ser um aspecto essencial dos modelos de gestão dos riscos da inteligência artificial, visando potencializar suas vantagens. As companhias envolvidas na criação e utilização de IA devem assumir a responsabilidade pelos efeitos de seus sistemas, enquanto as entidades de fiscalização necessitam de autoridade, expertise e recursos para realizar uma supervisão eficaz.

A Microsoft apresentou as principais ideias de seu programa de Inteligência Artificial Responsável, que tem como objetivo assegurar que os seres humanos mantenham o controle sobre as máquinas. A responsabilidade é incorporada em sua estrutura de governança e Padrão de Inteligência Artificial Responsável e engloba:

  • Realizar análises de impacto a fim de identificar e solucionar eventuais prejuízos.
  • Monitoramento extra para sistemas de elevado potencial de perigo.
  • Garantir que a documentação seja suficiente para assegurar que os sistemas atendam às necessidades previstas.
  • Gestão de dados e práticas de governança.
  • Progredir em termos de gestão e domínio sobre os assuntos humanos.
  • A Microsoft explicou o processo pelo qual orienta a equipe encarregada de identificar potenciais problemas e falhas, e divulga informações transparentes sobre seus serviços de inteligência artificial. O Bing, o novo mecanismo de busca da Microsoft, adota essa estratégia de Inteligência Artificial Responsável.

A Microsoft apresentou seis sugestões para fomentar a responsabilidade.

  • Desenvolva o Framework de Gerenciamento de Riscos de IA da NIST para promover a adoção mais rápida de medidas de responsabilidade, como avaliações de impacto e colaborações de equipe especializada, sobretudo em sistemas de IA considerados de alto risco.
  • Criar um arcabouço legal e regulatório com base na tecnologia de inteligência artificial, estabelecendo critérios de licenciamento para modelos fundamentais e fornecedores de infraestrutura.
  • Melhorar a transparência como um meio para promover a responsabilidade, como através da criação de um registro para sistemas de inteligência artificial de alto risco.
  • Investir na formação de legisladores e reguladores para que possam acompanhar os avanços da inteligência artificial.
  • Investir em estudos para aprimorar os parâmetros de avaliação da inteligência artificial, transparência, interação entre humanos e computadores, e proteção.
  • Elabore e adapte-se a normas internacionais para promover um ambiente de garantia, que englobe normas ISO para Inteligência Artificial e normas de comprovação de conteúdo.
  • De maneira geral, a Microsoft demonstrou estar disposta a colaborar com as partes interessadas na criação e execução de estratégias eficazes para lidar com a responsabilidade da inteligência artificial.

A Microsoft estava preparada para colaborar com os envolvidos a fim de criar e aplicar estratégias eficazes para a responsabilidade da inteligência artificial.

Mensagem enviada pelo Google para a NTIA.

O Google respondeu ao pedido da NTIA para compartilhar opiniões sobre políticas de responsabilidade relacionadas à inteligência artificial. Destacou a importância da autorregulação e da governança para garantir a confiabilidade da IA.

O Google ressaltou suas próprias atividades relacionadas à segurança e ética da inteligência artificial, apresentando um conjunto de princípios de IA que se concentram em justiça, segurança, privacidade e transparência. A empresa também adotou práticas internas de IA responsável, como a condução de avaliações de risco e de equidade.

O Google apoiou a utilização das atuais estruturas regulatórias para intervir em situações de alto risco envolvendo inteligência artificial. Encorajou a adoção de uma abordagem colaborativa e consensual para estabelecer padrões técnicos.

A Google admitiu que métodos de responsabilidade, como auditorias, avaliações e certificações, poderiam assegurar sistemas de inteligência artificial confiáveis. No entanto, destacou que a implementação desses métodos enfrenta dificuldades devido à necessidade de avaliar diversos fatores que influenciam os riscos de um sistema de IA.

O Google sugeriu utilizar estratégias de responsabilidade que se concentrem nos principais fatores de risco, visando abordar as maneiras mais prováveis pelas quais os sistemas de IA podem ter um impacto significativo na sociedade.

O Google propôs um modelo de regulação de IA chamado “hub-and-spoke”, no qual reguladores setoriais supervisionam a implementação da IA, sob a orientação de uma agência central como o NIST. A empresa apoiou a ideia de esclarecer como as leis atuais se aplicam à IA e defendeu a adoção de medidas de responsabilidade proporcionais, baseadas nos riscos associados à IA de alto nível.

Assim como os demais, o Google considerava que seria necessário uma combinação de auto-regulação, normas técnicas e políticas governamentais restritas e baseadas em risco para incentivar a responsabilidade da inteligência artificial.

Reescreva o texto “Carta antrópica à NTIA” com suas próprias palavras.

A explicação da Anthropic mencionou a ideia de que um sistema de responsabilidade de inteligência artificial forte precisa ter mecanismos específicos para os modelos de IA. Ela apontou diversos obstáculos, como a complexidade de avaliar de forma rigorosa os sistemas de IA e obter acesso a dados sensíveis necessários para auditorias sem comprometer a segurança.

Financiamento humano apoiado para isto.

  • A avaliação do modelo atual é considerada fragmentada e requer conhecimento especializado. É sugerido que as avaliações de desempenho sejam uniformizadas, com foco em identificar riscos como erro e autonomia.
  • Reformulação: A obtenção de recursos e financiamento para pesquisa de interpretação pode facilitar a criação de modelos mais claros e acessíveis. No entanto, as normas que requerem a interpretação estão atualmente fora de alcance.
  • Recomenda-se que os desenvolvedores de inteligência artificial façam o pré-registro de grandes processos de treinamento para informar os reguladores sobre possíveis novos riscos, garantindo a confidencialidade necessária.
  • Equipe vermelha externa: É necessário realizar testes de adversários nos sistemas de inteligência artificial antes de sua liberação, seja por meio de uma entidade centralizada como o NIST ou por meio do acesso de pesquisadores. No entanto, atualmente, a expertise em red-teaming está concentrada em laboratórios privados de IA.
  • Reformulação: Auditores devem possuir habilidades técnicas avançadas, estar conscientes da importância da segurança e serem flexíveis. É essencial que tenham um sólido conhecimento em aprendizado de máquina para evitar violações de segurança, ao mesmo tempo em que respeitam limitações que estimulem a competitividade.
  • Recomenda-se medidas humanas de delimitação de responsabilidade com base nas habilidades de um modelo e na avaliação dos riscos, por meio de avaliações de capacidades específicas. É sugerido que sejam esclarecidas as estruturas de propriedade intelectual para inteligência artificial, visando facilitar a licença justa, e oferecer orientações sobre questões antitruste para promover colaborações seguras.
  • Geralmente, a Anthropic ressaltou os desafios de avaliar de forma precisa e obter informações sobre sistemas avançados de inteligência artificial devido à sua natureza delicada. Ele defendeu que as avaliações de financiamento, interpretação de pesquisas e acesso a recursos computacionais são essenciais para um ambiente de responsabilidade de IA eficaz que traga benefícios para a sociedade.

Quais são as expectativas para o futuro?

As respostas à solicitação de feedback da NTIA indicam que as empresas de inteligência artificial reconhecem a importância da responsabilidade, porém ainda enfrentam questões e desafios na implementação e escalabilidade eficaz dos mecanismos de responsabilidade.

Eles também apontam que tanto as iniciativas de autorregulação por parte das empresas quanto as políticas governamentais serão importantes para a criação de um ambiente sólido de responsabilidade na área de inteligência artificial.

Espera-se que o relatório da NTIA proponha medidas para impulsionar o desenvolvimento do ambiente de responsabilidade da inteligência artificial, utilizando e fortalecendo iniciativas autorregulatórias, normas técnicas e políticas governamentais já existentes. A contribuição das partes interessadas por meio do processo de comentários provavelmente terá influência na definição dessas recomendações.

No entanto, será necessário haver colaboração entre agências governamentais, empresas de tecnologia, pesquisadores e outros envolvidos para colocar em prática recomendações que possam modificar a forma como a IA é criada, implementada e monitorada na indústria.

O percurso rumo ao amadurecimento da responsabilidade da Inteligência Artificial se apresenta como uma jornada desafiadora e prolongada. No entanto, os primeiros avanços indicam que há um impulso para atingir essa meta.

A imagem destacada é fornecida por EQRoy/Shutterstock.

Artigos relacionados

Back to top button