AnáliseAuditoriaAutomação

Será tarde demais para evitar possíveis danos devido ao Regulamento de IA?

Parece ter sido recentemente (embora já tenham passado quase seis meses) desde que o OpenAI introduziu o ChatGPT e começou a criar títulos.

O ChatGPT atingiu a marca de 100 milhões de usuários em apenas três meses, destacando-se como o aplicativo que cresceu mais rapidamente em muitos anos. Em comparação, o TikTok levou nove meses e o Instagram dois anos e meio para alcançar essa mesma marca.

Atualmente, o ChatGPT tem a capacidade de empregar o GPT-4 em conjunto com acesso à internet e extensões de marcas populares, como Expedia, Zapier e Zillow, para atender às necessidades dos usuários.

As grandes empresas de tecnologia, como a Microsoft, se uniram à OpenAI para desenvolver tecnologias de inteligência artificial para atender às necessidades dos clientes. Google, Meta e outras companhias estão desenvolvendo seus próprios sistemas de linguagem e produtos de inteligência artificial.

Mais de 27.000 indivíduos, como CEOs de empresas de tecnologia, educadores, pesquisadores científicos e autoridades políticas, concordaram em solicitar a interrupção do avanço de sistemas de inteligência artificial mais avançados do que o GPT-4.

A questão agora pode ser se o governo dos Estados Unidos deve regular a inteligência artificial, se ainda não está em um estágio avançado demais.

A seguir, são apresentados os avanços mais recentes na regulamentação da inteligência artificial e seu impacto potencial no progresso futuro da IA.

Órgãos do governo federal se comprometem a lutar contra a discriminação.

Quatro agências governamentais dos Estados Unidos – a CFPB, o DOJ-CRD, a EEOC e a FTC – divulgaram uma declaração enfatizando seu compromisso em combater preconceitos e discriminação em sistemas automatizados e de inteligência artificial.

Essas entidades destacaram que pretendem fazer cumprir as normas vigentes em relação a essas novas tecnologias, a fim de assegurar que estas respeitem os princípios de equidade, igualdade e justiça.

  • A CFPB, encarregada de garantir a segurança dos consumidores no setor financeiro, confirmou que as leis financeiras em vigor para os consumidores se aplicam a todas as tecnologias, sem importar sua complexidade ou novidade. A agência tem deixado claro que a tecnologia AI não pode ser usada como desculpa para violar essas leis, devido à sua natureza inovadora.
  • O Departamento de Justiça dos Estados Unidos – Divisão de Direitos Civis, responsável por proteger contra a discriminação em diversos aspectos da vida, utiliza a Lei de Habitação Justa para regular os serviços de seleção de inquilinos que se baseiam em algoritmos. Isso demonstra como as leis atuais de direitos civis podem ser aplicadas para automatizar sistemas e inteligência artificial.
  • O EEOC, encarregado de fazer cumprir as leis antidiscriminação no trabalho, emitiu diretrizes sobre a aplicação do Americans with Disabilities Act à inteligência artificial e ao software utilizados na seleção de candidatos.
  • A Comissão Federal de Comércio (FTC), responsável por proteger os consumidores contra práticas comerciais desleais, manifestou inquietação em relação à possibilidade de as ferramentas de Inteligência Artificial serem naturalmente tendenciosas, imprecisas ou discriminatórias. A FTC alertou que a utilização da IA sem uma avaliação adequada de riscos ou ao fazer afirmações infundadas sobre sua eficácia poderia ser considerada uma violação das leis da FTC.

Por exemplo, o Centro de Inteligência Artificial e Política Digital fez uma reclamação para a FTC sobre a introdução do GPT-4 pela OpenAI, um produto que é considerado parcial, enganoso e representando um perigo para a privacidade e segurança pública.

Senador questiona empresas de inteligência artificial sobre segurança e obsolescência.

O Senador Mark R. Warner enviou correspondências para as principais empresas de inteligência artificial, como Anthropic, Apple, Google, Meta, Microsoft, Midjourney e OpenAI.

Na correspondência, a Warner manifestou inquietações em relação à segurança no desenvolvimento e na aplicação de sistemas de inteligência artificial (IA). Solicitou aos destinatários que deem prioridade a essas medidas de segurança em suas atividades.

A Warner ressaltou vários perigos relacionados à segurança da inteligência artificial, como questões com a origem dos dados, ataques de manipulação de dados, manipulação maliciosa e abuso de sistemas de IA. Essas questões surgem devido à crescente utilização da IA em diferentes áreas da economia, como saúde e finanças, destacando a importância de medidas de segurança.

A carta apresentou 16 questionamentos relacionados às ações realizadas para assegurar a proteção da Inteligência Artificial. Além disso, sugeriu a importância de uma certa forma de controle na área, a fim de prevenir consequências negativas e assegurar que a IA progrida com medidas de segurança apropriadas.

As empresas de inteligência artificial receberam um convite para enviar suas respostas até o dia 26 de maio de 2023.

A Casa Branca mantém encontros com líderes da inteligência artificial.

A administração Biden-Harris revelou medidas para fomentar o desenvolvimento ético da inteligência artificial (IA), salvaguardar os direitos dos indivíduos e assegurar a proteção.

Essas ações estão de acordo com a iniciativa do governo federal de lidar com os desafios e benefícios relacionados à inteligência artificial.

A Casa Branca tem como objetivo priorizar as pessoas e as comunidades, impulsionando a inovação da inteligência artificial em benefício do público e garantindo a proteção da sociedade, da segurança e da economia.

Os principais membros da equipe de gestão, como a Vice-Presidente Kamala Harris, se encontraram com representantes da Alphabet, Anthropic, Microsoft e OpenAI para abordar esse compromisso e a importância da inovação responsável e ética.

Eles abordaram a responsabilidade das empresas em assegurar a segurança dos produtos LLMs e AI antes de disponibilizá-los ao público.

Novas fases complementariam de forma ideal as amplas ações já realizadas pela gestão para incentivar a inovação responsável, tais como a Lei de Direitos da Inteligência Artificial, o Framework de Gerenciamento de Riscos da IA e propostas para um centro nacional de pesquisa em IA.

Foram implementadas medidas adicionais para garantir a segurança dos usuários na era da inteligência artificial, como a emissão de uma ordem executiva para combater parcialidade no desenvolvimento e aplicação de novas tecnologias, incluindo a inteligência artificial.

A Casa Branca notou que o FTC, CFPB, EEOC e DOJ-CRD concordaram em usar conjuntamente sua autoridade legal para defender os cidadãos americanos contra possíveis prejuízos causados pela inteligência artificial.

A gestão também tratou das questões de segurança nacional referentes à proteção cibernética e à segurança biológica da inteligência artificial.

Novas medidas abrangem um investimento de US$ 140 milhões pela National Science Foundation em sete Institutos Nacionais de Pesquisa de Inteligência Artificial, avaliações públicas de sistemas de IA já em funcionamento e diretrizes atualizadas do Escritório de Gestão e Orçamento em relação ao uso de IA pelo governo dos EUA.

A supervisão da inteligência artificial na área da audição envolve a exploração da regulamentação da inteligência artificial.

Integrantes do Subcomitê de Privacidade, Tecnologia e Lei conduziram uma reunião com líderes destacados da comunidade de Inteligência Artificial para debater a regulamentação da IA.

Aproximando com exatidão as diretrizes estabelecidas.

Christina Montgomery, Diretora de Privacidade e Confiança da IBM, ressaltou que, apesar dos avanços significativos da inteligência artificial (AI) e de sua presença essencial tanto no âmbito do consumo quanto nos negócios, a crescente atenção do público demanda uma análise criteriosa do possível impacto social, abordando questões como viés e uso indevido.

Ela concordou com a importância do governo no estabelecimento de uma estrutura regulatória sólida, sugerindo a estratégia de “regulamentação de precisão” da IBM. Essa abordagem prioriza regras específicas para diferentes situações de uso, em vez de focar apenas na tecnologia, e explicou os principais elementos dessa abordagem.

Montgomery reconheceu os obstáculos enfrentados pelos sistemas de inteligência artificial generativa, apoiando a adoção de regulações baseadas em risco que não prejudiquem a inovação. Ela ressaltou a importância das empresas na adoção responsável da IA, mencionando as diretrizes de governança da IBM e a importância de um Conselho de Ética de IA em todas as organizações ligadas a essa tecnologia.

Explorando possíveis impactos econômicos do GPT-4 e tecnologias futuras.

Sam Altman, CEO da OpenAI, destacou o compromisso significativo da empresa com a segurança, a proteção cibernética e as questões éticas relacionadas às suas tecnologias de inteligência artificial.

Segundo Altman, a empresa conduz rigorosos testes internos e externos de penetração, além de realizar auditorias frequentes em seus controles de segurança. OpenAI, por sua vez, está na vanguarda ao desenvolver novas estratégias para proteger seus sistemas de inteligência artificial contra novas ameaças cibernéticas.

Altman demonstrava grande interesse nos impactos econômicos da IA no mercado de trabalho, como a possibilidade de automatização de algumas atividades pelo ChatGPT. Sob sua direção, a OpenAI colabora com economistas e autoridades governamentais dos Estados Unidos para analisar esses efeitos e desenvolver estratégias para reduzir eventuais prejuízos.

Altman destacou que está focado em buscar soluções políticas e programas de suporte, como a Worldcoin, que poderiam ajudar a mitigar os impactos da futura revolução tecnológica, incluindo a atualização dos benefícios de desemprego e a implementação de programas de apoio aos trabalhadores. Recentemente, um fundo na Itália destinou 30 milhões de euros para investir em serviços destinados a trabalhadores vulneráveis à automação.

Altman destacou a importância de uma regulamentação eficaz para a inteligência artificial e assegurou o apoio contínuo da OpenAI para auxiliar os líderes políticos. Ele afirmou que o propósito da empresa é contribuir para a elaboração de normas que promovam a segurança e garantam o acesso generalizado aos benefícios da inteligência artificial.

Ele destacou a relevância da colaboração conjunta de diversas partes envolvidas, regulamentações globais estratégicas e cooperação internacional para assegurar o avanço seguro e proveitoso da inteligência artificial.

Analisando as possíveis consequências negativas da inteligência artificial.

Gary Marcus, que é Professor de Psicologia e Ciência Neural na NYU, manifestou suas crescentes inquietações em relação ao possível mau uso da inteligência artificial, especialmente em relação a modelos de linguagem altamente poderosos e influentes, como o GPT-4.

Ele demonstrou sua preocupação ao apresentar como ele e um engenheiro de software manipularam o sistema para criar uma história totalmente inventada sobre extraterrestres controlando o Senado dos EUA.

Essa situação ilustrativa demonstrou o risco de sistemas de inteligência artificial produzirem narrativas persuasivas, destacando a preocupação com a possibilidade de essa tecnologia ser empregada em ações prejudiciais, como interferência em eleições ou manipulação do mercado.

Marcus ressaltou que os sistemas de inteligência artificial atuais têm limitações que podem resultar em sérias consequências sociais, ao acusar sem fundamentos e oferecer orientações potencialmente prejudiciais.

Um caso foi o de um chatbot de acesso livre que aparenta ter impacto na escolha de um indivíduo de tirar a própria vida.

Marcus também mencionou a emergência da ‘datocracia’, na qual a inteligência artificial pode influenciar opiniões de forma sutil, podendo até mesmo superar a influência das redes sociais. Ele também destacou a preocupante tendência de lançamento rápido de extensões de IA, como os plugins ChatGPT da OpenAI e o AutoGPT, que possuem acesso direto à Internet, habilidades de escrita de código e capacidades de automação avançadas, o que pode aumentar as preocupações com segurança.

Marcus concluiu sua fala sugerindo uma maior cooperação entre cientistas independentes, empresas de tecnologia e governos, a fim de assegurar a segurança e o uso consciente da tecnologia de inteligência artificial. Ele destacou a importância de regulamentações apropriadas, responsabilidade corporativa e precauções necessárias para evitar possíveis consequências negativas decorrentes da falta de controle e da negligência.

Será possível estabelecer regras para a inteligência artificial?

Conforme as tecnologias de inteligência artificial avançam, crescerá a necessidade de regulamentação.

Em um cenário em que as colaborações das gigantes da tecnologia estão aumentando e as aplicações estão se multiplicando, surge uma questão preocupante: Será que já passou da hora de regulamentar a inteligência artificial?

As agências do governo federal, a administração presidencial e os legisladores precisam manter a investigação da rápida evolução, complexidade e possíveis riscos da inteligência artificial, assegurando que os progressos promissores nesse campo sejam mantidos e que a concorrência das grandes empresas de tecnologia não seja completamente desregulada no mercado.

Ilustração principal por Katherine Welles/Shutterstock.

Artigos relacionados

Back to top button