Blog

CEO da OpenAI responde à investigação da FTC como preocupações da IA

CEO da OpenAI Sam Altman respondeu a um pedido da Comissão Federal de Comércio como parte de uma investigação para determinar se a empresa “envolveu em práticas injustas ou enganosas” relacionadas à privacidade, segurança de dados e riscos de danos ao consumidor, particularmente relacionados à reputação.

é muito decepcionante ver o pedido do FTC começar com um vazamento e não ajuda a construir confiança.

que disse, é super importante para nós que a tecnologia fora é segura e pró-consumidor, e estamos confiantes de que seguimos a lei. Claro que vamos trabalhar com o FTC.

— Sam Altman (@sama) 13 de Julho de 2023

O FTC pediu dados do OpenAI em junho de 2020, conforme revelado em um documento vazado obtido pelo Washington Post.

Imagem: Peggychoucair/PixaBay

O assunto da investigação: o OpenAI violou a Seção 5 da Lei FTC?

A documentação que o OpenAI deve fornecer deve incluir detalhes sobre o treinamento, refinamento, reforço do modelo de linguagem grande por meio de feedback humano, confiabilidade de resposta e políticas e práticas em torno da privacidade do consumidor, segurança e mitigação de risco.

somos transparentes sobre as limitações de nossa tecnologia, especialmente quando estamos em falta. e nossa estrutura de lucro capped significa que não somos incentivados a fazer retornos ilimitados.

— Sam Altman (@sama) 13 de Julho de 2023

A preocupação crescente do FTC sobre a AI genética

A investigação sobre as principais práticas da empresa AI não é surpresa. O interesse do FTC pelos riscos de IA generativa tem vindo a crescer desde que o ChatGPT atingiu a popularidade.

Importante estar atento à tecnologia que automatiza a tomada de decisões.

Em abril de 2021, a Comissão Federal de Comércio (FTC) divulgou diretrizes sobre inteligência artificial (IA) e algoritmos, orientando as empresas a assegurar que seus sistemas de IA estejam em conformidade com as regulamentações de proteção ao consumidor.

Ele observou a Seção 5 do FTC Act, a Fair Credit Reporting Act e a Equal Credit Opportunity Act como leis importantes para os desenvolvedores e usuários de IA.

A FTC alertou que algoritmos baseados em dados enviesados ou lógica falha podem resultar em discriminação, mesmo que não seja intencional.

A FTC delineou as melhores práticas para o desenvolvimento ético de IA com base na sua experiência em impor leis contra práticas injustas, engano e discriminação.

As recomendações incluem sistemas de teste para viés, permitindo auditorias independentes, limitando reivindicações de marketing sobreestacionado e pesando danos sociais versus benefícios.

“Se o seu algoritmo resultar em discriminação de crédito contra uma classe protegida, você pode encontrar-se enfrentando uma queixa alegando violações da Lei FTC e da ECOA”, a orientação alerta.

AI no check

A FTC lembrou as empresas AI sobre sua orientação de IA a partir de 2021 em relação a fazer reivindicações de marketing exageradas ou não fundamentadas em relação às capacidades de IA.

No post de fevereiro de 2023, a organização alertou os profissionais de marketing contra serem varridos no hype da AI e fazer promessas que seus produtos não podem entregar.

Problemas frequentemente mencionados incluem afirmar que a inteligência artificial pode superar as limitações da tecnologia atual, ao fazer comparações sem base com produtos que não são de inteligência artificial, e não avaliar os possíveis riscos e preconceitos.

A FTC destacou que o marketing falso ou enganoso constitui conduta ilegal, independentemente da complexidade da tecnologia.

O lembrete veio algumas semanas após o ChatGPT da OpenAI atingir 100 milhões de usuários.

O FTC divulgou uma relação de oportunidades de trabalho destinadas a tecnólogos, especialmente aqueles com conhecimento em Inteligência Artificial, para auxiliar em investigações, ações políticas e estudos relacionados à defesa do consumidor e à concorrência no setor de tecnologia.

Aprofundamentos e Decepção

Aproximadamente um mês mais tarde, em março, o FTC avisou que o uso irresponsável de tecnologias de inteligência artificial gerativas, como chatbots e deepfakes, poderia facilitar a prática generalizada de fraudes.

Ele advertiu desenvolvedores e empresas usando mídia sintética e AI generativa para considerar os riscos inerentes de uso indevido.

A agência disse que os maus atores podem alavancar o conteúdo realista, mas falso desses sistemas de IA para fraudes de phishing, roubo de identidade, extorsão e outros danos.

Embora alguns usos possam ser benéficos, a FTC pediu que as empresas pesassem fazendo ou vendendo tais ferramentas de IA dadas a exploração criminosa previsível.

A FTC aconselhou que as empresas que continuam a desenvolver ou usar AI generativa devem tomar precauções robustas para evitar abusos.

Ele também fez um aviso sobre a utilização de mídias artificiais em estratégias de marketing enganosas e sobre a falta de transparência ao divulgar se os consumidores estão interagindo com chatbots de inteligência artificial ou com pessoas reais.

AI espalha software malicioso

Em abril, o FTC expôs a forma como os delinquentes digitais se aproveitaram do interesse em inteligência artificial para disseminar malware por meio de propagandas enganosas.

Os anúncios fraudulentos divulgaram tecnologias de inteligência artificial e outros programas em redes sociais e motores de busca.

Ao clicar nos links desses anúncios, os indivíduos são redirecionados para páginas falsas que instalam softwares maliciosos ou aproveitam falhas de segurança para contaminar aparelhos de forma despercebida. Os dados obtidos de forma ilícita são posteriormente comercializados na internet profunda ou utilizados para acessar as contas online das pessoas afetadas.

O FTC recomendou que se evite clicar em propagandas de programas de computador para evitar ser alvo de hackers.

Caso ocorra uma infecção, é importante que os usuários realizem a atualização das ferramentas de segurança e dos sistemas operacionais, além de seguir as instruções para eliminar programas maliciosos ou recuperar contas que foram comprometidas.

O FTC advertiu o público para ser cauteloso de cibercriminosos crescendo mais sofisticados em espalhar malware através de redes de publicidade.

Unidade de Agências Federais para Tackle AI Regulamento

Perto do final de abril, quatro agências federais – a Secretaria de Proteção Financeira do Consumidor (CFPB), a Divisão de Direitos Civis do Departamento de Justiça (DOJ), a Comissão de Oportunidade de Emprego Igual (EEOC), e a FTC – lançaram uma declaração sobre como monitorariam o desenvolvimento de IA e imporiam leis contra discriminação e preconceito em sistemas automatizados.

As agências afirmaram autoridade sobre a AI sob as leis existentes sobre direitos civis, empréstimos justos, igualdade de oportunidades e proteção do consumidor.

Juntos, eles avisaram que os sistemas de IA poderiam perpetuar viés ilegais devido a dados defeituosos, modelos opacos e escolhas de design impróprias.

A parceria teve como objetivo promover a inovação responsável da IA que aumenta o acesso ao consumidor, a qualidade e a eficiência sem violar proteções de longa data.

AI e confiança do consumidor

Em maio, a FTC alertou as empresas contra o uso de novas ferramentas de IA generativas como chatbots para manipular decisões de consumo injustamente.

Depois de descrever eventos do filme Ex Machina, o FTC alegou que a persuasão humana de chatbots AI poderia orientar as pessoas em escolhas prejudiciais sobre finanças, saúde, educação, habitação e empregos.

Embora não necessariamente intencional, a FTC disse elementos de design que exploram a confiança humana em máquinas para enganar os consumidores constituem práticas injustas e enganosas sob a lei FTC.

A agência aconselhou as empresas a evitar chatbots super antropomórficos e garantir divulgações em promoções pagas tecidas em interações AI.

Com o surto de adoção de IA generativa, o alerta FTC coloca as empresas em aviso para avaliar proativamente os impactos sociais a jusante.

Essas ferramentas de corrida para o mercado sem revisão ética ou proteções adequadas arriscariam a ação da FTC em prejuízos resultantes do consumidor.

Uma opinião sobre os riscos de IA

FTC Lina de cadeira Khan argumentou que a IA generativa representa riscos de enraizamento de domínio tecnológico significativo, turbocompressão e automatização da discriminação se desmarcada.

Em um New York Times publicado alguns dias após o aviso de confiança do consumidor, Khan disse que o FTC visa promover a concorrência e proteger os consumidores à medida que a IA se expande.

Khan alertou que algumas grandes empresas dominavam as principais áreas de acesso à inteligência artificial, como dados e computação, o que poderia perpetuar a falta de controle antitruste.

Ela advertiu conteúdo falso realista de AI generativa poderia facilitar golpes generalizados. Além disso, dados tendenciosos arrisca algoritmos que ilegalmente bloqueiam pessoas de oportunidades.

Na declaração, Khan destacou que os sistemas de inteligência artificial também devem ser regulados pela FTC e pelas autoridades antitruste para proteger os consumidores. Ela ressaltou que, com supervisão adequada, a inteligência artificial generativa pode se desenvolver de maneira justa e competitiva, evitando problemas encontrados por outras grandes empresas de tecnologia.

IA e Privacidade de Dados

Em junho, a FTC destacou para as companhias que as salvaguardas da privacidade dos consumidores devem ser respeitadas também nos sistemas de inteligência artificial que utilizam dados pessoais.

Em queixas contra a Amazon e Ring, a FTC alegava práticas injustas e enganosas usando dados de voz e vídeo para treinar algoritmos.

FTC O presidente Khan disse que os benefícios da AI não superam os custos de privacidade da coleta de dados invasiva.

A agência declarou que, mesmo que uma empresa detenha as informações, os consumidores mantêm o poder de decisão sobre elas. Espera-se que haja medidas rigorosas de proteção e restrições de acesso ao lidar com dados biométricos delicados.

O FTC afirmou que seguiria à risca a lei de privacidade das crianças, COPPA, ao lidar com os dados das crianças. As reclamações exigiram a remoção de informações biométricas ilegais e de qualquer tecnologia de inteligência artificial baseada nelas.

A orientação para as empresas de tecnologia foi direta – embora as possibilidades da inteligência artificial sejam amplas, é essencial respeitar as leis de privacidade do consumidor.

Concurso de Inteligência Artificial Generativa

Perto do final de junho, o FTC emitiu orientação advertindo que o rápido crescimento da IA generativa poderia aumentar as preocupações da concorrência se as entradas-chave sob o controle de algumas empresas de tecnologia dominantes.

A agência afirmou que são fundamentais elementos como informações, habilidades e capacidade computacional para criar modelos avançados de inteligência artificial generativa. A agência alertou que se um pequeno grupo de grandes empresas de tecnologia dominar esses elementos, poderiam manipular a competição nos mercados de inteligência artificial generativa.

O FTC advertiu que as táticas anti-competitivas, como bundling, tying, ofertas exclusivas, ou compra de concorrentes, poderiam permitir que os incumbentes abolissem rivais emergentes e consolidassem sua liderança.

O FTC afirmou que vai acompanhar a concorrência relacionada à inteligência artificial generativa e agir contra práticas desleais.

O objetivo era capacitar os empreendedores a inovar com tecnologias de IA transformadoras, como chatbots, que poderiam remodelar as experiências dos consumidores em todas as indústrias. Com as políticas certas, o FTC acreditava que a IA generativa emergente pode produzir todo o seu potencial econômico.

Alegações de marketing questionáveis

Em julho, o FTC avisou sobre a existência de ferramentas de inteligência artificial que podem criar deepfakes, vozes clonadas e texto artificial. Ao mesmo tempo, foram desenvolvidas ferramentas que afirmam ser capazes de identificar esse tipo de conteúdo gerado por IA.

No entanto, os especialistas alertaram que as reivindicações de marketing feitas por algumas ferramentas de detecção podem sobrepor suas capacidades.

A FTC alertou as empresas sobre a importância de não exagerar na precisão e confiabilidade de suas ferramentas de detecção. É fundamental que o marketing reflita avaliações realistas das capacidades dessas ferramentas, levando em consideração as limitações da tecnologia atual.

Além disso, o FTC observou que os usuários devem ser cautelosos de afirmações de que uma ferramenta pode pegar todas as falsificações de IA sem erros. A detecção imperfeita pode levar a acusar injustamente pessoas inocentes como candidatos a emprego de criar conteúdo falso.

O que o FTC vai descobrir?

A investigação da FTC sobre o OpenAI vem em meio ao aumento do escrutínio regulatório dos sistemas de IA generativa.

Como essas tecnologias poderosas permitem novas capacidades como chatbots e deepfakes, eles levantam novos riscos em torno de viés, privacidade, segurança, concorrência e engano.

OpenAI deve responder a perguntas sobre se tomou precauções adequadas no desenvolvimento e liberação de modelos como GPT-3 e DALL-E que moldaram a trajetória do campo AI.

A FTC aparece focada em garantir que as práticas da OpenAI estejam alinhadas com as leis de proteção do consumidor, especialmente em relação às reivindicações de marketing, práticas de dados e mitigar danos sociais.

Como o OpenAI responde e se quaisquer ações de execução podem estabelecer precedentes significativos para a regulamentação à medida que a IA avança.

Por enquanto, a investigação do FTC ressalta que o hype em torno da AI não deve superar a supervisão responsável.

Os sistemas de IA robustos possuem grande promessa, mas representam riscos se implantados sem salvaguardas suficientes.

As principais empresas de IA devem garantir que as novas tecnologias cumpram as leis de longa data que protegem os consumidores e os mercados.

Imagem em destaque: Ascannio/Shutterstock

Artigos relacionados

Back to top button