AnáliseAutomação

OpenAI, Google, Microsoft e Anthropic juntam-se para formar um Fórum de Segurança da IA.

Quatro grandes empresas de tecnologia – OpenAI, Google, Microsoft e Anthropic – se uniram para criar o Fórum Modelo Frontier, visando promover o desenvolvimento seguro e responsável da inteligência artificial de ponta.

Esse novo órgão da indústria pretende utilizar a expertise técnica e operacional de suas empresas afiliadas para favorecer o desenvolvimento do ecossistema de inteligência artificial.

Principal foco do Fórum de Modelos Frontier.

O Fórum de Modelos Frontier terá foco em três áreas importantes no ano seguinte.

Primeiramente, será identificadas as estratégias mais eficazes para incentivar a troca de conhecimento entre diferentes setores, como indústria, governo, sociedade civil e academia, priorizando a implementação de padrões e protocolos de segurança para reduzir possíveis riscos.

Em segundo plano, ele irá impulsionar a investigação de segurança em Inteligência Artificial, destacando as principais questões em aberto relacionadas à segurança da IA.

O Fórum coordenará a pesquisa em diferentes áreas, como robustez adversarial, interpretação mecanicista, supervisão escalável, acesso independente à pesquisa, comportamentos emergentes e detecção de anomalias.

Por fim, vai tornar mais fácil a troca de dados entre empresas e governos, criando formas confiáveis e seguras de compartilhar informações sobre segurança e riscos da inteligência artificial.

O Fórum descreve modelos de fronteira como sendo modelos de aprendizado de máquina em grande escala que superam as capacidades dos modelos avançados atuais e são capazes de realizar diversas tarefas.

Exigências para ser membro do fórum.

As organizações que criam e aplicam modelos de fronteira, que se comprometem com a segurança desses modelos e que desejam colaborar com os objetivos do Fórum podem se inscrever.

Além disso, o Fórum criará um Conselho Consultivo para fornecer direcionamento em relação à sua estratégia e prioridades.

As empresas pioneiras também vão criar estruturas organizacionais essenciais, como um documento oficial, gestão e recursos financeiros, por meio de um comitê e diretoria executiva responsáveis por conduzir essas iniciativas.

O Fórum pretende ouvir a opinião da sociedade civil e dos governos em breve acerca da estrutura do evento e de possíveis maneiras de colaboração.

O Fórum de Modelos Fronteiras pretende aproveitar o trabalho significativo já realizado pela indústria, sociedade civil e pesquisadores em cada área de atuação.

Iniciativas como a Parceria para Inteligência Artificial e a MLCommons seguem contribuindo de maneira relevante para a comunidade de Inteligência Artificial. O Fórum irá abordar maneiras de cooperar e promover esses e outros importantes esforços que envolvem diversos interessados.

Os líderes das empresas fundadoras demonstraram sua empolgação e dedicação à iniciativa.

Estamos entusiasmados em colaborar com outras empresas líderes, trocando conhecimentos técnicos para impulsionar a inovação responsável da Inteligência Artificial. A participação de empresas, governos e sociedade civil será crucial para concretizar o potencial da IA em benefício de todos.

Kent Walker, the President of Global Affairs at Google & Alphabet.

As companhias que desenvolvem tecnologia de IA têm o dever de assegurar a sua segurança, controle humano e responsabilidade. Este esforço é essencial para unir o setor de tecnologia na progressão responsável da IA e na resolução dos desafios para que ela contribua para o benefício de toda a humanidade.

Brad Smith es el Vicepresidente y Presidente de Microsoft.

As tecnologias avançadas de Inteligência Artificial têm o potencial de trazer grandes benefícios à sociedade. Para alcançar esse potencial, é essencial que haja supervisão e governança. É crucial que as empresas de IA, especialmente aquelas que lidam com modelos mais poderosos, se unam em um terreno comum e adotem práticas de segurança cuidadosas e flexíveis para garantir que as ferramentas de IA sejam utilizadas da melhor maneira possível. Este é um desafio urgente e este fórum está em uma posição favorável para agir rapidamente em prol do avanço da segurança no campo da Inteligência Artificial.

Anna Makanju, quem atua como Vice-presidente de Assuntos Globais na OpenAI.

“A Antropic acredita que a inteligência artificial tem o potencial de revolucionar a forma como o mundo opera. Estamos entusiasmados em trabalhar em conjunto com diversos setores, como a indústria, a sociedade civil, o governo e a academia, para impulsionar o desenvolvimento seguro e ético dessa tecnologia. O Fórum do Modelo Frontier desempenhará um papel crucial ao coordenar as melhores práticas e compartilhar pesquisas sobre a segurança da inteligência artificial na vanguarda.”

Dario Amodei, diretor executivo da Anthropic

Time vermelho para garantir a segurança.

O termo “antrópico” ressaltou a relevância da segurança digital na criação de modelos avançados de inteligência artificial.

Os desenvolvedores do Claude 2 divulgaram recentemente sua abordagem para a “colaboração vermelha”, uma prática de realização de testes adversários com o propósito de fortalecer a segurança dos sistemas de inteligência artificial.

Este método focado na experiência e de alta intensidade analisa as origens do risco e implementa procedimentos consistentes em diversas áreas temáticas.

Como parte de sua iniciativa, Anthropic conduziu uma pesquisa sobre riscos biológicos e chegou à conclusão de que modelos não confiáveis poderiam representar sérias ameaças à segurança nacional.

Entretanto, a companhia também encontrou maneiras significativas de reduzir tais riscos em potencial.

A atividade de categorização de riscos fronteiriços vermelhos consiste em colaborar com especialistas do campo para estabelecer padrões de risco, criar análises automatizadas a partir do conhecimento especializado e assegurar que essas avaliações sejam replicáveis e expansíveis.

Em sua pesquisa sobre biosegurança, a Anthropic descobriu que os modelos avançados de inteligência artificial são capazes de produzir informações complexas, precisas e úteis para especialistas, após mais de 150 horas de análise.

À medida que os modelos crescem em escala e adquirem novas ferramentas, sua competência, especialmente na área da biologia, melhora, podendo resultar na atualização desses riscos em um período de dois a três anos.

A investigação da Anthropic resultou na identificação de medidas que diminuem as informações prejudiciais liberadas durante o treinamento e dificultam que indivíduos mal-intencionados obtenham detalhes especializados para propósitos destrutivos.

No momento, essas medidas de redução são incorporadas no modelo de público-alvo da Anthropic, com mais experimentos em andamento.

Empresas que trabalham com inteligência artificial se comprometem a lidar com os desafios relacionados à IA.

Na semana passada, a Casa Branca estava facilitando acordos voluntários entre sete empresas líderes em inteligência artificial – Amazon, OpenAI, Google, Microsoft, Inflection, Meta e Anthropic.

Sete empresas de inteligência artificial, que representam a vanguarda da tecnologia, receberam a responsabilidade de assegurar a segurança de seus produtos.

A equipe da Administração Biden-Harris ressaltou a importância de manter elevados padrões para assegurar que os progressos inovadores não comprometam os direitos e a segurança dos cidadãos dos Estados Unidos.

As empresas participantes estão comprometidas com três princípios orientadores: segurança, segurança e confiança.

Antes de despachar um produto, as empresas concordaram em realizar testes de segurança internos e externos nos sistemas de inteligência artificial, supervisionados por especialistas independentes. O propósito é diminuir riscos, como segurança biológica, segurança cibernética e impactos sociais abrangentes.

A prioridade era a segurança, com a promessa de fortalecer a proteção cibernética e implementar medidas de segurança internas para salvaguardar os modelos exclusivos e essenciais de um sistema de IA.

Para aumentar a confiança do público, as empresas também prometeram implementar sistemas sólidos para notificar os usuários quando o conteúdo for produzido por inteligência artificial.

Eles concordaram em divulgar relatórios de forma pública sobre as capacidades, restrições e aplicações dos sistemas de inteligência artificial. Esses relatórios podem abordar questões de segurança e riscos sociais, incluindo impactos na justiça e possíveis preconceitos.

Adicionalmente, essas organizações estão comprometidas em desenvolver tecnologias de inteligência artificial para lidar com importantes desafios globais, como a prevenção do câncer e a redução dos impactos das mudanças climáticas.

Como parte do planejamento, a administração pretende colaborar com aliados e parceiros de outros países para criar um sólido conjunto de normas que orientem o progresso e a aplicação da inteligência artificial.

Consulta popular acerca da segurança da Inteligência Artificial.

Em junho, a OpenAI iniciou um projeto em parceria com a Fundação Cidadãos e o Laboratório de Governança para avaliar a opinião do público em relação à segurança da inteligência artificial.

Foi desenvolvido um site com o objetivo de estimular a conversa sobre os possíveis perigos ligados aos LLMs.

Os membros do público têm a oportunidade de votar nas prioridades de segurança da inteligência artificial utilizando uma ferramenta chamada AllOurIdeas. Essa ferramenta foi criada com o objetivo de auxiliar na compreensão das prioridades do público em relação a diversos aspectos relacionados aos riscos da IA.

O instrumento utiliza uma técnica denominada “Votação em Pares”, que leva os usuários a comparar duas possíveis prioridades de risco da IA e escolher aquela que consideram mais importante.

O intuito é obter o maior volume de dados disponível sobre as preocupações da população, de modo a alocar os recursos de maneira mais eficiente para lidar com os problemas considerados mais urgentes pelas pessoas.

Os votos contribuíram para a análise da perspectiva da sociedade em relação ao avanço responsável da tecnologia de inteligência artificial.

Nos próximos dias, está prevista a realização de uma mesa redonda virtual para analisar os desfechos desta pesquisa pública.

Uma avaliação feita pelo GPT-4 dos votos identificou as três principais propostas para a inteligência artificial.

  1. Os modelos devem ser o mais inteligentes possível e ser capazes de identificar os preconceitos presentes nos dados de treinamento.
  2. Todas as pessoas, sem distinção de raça, religião, orientação política, gênero ou nível de renda, devem ter a possibilidade de utilizar a tecnologia de Inteligência Artificial de forma justa e imparcial.
  3. A evolução da inteligência artificial para impulsionar o avanço do conhecimento, que é essencial para a IA, não deve ser barrada pelo progresso.

Por outro lado, três ideias não eram bem aceitas.

  1. Uma abordagem equilibrada implicaria que órgãos governamentais oferecessem diretrizes que as empresas de inteligência artificial poderiam seguir ao desenvolver suas políticas.
  2. As decisões de armas que envolvem matar ou deixar viver não são tomadas por inteligência artificial.
  3. Não é aconselhável utilizar isso para propósitos políticos ou religiosos, pois poderia gerar uma estratégia de campanha diferente.

O que está por vir na proteção da Inteligência Artificial.

Conforme a inteligência artificial se torna mais relevante no cenário do marketing digital, essas evoluções são de grande importância para profissionais de marketing e tecnologia.

Esses compromissos e ações realizados pelas principais empresas de inteligência artificial têm o potencial de influenciar a criação de regulamentações de IA e podem contribuir para um futuro de avanço responsável na área da inteligência artificial.

Destaque para a imagem de Derek W no site Shutterstock.

Artigos relacionados

Back to top button