
Quatro grandes empresas de tecnologia – OpenAI, Google, Microsoft e Anthropic – se uniram para criar o Fórum Modelo Frontier, visando promover o desenvolvimento seguro e responsável da inteligência artificial de ponta.
Esse novo órgão da indústria pretende utilizar a expertise técnica e operacional de suas empresas afiliadas para favorecer o desenvolvimento do ecossistema de inteligência artificial.
Principal foco do Fórum de Modelos Frontier.
O Fórum de Modelos Frontier terá foco em três áreas importantes no ano seguinte.
Primeiramente, será identificadas as estratégias mais eficazes para incentivar a troca de conhecimento entre diferentes setores, como indústria, governo, sociedade civil e academia, priorizando a implementação de padrões e protocolos de segurança para reduzir possíveis riscos.
Em segundo plano, ele irá impulsionar a investigação de segurança em Inteligência Artificial, destacando as principais questões em aberto relacionadas à segurança da IA.
O Fórum coordenará a pesquisa em diferentes áreas, como robustez adversarial, interpretação mecanicista, supervisão escalável, acesso independente à pesquisa, comportamentos emergentes e detecção de anomalias.
Por fim, vai tornar mais fácil a troca de dados entre empresas e governos, criando formas confiáveis e seguras de compartilhar informações sobre segurança e riscos da inteligência artificial.
O Fórum descreve modelos de fronteira como sendo modelos de aprendizado de máquina em grande escala que superam as capacidades dos modelos avançados atuais e são capazes de realizar diversas tarefas.
Exigências para ser membro do fórum.
As organizações que criam e aplicam modelos de fronteira, que se comprometem com a segurança desses modelos e que desejam colaborar com os objetivos do Fórum podem se inscrever.
Além disso, o Fórum criará um Conselho Consultivo para fornecer direcionamento em relação à sua estratégia e prioridades.
As empresas pioneiras também vão criar estruturas organizacionais essenciais, como um documento oficial, gestão e recursos financeiros, por meio de um comitê e diretoria executiva responsáveis por conduzir essas iniciativas.
O Fórum pretende ouvir a opinião da sociedade civil e dos governos em breve acerca da estrutura do evento e de possíveis maneiras de colaboração.
O Fórum de Modelos Fronteiras pretende aproveitar o trabalho significativo já realizado pela indústria, sociedade civil e pesquisadores em cada área de atuação.
Iniciativas como a Parceria para Inteligência Artificial e a MLCommons seguem contribuindo de maneira relevante para a comunidade de Inteligência Artificial. O Fórum irá abordar maneiras de cooperar e promover esses e outros importantes esforços que envolvem diversos interessados.
Os líderes das empresas fundadoras demonstraram sua empolgação e dedicação à iniciativa.
Estamos entusiasmados em colaborar com outras empresas líderes, trocando conhecimentos técnicos para impulsionar a inovação responsável da Inteligência Artificial. A participação de empresas, governos e sociedade civil será crucial para concretizar o potencial da IA em benefício de todos.
Kent Walker, the President of Global Affairs at Google & Alphabet.
As companhias que desenvolvem tecnologia de IA têm o dever de assegurar a sua segurança, controle humano e responsabilidade. Este esforço é essencial para unir o setor de tecnologia na progressão responsável da IA e na resolução dos desafios para que ela contribua para o benefício de toda a humanidade.
Brad Smith es el Vicepresidente y Presidente de Microsoft.
As tecnologias avançadas de Inteligência Artificial têm o potencial de trazer grandes benefícios à sociedade. Para alcançar esse potencial, é essencial que haja supervisão e governança. É crucial que as empresas de IA, especialmente aquelas que lidam com modelos mais poderosos, se unam em um terreno comum e adotem práticas de segurança cuidadosas e flexíveis para garantir que as ferramentas de IA sejam utilizadas da melhor maneira possível. Este é um desafio urgente e este fórum está em uma posição favorável para agir rapidamente em prol do avanço da segurança no campo da Inteligência Artificial.
Anna Makanju, quem atua como Vice-presidente de Assuntos Globais na OpenAI.
“A Antropic acredita que a inteligência artificial tem o potencial de revolucionar a forma como o mundo opera. Estamos entusiasmados em trabalhar em conjunto com diversos setores, como a indústria, a sociedade civil, o governo e a academia, para impulsionar o desenvolvimento seguro e ético dessa tecnologia. O Fórum do Modelo Frontier desempenhará um papel crucial ao coordenar as melhores práticas e compartilhar pesquisas sobre a segurança da inteligência artificial na vanguarda.”
Dario Amodei, diretor executivo da Anthropic
Time vermelho para garantir a segurança.
O termo “antrópico” ressaltou a relevância da segurança digital na criação de modelos avançados de inteligência artificial.
Os desenvolvedores do Claude 2 divulgaram recentemente sua abordagem para a “colaboração vermelha”, uma prática de realização de testes adversários com o propósito de fortalecer a segurança dos sistemas de inteligência artificial.
Este método focado na experiência e de alta intensidade analisa as origens do risco e implementa procedimentos consistentes em diversas áreas temáticas.
Como parte de sua iniciativa, Anthropic conduziu uma pesquisa sobre riscos biológicos e chegou à conclusão de que modelos não confiáveis poderiam representar sérias ameaças à segurança nacional.
Entretanto, a companhia também encontrou maneiras significativas de reduzir tais riscos em potencial.
A atividade de categorização de riscos fronteiriços vermelhos consiste em colaborar com especialistas do campo para estabelecer padrões de risco, criar análises automatizadas a partir do conhecimento especializado e assegurar que essas avaliações sejam replicáveis e expansíveis.
Em sua pesquisa sobre biosegurança, a Anthropic descobriu que os modelos avançados de inteligência artificial são capazes de produzir informações complexas, precisas e úteis para especialistas, após mais de 150 horas de análise.
À medida que os modelos crescem em escala e adquirem novas ferramentas, sua competência, especialmente na área da biologia, melhora, podendo resultar na atualização desses riscos em um período de dois a três anos.
A investigação da Anthropic resultou na identificação de medidas que diminuem as informações prejudiciais liberadas durante o treinamento e dificultam que indivíduos mal-intencionados obtenham detalhes especializados para propósitos destrutivos.
No momento, essas medidas de redução são incorporadas no modelo de público-alvo da Anthropic, com mais experimentos em andamento.
Empresas que trabalham com inteligência artificial se comprometem a lidar com os desafios relacionados à IA.
Na semana passada, a Casa Branca estava facilitando acordos voluntários entre sete empresas líderes em inteligência artificial – Amazon, OpenAI, Google, Microsoft, Inflection, Meta e Anthropic.
Sete empresas de inteligência artificial, que representam a vanguarda da tecnologia, receberam a responsabilidade de assegurar a segurança de seus produtos.
A equipe da Administração Biden-Harris ressaltou a importância de manter elevados padrões para assegurar que os progressos inovadores não comprometam os direitos e a segurança dos cidadãos dos Estados Unidos.
As empresas participantes estão comprometidas com três princípios orientadores: segurança, segurança e confiança.
Antes de despachar um produto, as empresas concordaram em realizar testes de segurança internos e externos nos sistemas de inteligência artificial, supervisionados por especialistas independentes. O propósito é diminuir riscos, como segurança biológica, segurança cibernética e impactos sociais abrangentes.
A prioridade era a segurança, com a promessa de fortalecer a proteção cibernética e implementar medidas de segurança internas para salvaguardar os modelos exclusivos e essenciais de um sistema de IA.
Para aumentar a confiança do público, as empresas também prometeram implementar sistemas sólidos para notificar os usuários quando o conteúdo for produzido por inteligência artificial.
Eles concordaram em divulgar relatórios de forma pública sobre as capacidades, restrições e aplicações dos sistemas de inteligência artificial. Esses relatórios podem abordar questões de segurança e riscos sociais, incluindo impactos na justiça e possíveis preconceitos.
Adicionalmente, essas organizações estão comprometidas em desenvolver tecnologias de inteligência artificial para lidar com importantes desafios globais, como a prevenção do câncer e a redução dos impactos das mudanças climáticas.
Como parte do planejamento, a administração pretende colaborar com aliados e parceiros de outros países para criar um sólido conjunto de normas que orientem o progresso e a aplicação da inteligência artificial.
Consulta popular acerca da segurança da Inteligência Artificial.
Em junho, a OpenAI iniciou um projeto em parceria com a Fundação Cidadãos e o Laboratório de Governança para avaliar a opinião do público em relação à segurança da inteligência artificial.
Foi desenvolvido um site com o objetivo de estimular a conversa sobre os possíveis perigos ligados aos LLMs.
Os membros do público têm a oportunidade de votar nas prioridades de segurança da inteligência artificial utilizando uma ferramenta chamada AllOurIdeas. Essa ferramenta foi criada com o objetivo de auxiliar na compreensão das prioridades do público em relação a diversos aspectos relacionados aos riscos da IA.
O instrumento utiliza uma técnica denominada “Votação em Pares”, que leva os usuários a comparar duas possíveis prioridades de risco da IA e escolher aquela que consideram mais importante.
O intuito é obter o maior volume de dados disponível sobre as preocupações da população, de modo a alocar os recursos de maneira mais eficiente para lidar com os problemas considerados mais urgentes pelas pessoas.
Os votos contribuíram para a análise da perspectiva da sociedade em relação ao avanço responsável da tecnologia de inteligência artificial.
Nos próximos dias, está prevista a realização de uma mesa redonda virtual para analisar os desfechos desta pesquisa pública.
Uma avaliação feita pelo GPT-4 dos votos identificou as três principais propostas para a inteligência artificial.
- Os modelos devem ser o mais inteligentes possível e ser capazes de identificar os preconceitos presentes nos dados de treinamento.
- Todas as pessoas, sem distinção de raça, religião, orientação política, gênero ou nível de renda, devem ter a possibilidade de utilizar a tecnologia de Inteligência Artificial de forma justa e imparcial.
- A evolução da inteligência artificial para impulsionar o avanço do conhecimento, que é essencial para a IA, não deve ser barrada pelo progresso.
Por outro lado, três ideias não eram bem aceitas.
- Uma abordagem equilibrada implicaria que órgãos governamentais oferecessem diretrizes que as empresas de inteligência artificial poderiam seguir ao desenvolver suas políticas.
- As decisões de armas que envolvem matar ou deixar viver não são tomadas por inteligência artificial.
- Não é aconselhável utilizar isso para propósitos políticos ou religiosos, pois poderia gerar uma estratégia de campanha diferente.
O que está por vir na proteção da Inteligência Artificial.
Conforme a inteligência artificial se torna mais relevante no cenário do marketing digital, essas evoluções são de grande importância para profissionais de marketing e tecnologia.
Esses compromissos e ações realizados pelas principais empresas de inteligência artificial têm o potencial de influenciar a criação de regulamentações de IA e podem contribuir para um futuro de avanço responsável na área da inteligência artificial.
Destaque para a imagem de Derek W no site Shutterstock.