Blog

Mudança de rumo da OpenAI: GPT-4 não será treinado com dados de clientes da API.

Em uma mudança importante em relação às práticas anteriores, a OpenAI comunicou que não irá mais usar os dados dos clientes recebidos por meio de suas APIs para treinar seus modelos de linguagem avançados, como o GPT-4.

A alteração foi oficializada por Sam Altman, o CEO da OpenAI, durante uma entrevista recente concedida à CNBC.

Nova forma de lidar com as informações dos usuários pela OpenAI.

A OpenAI implementou sua nova política em 1 de março de 2023, ao atualizar discretamente seus termos de serviço para reforçar o compromisso com a privacidade do usuário.

Altman explicou que, de acordo com a preferência dos clientes, a empresa não irá mais realizar treinamento com os dados fornecidos por eles.

As APIs, também conhecidas como interfaces de programação de aplicativos, são sistemas tecnológicos que possibilitam aos usuários se conectarem de forma direta ao software desenvolvido pela OpenAI.

Altman declarou que o OpenAI não tem utilizado informações de API para o treinamento de modelos “há algum tempo”, indicando que este comunicado oficial formaliza uma prática já em vigor.

Consequências para clientes empresariais

O impacto do movimento da OpenAI é significativo, principalmente para seus clientes corporativos, que contam com grandes empresas como Microsoft, Salesforce e Snapchat.

Essas organizações tendem a utilizar os recursos da API da OpenAI em suas atividades, tornando a questão da privacidade e proteção de dados especialmente importante para elas.

Entretanto, as recentes políticas de proteção de dados são válidas somente para os clientes que fazem uso dos serviços API da empresa. A versão atualizada da nota de serviço da OpenAI menciona que é possível utilizar conteúdo de serviços que não sejam provenientes de nossa API.

Dessa forma, o OpenAI pode continuar a utilizar outras maneiras de entrada de dados, como o texto inserido no conhecido chatbot ChatGPT, a menos que os dados sejam compartilhados por meio da API.

Consequências da indústria em escala maior.

A alteração na política da OpenAI surge à medida que as indústrias lidam com as possíveis consequências dos modelos de linguagem de grande escala, como o ChatGPT da OpenAI, que estão sendo utilizados para substituir o conteúdo criado tradicionalmente por humanos.

Por exemplo, recentemente houve um conflito entre o Writers Guild of America e os estúdios de cinema, que ocorreu após as negociações entre as partes terem falhado. O Guilda tinha defendido a imposição de limitações no uso do ChatGPT da OpenAI para criar ou reescrever roteiros.

A escolha da OpenAI de não utilizar dados dos clientes para treinamento representa um ponto importante na discussão em curso sobre privacidade de dados e inteligência artificial. À medida que as empresas avançam na exploração e ampliação dos horizontes da tecnologia de IA, assegurar a privacidade dos usuários e manter a confiança tende a ser um tema central nessas conversas.

A Progressão do ChatGPT: Do GPT-3 para o GPT-4

É relevante destacar que a promessa da OpenAI de não utilizar informações de clientes para o aprimoramento se refere ao seu mais recente modelo de linguagem, o GPT-4, que foi disponibilizado em 14 de março de 2023.

O GPT-4 trouxe diversas melhorias em comparação com o GPT-3, como um aumento substancial no limite de palavras (25.000 em relação às 3.000 palavras do ChatGPT), uma janela de contexto maior e habilidades aprimoradas de raciocínio e compreensão.

Outro aspecto destacável do GPT-4 é sua capacidade multi-modal, o que significa que ele pode compreender e deduzir informações de imagens, além de texto. Essa versão mais recente do modelo produz textos mais naturais, incorporando elementos como emojis para proporcionar uma experiência mais personalizada.

Entretanto, ainda não foram divulgados o tamanho preciso e a estrutura do GPT-4, o que tem levado a especulações sobre os detalhes do modelo.

Apesar dos boatos, o CEO da OpenAI rejeitou alegações específicas sobre as dimensões do modelo.

No que diz respeito ao seu rendimento, o GPT-4 apresentou habilidades na produção de texto, porém também evidenciou algumas restrições. Por exemplo, obteve pontuação no 54º percentil no teste de escrita do Graduate Record Examination (GRE) e ficou entre o 43º e o 59º percentil no exame de Cálculo BC do AP.

Além disso, ele se saiu bem em problemas simples de codificação no Leetcode, mas teve um desempenho inferior quando enfrentou tarefas mais difíceis.

Apesar de não haver documentação oficial sobre como o GPT-4 é treinado, é de conhecimento comum que os modelos GPT costumam passar por um extenso treinamento de aprendizado de máquina, utilizando uma ampla variedade de textos encontrados na internet.

Observando adiante.

Devido a alterações na política de uso de dados da OpenAI, os dados utilizados para treinar seus modelos de linguagem não contêm informações compartilhadas via API, a menos que os usuários concordem expressamente em contribuir para esse fim.

À medida que esta tecnologia avança e se torna mais relevante em nosso cotidiano, é curioso observar como as empresas se ajustam e reagem às questões relacionadas à proteção de dados e à conquista da confiança do público.

A imagem principal foi criada pelo autor utilizando a plataforma Midjourney.

Artigos relacionados

Back to top button