O novo modelo de inteligência artificial da OpenAI, o GPT-5.5, tem capacidade de encontrar falhas de segurança em nível equivalente ao modelo Mythos, que a concorrente Anthropic escolheu manter restrito ao público, segundo o presidente da criadora do ChatGPT, Greg Brockman.
“Nós acreditamos em empoderar as pessoas com IA”, disse Brockman em entrevista coletiva nesta quinta-feira (23). O modelo já está disponível no ChatGPT e no Codex, a plataforma de programação e automação da empresa. A empresa deve acrescentá-lo à API (maneira de chamar a IA via código de programação) nos próximos dias.
De acordo com o executivo, houve um trabalho gradual de dois anos que permitiu lançar a tecnologia com segurança. A empresa trabalha com especialistas independentes para identificar riscos e impor barreiras às inteligências artificiais em áreas sensíveis como armas biológicas e cibersegurança —uma habilidade útil para as empresas reforçarem seus sistemas e para criminosos encontrarem brechas.
O público em geral terá acesso a uma versão com capacidades limitadas nas atividades ligadas à cibersegurança, enquanto empresas do setor podem pedir acesso a uma versão sem limites da tecnologia da OpenAI desde 8 de fevereiro.
Enquanto Mythos alcançou 83,1% em um teste sobre habilidade em cibersegurança, o GPT-5.5 marcou 81,8% (a pontuação mais alta registrada por um modelo amplamente disponível).
“O Mythos é um modelo permissivo em termos de cibersegurança. O modelo que estamos lançando tem mitigações, não é um modelo permissivo”, disse a OpenAI.
A criadora do Claude, Anthropic, anunciou no último dia 8 que desenvolveu um “sistema poderoso demais para ser liberado ao público”. Na ocasião, garantiu acesso à tecnologia a apenas um grupo seleto de 40 grandes empresas americanas, incluindo big techs e bancos.
Logan Graham, chefe de uma equipe da Anthropic que testa novos modelos em busca de capacidades perigosas, chamou o novo modelo de “o ponto de partida para o que acreditamos ser uma virada na indústria”.
O brasileiro Mike Krieger, executivo que lidera o laboratório de ponta da Anthropic, disse que a startup de inteligência artificial percebeu os riscos de um novo modelo avançado recém-anunciado e escolheu “dar um passo atrás para preparar o mundo para esse desafio”.
Desde o anúncio da principal concorrente da OpenAI, formuladores de políticas públicas alertaram para o risco que uma IA avançada representa para a cibersegurança. De um lado, a presidente do Banco Central Europeu, Christine Lagarde, elogiou a parcimônia da Anthropic em manter a tecnologia afastada de criminosos. De outro, representantes da diplomacia chinesa criticaram o monopólio do avanço técnico nas mãos de empresas americanas.
O programa da OpenAI também tem acesso limitado apenas aos parceiros liberados pela criadora do ChatGPT. Os termos de uso da empresa também limitam o acesso da tecnologia aos países sob restrições do governo americano, ampliadas durante a gestão de Trump. Negócios brasileiros interessados podem solicitar participação no programa neste link.
Segundo a engenheira responsável pelo GPT-5.5 e atual vice-presidente de pesquisa da empresa, Amelia Glaese, a OpenAI avalia que os riscos da IA avançam gradualmente. Por isso, a empresa tem feito repetidos testes nos últimos meses
“Há três princípios pelos quais definimos nossa abordagem: desenvolvimento por tentativa e erro, ecossistema resiliente e acesso democrático”, afirmou Glaese na entrevista coletiva.
AVANÇOS TÉCNICOS
Conforme Brockman, o novo modelo da OpenAI não superou a barreira dos 10 trilhões de parâmetros, uma medida de potência associada aos modelos de IA. Vazamentos da Anthropic, que teve seu sistema invadido neste mês, indicam que o Mythos teria essa escala de grandeza.
O cientista-chefe da OpenAI, Jakub Pachocki, afirma que o avanço da tecnologia, desde 2024, está mais lento em termos de escala —entre 2020 e 2025, os modelos saltaram de milhões de parâmetros para mais de 1 trilhão. As principais mudanças, diz ele, estão ligadas à cadeia de raciocínio, técnica em que a IA traça planos de ação e se corrige até encontrar uma resposta que considera adequada.
Ainda segundo Pachocki, o GPT-5.5 é o primeiro modelo que apresentará seu plano de ação para uma tarefa antes de executá-la. Assim, o usuário pode orientar a abordagem antes de gastar tempo e recursos de forma equivocada.
ATRITOS EM WASHINGTON
Desde o início do ano, Anthropic e OpenAI estão no centro de uma disputa interna do Departamento de Defesa do governo Trump. A criadora do Claude se recusou a fornecer tecnologia que fosse usada no desenvolvimento de armas autônomas e na vigilância de cidadãos americanos. Por isso, foi punida com restrições e rompimento de contratos.
A desenvolvedora do ChatGPT assumiu os contratos da concorrente, dizendo que o governo americano concordou com seus limites éticos de segurança e privacidade.
Autor: Folha








.gif)












