
A OpenAI acredita que finalmente saiu à frente em uma das corridas mais observadas em inteligência artificial: a codificação alimentada por IA. Seu mais novo modelo, GPT-5.3-Codex, representa um avanço sólido em relação aos sistemas rivais, mostrando um desempenho significativamente superior em benchmarks de codificação e resultados relatados do que as gerações anteriores dos modelos OpenAI e Anthropic – sugerindo uma vantagem há muito procurada em uma categoria que poderia remodelar a forma como o software é construído.
Mas a empresa está lançando o modelo com controles incomumente rígidos e atrasando o acesso total do desenvolvedor à medida que enfrenta uma realidade mais difícil: os mesmos recursos que tornam o GPT-5.3-Codex tão eficaz na escrita, teste e raciocínio sobre código também levantam sérias preocupações de segurança cibernética. Na corrida para construir o modelo de codificação mais poderoso, a OpenAI correu de cabeça para os riscos de lançá-lo.
GPT-5.3-Codex está disponível para usuários pagos do ChatGPT, que podem usar o modelo para tarefas diárias de desenvolvimento de software, como escrever, depurar e testar código por meio das ferramentas Codex da OpenAI e da interface ChatGPT. Mas, por enquanto, a empresa não está abrindo acesso irrestrito para usos de segurança cibernética de alto risco, e a OpenAI não está permitindo imediatamente o acesso completo à API que permitiria que o modelo fosse automatizado em escala. Estas aplicações mais sensíveis estão a ser protegidas por salvaguardas adicionais, incluindo um novo programa de acesso confiável para profissionais de segurança avaliados, refletindo a visão da OpenAI de que o modelo ultrapassou um novo limite de risco de segurança cibernética.
A empresa postagem no blog que acompanha o lançamento do modelo na quinta-feira, disse que, embora não tenha “evidências definitivas” de que o novo modelo pode automatizar totalmente os ataques cibernéticos, “estamos adotando uma abordagem de precaução e implantando nossa pilha de segurança de segurança cibernética mais abrangente até o momento. Nossas mitigações incluem treinamento de segurança, monitoramento automatizado, acesso confiável para recursos avançados e pipelines de aplicação, incluindo inteligência de ameaças”.
O CEO da OpenAI, Sam Altman, postou no X sobre as preocupações, dizendo que o GPT-5.3-Codex é “nosso primeiro modelo que atinge o nível máximo de segurança cibernética em nossa estrutura de preparação”, um sistema interno de classificação de risco que a OpenAI usa para lançamentos de modelos. Em outras palavras, este é o primeiro modelo que a OpenAI acredita ser bom o suficiente em codificação e raciocínio que poderia permitir danos cibernéticos no mundo real de forma significativa, especialmente se automatizado ou usado em escala.
Esta história foi originalmente apresentada em Fortune.com
