Parece que, timidamente, as grandes empresas americanas do setor de inteligência artificial estão a aderir à tendência dos players chineses do setor de abrir seus modelos de linguagem e disponibilizá-los ao público em geral como «open source»; em um movimento surpreendente, a OpenAI publicou, por meio da Ollama, o novo modelo gpt-oss, projetado para ser executado localmente, nos computadores dos utilizadores.
Mas, apesar de a empresa dirigida por Sam Altman ter destacado que este modelo pode ser executado num portátil de gama alta, será necessária uma GPU de 80 GB para poder trabalhar com ele, o que requer uma máquina equipada, por exemplo, uma NVIDIA A100 com Tensor Core, embora também exista uma variante mais leve que pode funcionar com uma memória de 16 GB e que foi concebida para dispositivos edge, pelo que poderia funcionar num smartphone topo de gama.
As duas variantes disponíveis deste novo modelo são o gpt-oss-120b (que seria o mais «pesado» e que requer 80 GB para ser utilizado) e a gpt-oss-20b (que é a concebida para sistemas mais leves, como smartphones), ambas treinadas com técnicas de reforço e alinhamento idênticas às utilizadas nos modelos proprietários mais avançados da própria OpenAI.
Ambas são publicadas sob licença Apache 2.0, o que permite que empresas e programadores as utilizem e adaptem sem restrições comerciais.
O modelo gpt-oss-120b aproxima-se do desempenho do próprio o4-mini em testes básicos de raciocínio, enquanto o gpt-oss-20b alcança resultados semelhantes ao o3-mini e é capaz de funcionar em dispositivos edge com apenas 16 GB de memória. Essa eficiência abre as portas para a inferência local e ciclos de iteração rápida sem a necessidade de infraestruturas dispendiosas, um fator chave para os responsáveis de TI que procuram reduzir o TCO dos seus projetos de IA.
Graças à compatibilidade com a Responses API, esses novos modelos oferecem capacidades agênicas para completar, de forma autónoma, tarefas que envolvem habilidades como navegação na Internet, realização de ações online como compras e contratações, e compostas por várias etapas nas quais a própria IA precisa tomar decisões, ou a execução de código Python, embora, conforme explicado pela OpenAI, as suas capacidades nessa área não sejam tão extensas quanto as dos modelos hospedados nos servidores da empresa. Admitem raciocínio em cadeia completo, saídas estruturadas e ajuste dinâmico do esforço de raciocínio de acordo com a latência necessária.
No caso da navegação na web, o Ollama fornece um motor de busca cuja utilização pode ser ativada opcionalmente, proporcionando acesso a informações atualizadas.
Os testes internos da OpenAI colocam ambos os modelos à frente de outros dos seus sistemas proprietários, como o o1 e o GPT-4o e, de acordo com a própria empresa, também acima de outras alternativas abertas.
No que diz respeito à segurança oferecida por ambos os modelos (menos controláveis pela empresa por serem executados localmente e poderem modificar seu código-fonte), a OpenAI indica que, durante o pré-treinamento, foram filtrados dados sensíveis relacionados com CBRN, e o pós-treinamento incorporou alinhamento deliberado e uma hierarquia de instruções orientada para rejeitar solicitações inseguras.
A empresa norte-americana submeteu o gpt-oss-120b a um ajuste adversarial para simular uma utilização maliciosa e concluiu que, mesmo com um reforço intensivo, o modelo não atingiu níveis elevados de capacidade nos cenários de risco definidos. Três grupos externos revisaram a metodologia e contribuíram com recomendações que já foram integradas no cartão do modelo, segundo a OpenAI.
As primeiras implementações estão a ser realizadas com parceiros como AI Sweden, Orange e Snowflake, que alojam os modelos em instalações próprias por motivos de privacidade ou os aperfeiçoam com dados setoriais. Este é, precisamente, o objetivo de ambos os modelos: alojá-los no local para poder desfrutar de privacidade ao lidar com dados sensíveis.
Outra vantagem de executar o modelo na infraestrutura própria é que as organizações que o adotam podem otimizá-lo (fine-tuning) para que execute com perfeição as tarefas relacionadas à própria organização, perdendo o caráter mais generalista, mas ganhando uma ferramenta que se adapta como uma luva às necessidades da organização.
Essa flexibilidade permite que organizações públicas e privadas equilibrem custo, desempenho e soberania de dados ao escolher entre os novos gpt-oss e os modelos proprietários da API da OpenAI.
Paralelamente, a empresa também anunciou o lançamento de um Red Teaming Challenge com 500.000 dólares em prémios. Investigadores e programadores estão convidados a identificar vulnerabilidades e, ao final do concurso, a OpenAI publicará um relatório com um conjunto de dados de avaliação com base nas contribuições validadas.
O objetivo final desta iniciativa é, estabelecer um padrão de transparência e estimular a investigação em segurança e alinhamento de modelos com pesos acessíveis.







