Todos os posts
·6 min

Sabiá-4

Estamos introduzindo nossa nova geração de modelos com Sabiazinho-4 e Sabiá-4, com melhorias no domínio jurídico, uso de contexto longo, seguir instruções e capacidades de agente.

Estamos lançando em versão preview o Sabiá-4, nosso modelo da próxima geração da família Sabiá, projetado com foco em custo e desempenho em tarefas complexas. Os modelos representam um avanço significativo em relação à geração anterior, especialmente nas áreas em que a versão antiga apresentava limitações.

Gráfico custo vs qualidade dos modelos avaliados

Figura 1: gráfico com custo (eixo X) vs qualidade (eixo Y) dos modelos avaliados.

Melhorias no pré-treino

Identificamos algumas limitações importantes em cenários mais exigentes para a geração antiga e melhoramos nosso pré‑treino para cobrir esses pontos:

  • Domínio jurídico brasileiro — leis, súmulas, decisões e redação jurídica.
  • Contexto longo — até 128 mil tokens, ideal para análise de processos e contratos.
  • Conhecimento sobre o Brasil — atualidades, instituições e literatura nacional.
  • Capacidades de agente — function calling estável e orquestração de ferramentas.

Melhorias no pós-treino

Também trouxemos melhorias no pós‑treino, especialmente para cobrir limitações da geração antiga:

  • Seguimento de instruções — respostas mais consistentes e fiéis ao pedido.
  • Chamada de funções (function calling) — execução correta em ambientes complexos.
  • Busca na web — uso adequado de ferramentas externas quando disponíveis.

Avaliação em benchmarks

Os modelos foram avaliados em diversos benchmarks de avaliação. As tabelas abaixo apresentam o desempenho de modelos em faixas de custo diferentes.

BenchmarkSabiá-4Sabiá-3.1GPT-4.1GPT-5.2 s/
reasoning
GPT-5.2
reasoning
Gemini-3-Pro
(reasoning
low)
Gemini-3-Pro
(reasoning
high)
Kimi-k2-
thinking
Qwen3-
235b-
instruct-2507
Deepseek-
v3.2
CustoR$80,49R$62,15R$182,49R$307,12R$752,41R$403,31R$804,07R$516,52R$44,36R$49,22
Leis brasileiras97,477,880,884,086,374,988,659,165,967,3
OAB Bench7,497,217,308,078,739,058,906,626,336,40
Magis Bench5,084,975,556,666,997,797,484,494,524,88
Capacidades
agênticas
72,243,173,381,185,790,490,177,367,840,5
Provas brasileiras86,682,486,188,092,993,395,083,082,084,0
Multi-IF Português82,080,782,783,787,286,088,086,084,481,5
BRACEval53,844,650,259,060,270,868,156,965,660,8

Tabela 1: Sabiá-4 — comparação de qualidade e custo entre modelos de fronteira.

Destacamos abaixo alguns dos principais benchmarks.

OAB-Bench

arxiv.org/abs/2504.21202

OAB-Bench é um benchmark criado para avaliar a capacidade de modelos de linguagem em tarefas complexas de escrita jurídica, usando como base a segunda fase do Exame da Ordem dos Advogados do Brasil (OAB).

O benchmark reúne 105 questões retiradas de edições recentes do exame, distribuídas em sete áreas do direito, e inclui as mesmas diretrizes de avaliação completas usadas por avaliadores humanos para garantir uma análise rigorosa e consistente.

Magis-Bench

Magis-Bench é um benchmark voltado à avaliação de modelos de linguagem em tarefas jurídicas de alta complexidade, com foco em concursos públicos para o cargo de juiz substituto no Brasil. O benchmark é construído a partir de provas reais e recentes de concursos públicos, abrangendo, para cada certame, uma prova discursiva e duas provas práticas: elaboração de sentença cível e elaboração de sentença criminal.

Ticket-Bench

arxiv.org/abs/2509.14477

Ticket Bench busca avaliar a capacidade dos modelos de operar uma plataforma de compra de ingressos de jogos de futebol. O ambiente fornece ao modelo informações sobre o usuário e a capacidade de buscar partidas, escolher assentos e finalizar a compra.

Pix-Bench

Pix-Bench avalia a capacidade de modelos auxiliarem em tarefas financeiras cotidianas, como realizar o pagamento de uma conta ou fazer um Pix para outra pessoa. Assumindo o papel de assistente de uma plataforma bancária, o modelo precisa interpretar o pedido do usuário e executar a ação correta.

MARCA (MAritaca Research Checklist evAluation)

MARCA é um benchmark que avalia as capacidades dos modelos de encontrar informação através de navegação na web, focando principalmente em perguntas que demandam busca em largura — isto é, que envolvem coletar e sintetizar informação de múltiplas fontes.

Cada pergunta do MARCA é acompanhada de um checklist, utilizado para avaliar a completude e a corretude da resposta do modelo.

CLIMB (CheckList-based Inference for Multihop with Browsing)

CLIMB é um benchmark projetado para testar a habilidade dos modelos em realizar buscas em cadeia até alcançar uma resposta final. É composto por perguntas complexas que exigem navegação encadeada (multi-hop) entre páginas para sintetizar a resposta correta.

Leis Brasileiras

Este benchmark foi elaborado para avaliar o conhecimento dos modelos sobre a legislação federal brasileira, que compreende mais de 50 mil atos normativos, incluindo leis, decretos e medidas provisórias.

As questões são de múltipla escolha e podem assumir duas variações: na primeira, o modelo recebe um trecho da legislação e deve identificar a lei à qual ele pertence; na segunda, o modelo deve identificar a referência exata do trecho.

Multi-IF

arxiv.org/abs/2410.15553

O Multi-IF é um benchmark que avalia se modelos são capazes de seguir instruções que se acumulam ao longo de uma conversa. Diferentemente da maioria dos testes de seguimento de instruções, que envolvem turnos isolados, o Multi-IF avalia a robustez do modelo ao longo de múltiplos turnos.

BRACeval (Brazilian Chat Evaluation)

arxiv.org/abs/2403.09887

BRACEval é um benchmark de perguntas abertas voltado à avaliação de chatbots em cenários de instruções complexas e diálogos multi-turno, com ênfase no conhecimento sobre o Brasil. Composto por 150 perguntas multi-turno distribuídas em 13 categorias que incluem tarefas contextualizadas ao Brasil — escrita criativa, roleplay, extração de informação, humanidades, entre outras.

Custo total

Ao calcular o custo real de um modelo de linguagem, é importante considerar todos os fatores envolvidos para obter uma visão completa e precisa. Embora o preço por token de entrada e saída seja um ponto central, ele não conta a história inteira: latência, número de tokens necessários por tarefa e custo por benchmark também importam.

BenchmarkSabiá-4Sabiá-3.1GPT-4.1GPT-5.2 s/
reasoning
GPT-5.2
reasoning
Gemini-3-Pro
(reasoning
low)
Gemini-3-Pro
(reasoning
high)
Kimi-k2-
thinking
Qwen3-
235b-
instruct
Deepseek-
v3.2
OAB BenchR$3,06R$2,17R$6,26R$9,02R$22,03R$12,11R$26,15R$12,68R$1,43R$0,75
Magis BenchR$2,44R$1,74R$4,88R$9,33R$23,91R$14,39R$24,89R$8,07R$0,69R$0,49
Leis brasileirasR$7,18R$7,89R$13,73R$11,97R$37,38R$31,68R$86,33R$33,17R$1,99R$2,19
Capacidades
agênticas
R$35,97R$25,49R$102,15R$181,09R$467,29R$178,90R$224,55R$304,58R$27,47R$38,81
Provas brasileirasR$6,36R$4,38R$7,48R$4,21R$30,77R$36,32R$101,22R$41,37R$3,07R$1,65
Multi-IF PortuguêsR$16,08R$13,80R$28,73R$58,80R$97,76R$79,40R$206,23R$70,62R$5,43R$3,55
BRACEvalR$2,38R$1,48R$3,74R$7,50R$13,51R$11,27R$28,50R$10,64R$0,90R$0,50
TotalR$80,49R$62,15R$182,49R$307,12R$752,41R$403,31R$804,07R$516,52R$44,36R$49,22

Figura 11: Sabiá-4 — custos em reais para avaliar os modelos nos benchmarks divulgados.

Próximos passos

O lançamento dos modelos da geração 4 (Sabiazinho-4 e Sabiá-4) é um passo importante para o desenvolvimento de nossas próximas gerações de modelos. Você pode encontrar mais detalhes sobre como usar o novo modelo em nossa documentação: docs.maritaca.ai.