top of page

Sabiá-2:
Uma Nova Geração de
Grandes Modelos de Linguagem em Português

Screen_Shot_2024-03-10_at_9.41.05_PM-removebg-preview.png

13 de março de 2024

Há cerca de um ano, lançamos o Sabiá-65B, o primeiro LLM especializado em português, que atingia desempenhos comparáveis ao GPT-3.5-turbo em uma variedade de tarefas em português.

 

Hoje, anunciamos a chegada do Sabiá-2, a nossa mais nova família de modelos de linguagem especializados no português e particularmente no domínio brasileiro.

Comparamos os Sabiás com LLMs comerciais e open-source em diversos exames brasileiros:

  • Admissão em universidades (USP, UNICAMP e Enem)

  • Ensino superior (Enade 2022 e 2023),

  • Direito (OAB),

  • Contabilidade (CFCES)

  • Medicina: (Revalida e provas de residência da USP e UNICAMP)

  • Pós graduação em engenharia da computação (Poscomp)

Devido à especialização no português, oferecemos o Sabiá-2 a um custo muito mais acessível. Veja o gráfico comparativo abaixo:

Custo Beneficio Blog v2.png

O nosso melhor modelo até agora, o Sabiá-2 Medium, se iguala ou supera o desempenho do GPT-4 em 23 de 64 exames e ultrapassa o GPT-3.5 em 58 de 64 exames. Veja abaixo os resultados para as provas do Enade 2022 e 2023:

newplot (6).png

Note que nenhum dos modelos foi especificamente treinado para realizar esses exames. Ademais, as provas foram divulgadas no final de 2023 (com exceção do Enade 2022), após a data de treinamento dos modelos Sabiá. Dessa forma, é improvável que os modelos tenham tido contato com essas perguntas durante o treinamento.

Para mais detalhes, confira nosso relatório técnico (em inglês):

Como Acessar os Modelos

Os modelos Sabiá-2 podem ser acessados a partir de três formas:

  • Gratuitamente em nosso chatbot MariTalk (Sabia-2-medium).

  • Via API (a documentação pode ser encontrada aqui).

  • On-premise, através da MariTalk Local.

Além disso, também possuímos códigos exemplo demostrando como fazer as requisições para nossa API em Python ou JavaScript (link).

LangChain

Recentemente integramos nossos modelos ao LangChain, permitindo utilizar todos os recursos da biblioteca, alimentados por um modelo de linguagem especializado no português brasileiro e na cultura do Brasil. Esta página apresenta a documentação de nosso chat e apresenta um código exemplo de como criar um sistema RAG em poucos passos.

bottom of page