top of page

MariTalk é um chatbot baseado em LLM e treinado para atender as necessidades do Brasil.

Use-o gratuitamente em chat.maritaca.ai

Nossos Produtos

Nossos LLMs especializados no português estão disponíveis através de dois produtos:
MariTalk API: modelos que rodam em nossa nuvem
MariTalk Local: modelos que rodam em sua máquina

MariTalk API

A MariTalk API possibilita que você use nossos modelos Sabiá-2 pagando um valor proporcional à quantidade de tokens enviados (prompt) e gerados. 

Devido ao treinamento especializado dos modelos Sabiá-2, eles entregam uma qualidade maior a um menor preço do que nossos concorrentes.

 

Compare abaixo a qualidade dos nossos modelos, medida pelo desempenho em 64 Exames Brasileiros (Enem, Enade, Revalida, OAB, UNICAMP, USP, etc) vs preço:

newplot (9).png

* Considerando US$1 = R$ 5

Estimativa de que para cada 1 milhão de tokens, 500 mil são tokens de entrada e os outros 500 mil são tokens de saída.

Um milhão de tokens equivalem à aproximadamente 700 páginas de texto em português.

Para mais detalhes, confira o blog post do Sabiá-2:

Preços API

Pricing

Sabiá-2 Small

 R$

1,00

Entrada

3,00

Saída

Para cada 1M tokens

R$ 20 de créditos inicias

8192 tokens de contexto

Baixa latência

Melhor custo-benefício

Rate Limit:

150k input tokens/min

50k output tokens/min

Sabiá-2 Medium

 R$

5,00

Entrada

15,00

Saída

Para cada 1M tokens

R$ 20 de créditos inicias

8192 tokens de contexto

Maior assertividade

Rate Limit:

150k input tokens/min

50k output tokens/min

Como usar

Use a Maritalk API através de nossa biblioteca Python:

import maritalk

model = maritalk.MariTalk(key="insira sua chave aqui. Ex: '100088...'")

answer = model.generate("Quanto é 25 + 27?")

print(f"Resposta: {answer}")    # Deve imprimir algo como "52."

maritalk local (1).png

MariTalk Local

Além de usar nossos modelos via API, você pode também hospedá-los localmente.

Seus dados nunca saem da sua máquina local; apenas informações sobre o tempo de uso do modelo são enviados para nossos servidores para efeitos de cobrança.

Sabiá-2 Small

 R$

3,50

Por hora

30 dias grátis

8192 tokens de contexto

Baixa latência

Melhor custo-benefício

Requer 24 GB RAM de GPU

Sabiá-2 Medium

 R$

10,00

Por hora

30 dias grátis

8192 tokens de contexto

Maior assertividade

Requer 80 GB RAM de GPU

Como usar

Use a Maritalk Local através de nossa biblioteca Python:

import maritalk

# Criando uma instância do cliente MariTalkLocal

client = maritalk.MariTalkLocal()

# Iniciando o servidor com uma chave de licença especificada.

# O executável será baixado em ~/bin/maritalk

client.start_server(client="00000-00000-00000-00000")

# Gerando uma resposta para a pergunta

response client.generate("Quanto é 25 + 27?")

print(response["output"])    # Deve imprimir algo como "52."

bottom of page