Inteligência Artificial para o Brasil.
Experimente o modelo Sabiá-3 GRATUITAMENTE em
Qualidade superior e preço competitivo: veja como o Sabiá-3 se destaca nos exames nacionais.
Se você é um desenvolvedor, nossa API permite que você utilize os modelos Sabiá pagando apenas pela quantidade de tokens processados — tanto os enviados quanto os gerados.
Pagamento por Uso
Graças ao treinamento especializado dos modelos Sabiá, oferecemos uma qualidade de desempenho superior a um custo 4x menor comparado aos competidores.
Qualidade e Custo que Surpreendem
Confira abaixo como nossos modelos se destacam, com base em resultados de exames nacionais, como ENEM, ENADE, Revalida, OAB, UNICAMP, e USP, em relação ao preço por token:
Desempenho Comprovado em Exames Nacionais
Considerando US$1 = R$ 5,50
Estimativa de que para cada 1 milhão de tokens, 500 mil são tokens de entrada e os outros 500 mil são tokens de saída.
Um milhão de tokens equivalem à aproximadamente 700 páginas de texto em português.
O Trabalho Avançado Exige uma IA Avançada
Sobre Nós
Maritaca AI é uma empresa brasileira que desenvolve inteligências artificiais especializadas em domínios e idiomas, garantindo que reflitam o conhecimento único de diversas regiões do planeta e segmentos de mercado.
Colocamos igual ênfase na pesquisa e no desenvolvimento de produtos, garantindo que permaneçamos na vanguarda da IA, ao mesmo tempo que contribuímos para áreas de pesquisa pouco representadas, como o processamento de linguagem natural em português.
Nossa Jornada em Números
32K
tokens de contexto em nosso modelo Sabiá-3 para oferecer respostas rápidas e eficazes.
500K
tokens de entrada processados por minuto, garantindo alta performance na nossa API.
700
páginas de texto em português por cada 1 milhão de tokens, permitindo uma geração de conteúdo rica e abrangente.
-
Qual a arquitetura e quantos parâmetros tem modelos Sabiá 2 e 3?Os modelos são baseados na arquitetura Transformers, mas o número de parâmetros e arquitetura exata são informações que mantemos em sigilo.
-
Vocês planejam ter modelos especializados para domínios específicos, como jurídico, financeiro, saúde, etc?Sim, temos planos de servir modelos especializados em certas áreas do conhecimento. Entretanto, ainda não temos uma data para seus lançamentos.
-
O que os modelos são capazes de fazer?Eles possuem várias habilidades, tais como: Fornecer explicações detalhadas sobre uma variedade de tópicos e ajudar no aprendizado de novos conceitos; Responder perguntas de acordo com o contexto de uma conversa; Traduzir texto para e de muitas línguas diferentes; Gerar textos criativos, como histórias, poemas, diálogos e muito mais.
-
Quais são as limitações dos modelos da Maritaca AI?Tarefas que exigem raciocínio lógico e escrita de código são desafiadoras para os modelos atuais. Além disso, os modelos podem apresentar alucinações, como inventar fatos ou responder perguntas sobre eventos que nunca aconteceram. Esses são problemas em aberto para a comunidade científica, mas estão sendo progressivamente mitigados com cada nova versão dos modelos.
-
A Maritaca é atrelada à UNICAMP?Apesar de parte do time ter tido ou ter algum vínculo com a UNICAMP, seja como alunos ou pesquisadores, a Maritaca AI não tem nenhum vínculo formal com a universidade, e nem foi incubada pela mesma. Entretanto nos beneficiamos imensamente por estar tão perto do ecossistema de educação, pesquisa e desenvolvimento que forma profissionais de alto nível.
-
Meus dados são usados para treinamento? Qual é a política de retenção de dados?API: todos os dados enviados para nossos servidores são imediatamente descartados após gerada a saída. Apenas armazenamos a contagem de tokens para efeitos de cobrança. Chatbot Web: por ser um serviço gratuito, podemos eventualmente usar as perguntas mais frequentes de usuários para melhorar os modelos.
-
Onde fica localizada a Maritaca AI?A Maritaca AI fica localizada em Campinas, estado de São Paulo, mas é uma empresa híbrida, com parte dos colaboradores trabalhando remotamente.
-
Como eu faço para usar os modelos Sabiá?Entre em https://chat.maritaca.ai/ e faça login com um endereço de e-mail. Se você é programador e deseja obter informações sobre como usar os modelos via API, acesse https://docs.maritaca.ai/pt/maritalk-api/comeco-rapido
-
Como é o treinamento dos modelos servidos pela Maritaca?Os modelos passam por dois estágios de treinamento. No primeiro, os modelos são treinados de maneira auto-supervisionada (ex: prever a próxima palavra em um documento) em grandes quantidades de texto, por exemplo, extraídos da web, livros, etc. Na segunda etapa, o foco é ensinar os modelos a compreender e seguir instruções específicas, além de produzir respostas que sejam seguras, evitando conteúdo ofensivo, perigoso ou que viole princípios éticos.
-
Tenho um projeto que envolve LLMs. Vocês poderiam me ajudar a executá-lo?Por estarmos focados em melhorar nossos produtos, infelizmente não temos tempo para atuar em projetos específicos ou fazer customizações dos nossos produtos.
-
Qual é a data de corte dos dados de treinamento?Os modelos foram treinados em dados disponíveis até meados de 2023, então eles não estão cientes dos eventos ou informações que surgiram após essa data.
-
Por que usar a MariTalk ao invés do OpenAI ChatGPT, Google Gemini, etc?A MariTalk se distingue dos concorrentes em dois aspectos fundamentais. Primeiramente, foi treinada especificamente para entender bem a lingua portuguesa, portanto, tem um desempenho superior em tarefas neste idioma. Se seu projeto ou aplicação demanda conhecimentos específicos do Brasil, a MariTalk pode ser a escolha ideal. Em segundo lugar, a MariTalk Local permite o download e a execução local, no seu próprio servidor ou desktop, sem a necessidade de enviar seus dados para a nuvem. Isso pode ser especialmente útil para entidades que lidam com dados sensíveis, como hospitais e escritórios de advocacia, que precisam ou são legalmente obrigadas a manter seus dados em seus próprios servidores.
-
Qual a diferença da MariTalk para os modelos Sabiá?MariTalk é uma plataforma que serve diversos modelos de linguagem grande, incluindo Sabiá 2 e 3. Se você quiser saber mais sobre os modelos Sabiá, confira estes links: Artigo do Sabiá-1 Relatório técnico do Sabiá-2 Relatório técnico do Sabiá-3
-
Em quais dados os modelos foram treinados?Os modelos Sabiá 2 e 3 foram treinados em uma grande quantidade de dados públicos da internet, em sua maioria no idioma Português. Entretanto, os modelos também possuem capacidades razoáveis de desempenhar tarefas em idiomas como Inglês e Espanhol.
-
Quais soluções a sua empresa oferece para tarefas específicas, como aprimoramento do atendimento ao cliente através de chatbots, elaboração de petições, etc?Não fornecemos soluções personalizadas para desafios específicos dos clientes. Neste caso, recomendamos entrar em contato com uma empresa de integração de software que possa oferecer um serviço mais alinhado às suas demandas específicas.
-
Qual nuvem é usada pela Maritaca?Nossos modelos rodam em GPUs na Oracle Cloud, Amazon AWS e Google Cloud. O treinamento é majoritariamente feito em TPUs na Google Cloud.
-
Vocês possuem modelos de embeddings para retrieval augmented LLMs (RAG)?Não, mas incluiremos este serviço em nosso portfólio em um futuro próximo. Se estiver interessado em integrar nossos LLMs com sistemas de busca, recomendamos consultar este exemplo com LangChain.
-
Gostaria de capacitar o pessoal da minha empresa sobre IA generativa, LLMs, RAG, etc. Vocês dão cursos, workshops, etc?Por sermos um time focado em melhorar nossos produtos, infelizmente não temos tempo para oferecer treinamentos.
-
Consigo fazer finetuning nos meus dados a partir dos modelos da Maritaca?Ainda não, mas em breve teremos esta funcionalidade.
32000 tokens de contexto
Modelo mais avançado
Sabiá-3
R$ 5,00 R$ 10,00
Para cada 1 milhão de tokens
R$ 20 de créditos iniciais
Entrada Saída
Sabiazinho-3
R$ 1,00 R$ 3,00
Para cada 1 milhão de tokens
R$ 20 de créditos iniciais
Entrada Saída
32000 tokens de contexto
Baixa latência