A Mistral AI lançou o Mixtral 8x7B, uma inovação importante na área de inteligência artificial, que combina um modelo de especialistas esparsos (SMoE) com pesos abertos.
Este novo modelo estabelece um padrão na área de inteligência artificial, prometendo ser mais rápido e eficiente do que os modelos já existentes.
Texto: Link magnet: ?xt=urn:btih:5546272da9065eddeb6fcd7ffddeef5b75be79a7&dn=mixtral-8x7b-32kseqlen&tr=udp%3A%2F%2Fhttp://t.co/uV4WVdtpwZ%3A6969%2
O texto é uma sequência de caracteres sem sentido que não pode ser parafraseado.
“Em 8 de dezembro de 2023, a IA Mistral (@MistralAI) postou no Twitter.”
O que significa Mixtrail-8x7B?
O MixTrail 8x7B, que pode ser encontrado no Hugging Face, se destaca por sua excelente performance e possui licença Apache 2.0.
O modelo oferece diversas funcionalidades, como a habilidade de processar um contexto com até 32 mil tokens e suporte para diversos idiomas, como inglês, francês, italiano, alemão e espanhol.
O Mixtral é um tipo de rede de especialistas que se destaca por sua arquitetura de decodificador esparsa. Essa arquitetura permite um aumento nos parâmetros enquanto mantém um bom controle dos custos e da latência.
Mixtral-8x7B: Indicadores de rendimento.
O novo modelo foi desenvolvido com o objetivo de aprimorar a compreensão e a criação de textos, o que é essencial para aqueles que desejam utilizar a IA para escrever ou realizar tarefas de comunicação.
Ele demonstra sua eficácia em termos de desempenho em larga escala, superando Llama 2 70B e comparável a GPT-3.5 em vários testes.
A empresa afirma que tem um desempenho superior ao Llama 2 70B em muitos testes, apresentando uma inferência seis vezes mais rápida.
A Mixtrial demonstra progressos na diminuição de alucinações e preconceitos, o que fica claro em seu desempenho nos testes TruthfulQA/BBQ/BOLD.
Ele exibe respostas mais autênticas e menos tendenciosas em comparação com Llama 2, além de expressar sentimentos mais otimistas.
A competência do Mixtral 8x7B em diferentes idiomas é comprovada por sua excelente performance em testes multilíngues.
O Mistral AI, em conjunto com o Mistral 8x7B, disponibiliza o Mistral 8x7B Instruct, que foi aprimorado para instruções específicas. Esse modelo de código aberto de alto desempenho obteve uma pontuação de 8.30 no MT-Bench.
O Mixtral tem a capacidade de ser incorporado em sistemas já existentes por meio do projeto vLLM de código aberto, suportado pelo Skypilot para ser implantado na nuvem. A plataforma da IA Mistral também fornece acesso antecipado ao modelo.
A mais recente inclusão na família Mistral tem potencial para transformar o campo da IA com melhorias em suas métricas de desempenho, conforme divulgado pela OpenCompass.
O Mixtral-8x7B se destaca não apenas por suas melhorias em relação à versão anterior da IA Mistral, mas também pela forma como se compara aos modelos como Llama2-70B e Qwen-72B.
Como utilizar o Mixtral-8x7B: demonstrações em 4 passos.
Você tem a oportunidade de testar o desempenho e comparar o novo modelo da Mistral AI, Mixtral-8x7B, com outros modelos de código aberto e o GPT-4 da OpenAI, para avaliar suas respostas às consultas.
Tenha em mente que, assim como qualquer conteúdo gerado por IA, as plataformas que utilizam esse novo modelo podem gerar informações imprecisas ou resultados indesejados.
As opiniões dos usuários sobre novos modelos como este serão úteis para empresas como a IA Mistral aprimorarem versões e modelos futuros.
1. Área de experimentação do Perplexidade Labs
No Perplexity Labs, é possível testar o Mixtral-8x7B em conjunto com o Llama 2 da Meta AI, o Mistral-7b e os mais recentes LLMs online da Perplexidade.
Neste exemplo, faço uma pergunta sobre o modelo em si e observo que novas instruções são acrescentadas depois da resposta inicial para ampliar o conteúdo gerado em relação à minha pergunta.
Embora a resposta pareça estar correta, começa a ser repetitiva.
O modelo deu uma resposta com mais de 600 palavras à pergunta: “Qual é a definição de SEO?”
Mais uma vez, surgem instruções adicionais como “cabeças” para aparentemente assegurar uma resposta completa.
Coloca
No Poe, são disponibilizados servidores para abrigar diferentes modelos de linguagem, como GPT-4 e DALL·E 3 da OpenAI, Llama 2 e Llama de Código da Meta AI, PaLM 2 do Google, Claude-instant e Claude 2 da Anthropic, além do StableDiffusionXL.
Esses bots têm uma ampla variedade de habilidades, como a capacidade de lidar com texto, imagem e também gerar código.
A Fireworks AI opera o bot Mixtral-8x7B-Chat.
É importante ressaltar que a página Fireworks menciona que é uma versão “não oficial” adaptada para o chat.
Ele deu uma resposta válida quando questionado sobre quais são os backlinks mais eficazes para SEO.
Contraste isso com a solução apresentada pelo Google BARD.
3. Observe a representação gráfica.
Vercel disponibiliza uma demonstração do Mixtral-8x7B que possibilita aos usuários comparar as respostas de modelos populares como Anthropic, Cohere, Meta AI e OpenAI.
Apresenta uma visão intrigante sobre a forma como cada modelo compreende e reage às indagações do utilizador.
Assim como muitos LLMs, em alguns momentos ele tem alucinações.
4. Imitar, copiar ou reproduzir.
O demo mixtral-8x7b-32 no Replicate é construído a partir deste código-fonte. O README também menciona que “A interferência é altamente ineficiente.”
A plataforma de inteligência artificial Mistral.
A Mistral AI divulgou que, além do Mixtral-8x7B, estão disponíveis em fase beta os seus serviços de plataforma, que incluem três terminais de chat que geram texto e uma opção de integração final.
Esses modelos são treinados previamente usando dados abertos da internet e adaptados para instruções, com suporte para diversos idiomas e codificações.
- Mistral-tiny é um sistema que utiliza o Mistral 7B Instruct v0.2, funciona apenas em inglês e é a escolha mais econômica.
- Mistral Pequeno utiliza a plataforma Mixtral 8x7B para auxiliar em recursos de suporte e codificação em várias línguas.
- O Mistral Medium oferece um protótipo de alto desempenho que possui as mesmas linguagens e habilidades de codificação do Mistral Pequeno.
O Mistral embutido possui um modelo de incorporação com 1024 dimensões que foi criado especificamente para recursos de recuperação.
A API é compatível com interfaces de chat populares e possui bibliotecas de clientes nas linguagens Python e JavaScript. Além disso, a API também possui recursos para controlar a moderação.
As inscrições para acessar a API estão abertas, com a plataforma avançando gradualmente em direção à disponibilidade completa.
A IA Mistral reconhece a contribuição da NVIDIA na implementação do TensorRT-LLM e Triton em seus serviços.
Em conclusão.
A última versão da Mistral AI estabelece um novo padrão no campo da IA, proporcionando um desempenho e versatilidade aprimorados. No entanto, como ocorre com muitos LLMs, ela pode apresentar respostas imprecisas e surpreendentes.
Conforme a Inteligência Artificial continua a progredir, modelos como o Mixtral-8x7B podem se tornar indispensáveis na elaboração de ferramentas avançadas de IA para o setor de marketing e empreendedorismo.
Foto principal: T. Schneider/Shutterstock.