Sun. Jul 7th, 2024

A Mistral AI lançou o Mixtral 8x7B, uma inovação importante na área de inteligência artificial, que combina um modelo de especialistas esparsos (SMoE) com pesos abertos.

Este novo modelo estabelece um padrão na área de inteligência artificial, prometendo ser mais rápido e eficiente do que os modelos já existentes.

Texto: Link magnet: ?xt=urn:btih:5546272da9065eddeb6fcd7ffddeef5b75be79a7&dn=mixtral-8x7b-32kseqlen&tr=udp%3A%2F%2Fhttp://t.co/uV4WVdtpwZ%3A6969%2

O texto é uma sequência de caracteres sem sentido que não pode ser parafraseado.

“Em 8 de dezembro de 2023, a IA Mistral (@MistralAI) postou no Twitter.”

O que significa Mixtrail-8x7B?

O MixTrail 8x7B, que pode ser encontrado no Hugging Face, se destaca por sua excelente performance e possui licença Apache 2.0.

O modelo oferece diversas funcionalidades, como a habilidade de processar um contexto com até 32 mil tokens e suporte para diversos idiomas, como inglês, francês, italiano, alemão e espanhol.

O Mixtral é um tipo de rede de especialistas que se destaca por sua arquitetura de decodificador esparsa. Essa arquitetura permite um aumento nos parâmetros enquanto mantém um bom controle dos custos e da latência.

Mixtral-8x7B: Indicadores de rendimento.

O novo modelo foi desenvolvido com o objetivo de aprimorar a compreensão e a criação de textos, o que é essencial para aqueles que desejam utilizar a IA para escrever ou realizar tarefas de comunicação.

Ele demonstra sua eficácia em termos de desempenho em larga escala, superando Llama 2 70B e comparável a GPT-3.5 em vários testes.

Mixtral-8x7B: 4 Ways Marketers Can Try The New Model From Mistral AI
Imagem: JonPauling/FreeImages

A empresa afirma que tem um desempenho superior ao Llama 2 70B em muitos testes, apresentando uma inferência seis vezes mais rápida.

Mixtral-8x7B: 4 Ways Marketers Can Try The New Model From Mistral AI
Imagem: JonPauling/DepositPhotos

A Mixtrial demonstra progressos na diminuição de alucinações e preconceitos, o que fica claro em seu desempenho nos testes TruthfulQA/BBQ/BOLD.

Ele exibe respostas mais autênticas e menos tendenciosas em comparação com Llama 2, além de expressar sentimentos mais otimistas.

Leia Mais:   Agora, qualquer pessoa pode acessar os GPTs personalizados no ChatGPT, inclusive os assinantes da empresa.
Mixtral-8x7B: 4 Ways Marketers Can Try The New Model From Mistral AI
Imagem: GernotBra/Flickr

A competência do Mixtral 8x7B em diferentes idiomas é comprovada por sua excelente performance em testes multilíngues.

Mixtral-8x7B: 4 Ways Marketers Can Try The New Model From Mistral AI
Imagem: driles/Pexels

O Mistral AI, em conjunto com o Mistral 8x7B, disponibiliza o Mistral 8x7B Instruct, que foi aprimorado para instruções específicas. Esse modelo de código aberto de alto desempenho obteve uma pontuação de 8.30 no MT-Bench.

O Mixtral tem a capacidade de ser incorporado em sistemas já existentes por meio do projeto vLLM de código aberto, suportado pelo Skypilot para ser implantado na nuvem. A plataforma da IA Mistral também fornece acesso antecipado ao modelo.

A mais recente inclusão na família Mistral tem potencial para transformar o campo da IA com melhorias em suas métricas de desempenho, conforme divulgado pela OpenCompass.

Mixtral-8x7B: 4 Ways Marketers Can Try The New Model From Mistral AI
Imagem: TomasHa73/DepositPhotos

O Mixtral-8x7B se destaca não apenas por suas melhorias em relação à versão anterior da IA Mistral, mas também pela forma como se compara aos modelos como Llama2-70B e Qwen-72B.

mixtral-8x7b performance metrics compared to llama 2 open source ai models
Imagem: astrovariable/StockVault

Como utilizar o Mixtral-8x7B: demonstrações em 4 passos.

Você tem a oportunidade de testar o desempenho e comparar o novo modelo da Mistral AI, Mixtral-8x7B, com outros modelos de código aberto e o GPT-4 da OpenAI, para avaliar suas respostas às consultas.

Tenha em mente que, assim como qualquer conteúdo gerado por IA, as plataformas que utilizam esse novo modelo podem gerar informações imprecisas ou resultados indesejados.

As opiniões dos usuários sobre novos modelos como este serão úteis para empresas como a IA Mistral aprimorarem versões e modelos futuros.

1. Área de experimentação do Perplexidade Labs

No Perplexity Labs, é possível testar o Mixtral-8x7B em conjunto com o Llama 2 da Meta AI, o Mistral-7b e os mais recentes LLMs online da Perplexidade.

Neste exemplo, faço uma pergunta sobre o modelo em si e observo que novas instruções são acrescentadas depois da resposta inicial para ampliar o conteúdo gerado em relação à minha pergunta.

Leia Mais:   Por que o Gemini não se tornará um substituto do Google Search.
mixtral-8x7b perplexity labs playground
Imagem: xsix/iStock

Embora a resposta pareça estar correta, começa a ser repetitiva.

mixtral-8x7b errors
Imagem: karvanth/KaboomPics

O modelo deu uma resposta com mais de 600 palavras à pergunta: “Qual é a definição de SEO?”

Mais uma vez, surgem instruções adicionais como “cabeças” para aparentemente assegurar uma resposta completa.

what is seo by mixtral-8x7b
Imagem: astrovariable/Pexels

Coloca

No Poe, são disponibilizados servidores para abrigar diferentes modelos de linguagem, como GPT-4 e DALL·E 3 da OpenAI, Llama 2 e Llama de Código da Meta AI, PaLM 2 do Google, Claude-instant e Claude 2 da Anthropic, além do StableDiffusionXL.

Esses bots têm uma ampla variedade de habilidades, como a capacidade de lidar com texto, imagem e também gerar código.

A Fireworks AI opera o bot Mixtral-8x7B-Chat.

poe bot for mixtral-8x7b firebase
Imagem: Peggychoucair/Flickr

É importante ressaltar que a página Fireworks menciona que é uma versão “não oficial” adaptada para o chat.

Ele deu uma resposta válida quando questionado sobre quais são os backlinks mais eficazes para SEO.

mixtral-8x7b poe best backlinks response
Imagem: wal_172619/DepositPhotos

Contraste isso com a solução apresentada pelo Google BARD.

Mixtral-8x7B: 4 Ways Marketers Can Try The New Model From Mistral AI
Imagem:
chsyys/KaboomPics
Mixtral-8x7B: 4 Ways Marketers Can Try The New Model From Mistral AI
Imagem: JonPauling/PixaBay

3. Observe a representação gráfica.

Vercel disponibiliza uma demonstração do Mixtral-8x7B que possibilita aos usuários comparar as respostas de modelos populares como Anthropic, Cohere, Meta AI e OpenAI.

vercel mixtral-8x7b demo compare gpt-4
Imagem: xsix/PixaBay

Apresenta uma visão intrigante sobre a forma como cada modelo compreende e reage às indagações do utilizador.

mixtral-8x7b vs cohere on best resources for learning seo
Imagem: MaxWdhs/iStock

Assim como muitos LLMs, em alguns momentos ele tem alucinações.

mixtral-8x7b hallucinations
Imagem: karvanth/KaboomPics

4. Imitar, copiar ou reproduzir.

O demo mixtral-8x7b-32 no Replicate é construído a partir deste código-fonte. O README também menciona que “A interferência é altamente ineficiente.”

Mixtral-8x7B: 4 Ways Marketers Can Try The New Model From Mistral AI
Imagem: stephmcblack/Burst

A plataforma de inteligência artificial Mistral.

A Mistral AI divulgou que, além do Mixtral-8x7B, estão disponíveis em fase beta os seus serviços de plataforma, que incluem três terminais de chat que geram texto e uma opção de integração final.

Esses modelos são treinados previamente usando dados abertos da internet e adaptados para instruções, com suporte para diversos idiomas e codificações.

  • Mistral-tiny é um sistema que utiliza o Mistral 7B Instruct v0.2, funciona apenas em inglês e é a escolha mais econômica.
  • Mistral Pequeno utiliza a plataforma Mixtral 8x7B para auxiliar em recursos de suporte e codificação em várias línguas.
  • O Mistral Medium oferece um protótipo de alto desempenho que possui as mesmas linguagens e habilidades de codificação do Mistral Pequeno.
Leia Mais:   Post do Reddit aparece no topo do Google em apenas 5 minutos - Qual o motivo por trás disso?

O Mistral embutido possui um modelo de incorporação com 1024 dimensões que foi criado especificamente para recursos de recuperação.

A API é compatível com interfaces de chat populares e possui bibliotecas de clientes nas linguagens Python e JavaScript. Além disso, a API também possui recursos para controlar a moderação.

As inscrições para acessar a API estão abertas, com a plataforma avançando gradualmente em direção à disponibilidade completa.

A IA Mistral reconhece a contribuição da NVIDIA na implementação do TensorRT-LLM e Triton em seus serviços.

Em conclusão.

A última versão da Mistral AI estabelece um novo padrão no campo da IA, proporcionando um desempenho e versatilidade aprimorados. No entanto, como ocorre com muitos LLMs, ela pode apresentar respostas imprecisas e surpreendentes.

Conforme a Inteligência Artificial continua a progredir, modelos como o Mixtral-8x7B podem se tornar indispensáveis na elaboração de ferramentas avançadas de IA para o setor de marketing e empreendedorismo.

Foto principal: T. Schneider/Shutterstock.