Nessun risultato. Prova con un altro termine.
Guide
Notizie
Software
Tutorial

Mistral Small 3 supera i competitor di OpenAI, Google e Meta

Il nuovo Mistral Small 3, con i suoi 24 miliardi di parametri, offre anche prestazioni migliori rispetto a GPT-4o mini e Llama 3.3 70B.
Mistral Small 3 supera i competitor di OpenAI, Google e Meta
Il nuovo Mistral Small 3, con i suoi 24 miliardi di parametri, offre anche prestazioni migliori rispetto a GPT-4o mini e Llama 3.3 70B.
Link copiato negli appunti

Mistral AI ha appena svelato il suo nuovo modello chiamato Mistral Small 3. Questo include 24 miliardi di parametri, ma è alla pari con modelli più grandi come Llama 3.3 70B e Qwen 32B (almeno nel benchmark MMLU-Pro). Non solo, il modello non è anche più veloce di Llama 3.3 70B. Mistral Small 3 offre poi prestazioni migliori di GPT-4o mini di OpenAI, ovvero il modello di fallback quando gli utenti esauriscono le richieste GPT-4o. Secondo i vari benchmark, il modello di Mistral ha anche una latenza inferiore rispetto a quello di OpenAI.

Come riportato dall’azienda sul proprio sito ufficiale: "Stiamo rilasciando un checkpoint pre-addestrato e un checkpoint sintonizzato sulle istruzioni sotto Apache 2.0. I checkpoint possono fungere da potente base per accelerare i progressi. Si noti che Mistral Small 3 non è addestrato né con RL né con dati sintetici, quindi è in una fase precedente nella pipeline di produzione del modello rispetto a modelli come Deepseek R1 (un ottimo e complementare pezzo di tecnologia open source!). Può fungere da ottimo modello di base per costruire capacità di ragionamento maturate. Non vediamo l'ora di vedere come la comunità open source lo adotterà e lo personalizzerà".

Mistral Small 3: modello può essere eseguito localmente su PC

Essendo un modello più piccolo, è possibile eseguirlo localmente sul proprio computer, se si dispone di specifiche di computer più elevate. Mistral AI ha affermato che può essere eseguito su una singola scheda grafica Nvidia RTX 4090 o un MacBook con 32 GB di RAM. Sebbene il modello abbia fatto meglio rispetto agli altri modelli menzionati nel benchmark MMLU-Pro, non è sempre stata la scelta preferita dei valutatori umani. Mistral ha confrontato il suo modello con altri modelli su un set di oltre 1k di prompt di codifica proprietaria e generalisti. Per gli utenti, Mistral Small 3 è stata l'opzione preferita rispetto a Gemma-2 27B e Qwen-32B, ma lo era meno rispetto a Llama 3.3 70B e GPT-4o mini. Il nuovo modello è ora disponibile sulla piattaforma come mistral-small-latest o mistral-small-2501.

Ti consigliamo anche