Nel primo anniversario del rilascio di Mistral 7B, il primo modello linguistico di grandi dimensioni (LLM) interamente europeo, Mistral AI ha presentato due nuovi modelli: Ministral 3B e Ministral 8B, collettivamente noti come “Les Ministraux”.
Tendenza verso modelli AI più compatti
Negli ultimi 18 mesi, l’industria dell’intelligenza artificiale ha visto una crescente inclinazione verso modelli più piccoli e ottimizzati, che offrono vantaggi in termini di costi e velocità di addestramento rispetto ai modelli più grandi.
- Google ha ampliato la sua famiglia di modelli leggeri Gemma.
- Microsoft ha introdotto la collezione di modelli Phi.
- Meta ha sviluppato diversi modelli ottimizzati per hardware edge.
Cosa sono i “Ministraux”?
I modelli Ministral 3B e 8B sono progettati per offrire la potenza di un modello avanzato in una forma compatta, ideale per l’uso su dispositivi edge come PC e smartphone.
Applicazioni pratiche:
- Traduzione in tempo reale direttamente sul dispositivo.
- Assistenti AI funzionanti anche offline.
- Analisi dei dati eseguita localmente.
Caratteristiche tecniche:
- Supporto per contesti fino a 128.000 token, permettendo la gestione di conversazioni più lunghe rispetto alla maggior parte dei modelli attuali.
- Funzionamento locale, garantendo:
- Maggiore privacy: i dati rimangono sul dispositivo.
- Bassa latenza: risposte più rapide.
- Operatività offline: funziona senza connessione internet.
Integrazione nei flussi di lavoro:
I modelli Ministral possono fungere da intermediari in flussi di lavoro complessi, gestendo compiti come:
- Parsing degli input: interpretazione delle richieste.
- Routing dei task: assegnazione delle richieste a vari modelli.
Possono collaborare con modelli più grandi, come Mistral Large, per ottimizzare le operazioni.
Prestazioni e disponibilità:
- Mistral AI afferma che i modelli Ministral superano i loro pari in vari benchmark relativi alla capacità di seguire istruzioni e risolvere problemi.
- Per uso commerciale, è necessario contattare direttamente Mistral per le licenze.
- Per i ricercatori, i pesi del modello Ministral 8B Instruct sono disponibili per uso di ricerca.
- Entrambi i modelli saranno presto accessibili attraverso i partner cloud di Mistral.
Con questi sviluppi, Mistral AI continua a innovare nel campo dell’intelligenza artificiale, offrendo soluzioni avanzate per l’edge computing (1)
(1)
L’edge computing è un modello di calcolo distribuito in cui l’elaborazione dei dati avviene il più vicino possibile al luogo in cui essi vengono generati, anziché essere trasmessi a data center centralizzati per l’elaborazione. Questo approccio mira a migliorare i tempi di risposta e a ridurre la latenza, rendendo possibile l’esecuzione di azioni in tempo reale. (Azure)
Fonti:
- Mistral AI: Annuncio ufficiale dei modelli Ministral 3B e 8B.
- TechCrunch: Articolo sul rilascio dei nuovi modelli AI ottimizzati per dispositivi edge.
- DeepLearning.AI: Notizia sui modelli Ministral 3B e 8B e il loro confronto con modelli simili.
- Dataconomy: Articolo che discute come i modelli Ministral portano l’AI generativa ai dispositivi edge.
- AI Open Mind: Analisi dei modelli Ministral 3B e 8B come nuovi pionieri dell’intelligenza artificiale.
- GitHub Marketplace: Descrizione del modello Ministral 3B disponibile sulla piattaforma.
- Hugging Face: Pagina dedicata al modello Ministral-8B-Instruct.
- VentureBeat: Articolo su come i nuovi modelli linguistici di Mistral AI portano la potenza dell’AI su telefoni e laptop.
- SiliconANGLE: Notizia sull’introduzione dei modelli Ministral 3B e 8B per il computing AI su dispositivi.
- Medium: Articolo che presenta Ministral 3B e 8B come innovazioni nell’AI per dispositivi edge.