Nel primo anniversario del rilascio di Mistral 7B, il primo modello linguistico di grandi dimensioni (LLM) interamente europeo, Mistral AI ha presentato due nuovi modelli: Ministral 3B e Ministral 8B, collettivamente noti come “Les Ministraux”.

Tendenza verso modelli AI più compatti

Negli ultimi 18 mesi, l’industria dell’intelligenza artificiale ha visto una crescente inclinazione verso modelli più piccoli e ottimizzati, che offrono vantaggi in termini di costi e velocità di addestramento rispetto ai modelli più grandi.

  • Google ha ampliato la sua famiglia di modelli leggeri Gemma.
  • Microsoft ha introdotto la collezione di modelli Phi.
  • Meta ha sviluppato diversi modelli ottimizzati per hardware edge.

Cosa sono i “Ministraux”?

I modelli Ministral 3B e 8B sono progettati per offrire la potenza di un modello avanzato in una forma compatta, ideale per l’uso su dispositivi edge come PC e smartphone.

Applicazioni pratiche:

  • Traduzione in tempo reale direttamente sul dispositivo.
  • Assistenti AI funzionanti anche offline.
  • Analisi dei dati eseguita localmente.

Caratteristiche tecniche:

  • Supporto per contesti fino a 128.000 token, permettendo la gestione di conversazioni più lunghe rispetto alla maggior parte dei modelli attuali.
  • Funzionamento locale, garantendo:
    • Maggiore privacy: i dati rimangono sul dispositivo.
    • Bassa latenza: risposte più rapide.
    • Operatività offline: funziona senza connessione internet.

Integrazione nei flussi di lavoro:

I modelli Ministral possono fungere da intermediari in flussi di lavoro complessi, gestendo compiti come:

  • Parsing degli input: interpretazione delle richieste.
  • Routing dei task: assegnazione delle richieste a vari modelli.

Possono collaborare con modelli più grandi, come Mistral Large, per ottimizzare le operazioni.

Prestazioni e disponibilità:

  • Mistral AI afferma che i modelli Ministral superano i loro pari in vari benchmark relativi alla capacità di seguire istruzioni e risolvere problemi.
  • Per uso commerciale, è necessario contattare direttamente Mistral per le licenze.
  • Per i ricercatori, i pesi del modello Ministral 8B Instruct sono disponibili per uso di ricerca.
  • Entrambi i modelli saranno presto accessibili attraverso i partner cloud di Mistral.

Con questi sviluppi, Mistral AI continua a innovare nel campo dell’intelligenza artificiale, offrendo soluzioni avanzate per l’edge computing (1)

(1)

L’edge computing è un modello di calcolo distribuito in cui l’elaborazione dei dati avviene il più vicino possibile al luogo in cui essi vengono generati, anziché essere trasmessi a data center centralizzati per l’elaborazione. Questo approccio mira a migliorare i tempi di risposta e a ridurre la latenza, rendendo possibile l’esecuzione di azioni in tempo reale. (Azure)

 

Fonti:

 

  1. Mistral AI: Annuncio ufficiale dei modelli Ministral 3B e 8B.
  2. TechCrunch: Articolo sul rilascio dei nuovi modelli AI ottimizzati per dispositivi edge.
  3. DeepLearning.AI: Notizia sui modelli Ministral 3B e 8B e il loro confronto con modelli simili.
  4. Dataconomy: Articolo che discute come i modelli Ministral portano l’AI generativa ai dispositivi edge.
  5. AI Open Mind: Analisi dei modelli Ministral 3B e 8B come nuovi pionieri dell’intelligenza artificiale.
  6. GitHub Marketplace: Descrizione del modello Ministral 3B disponibile sulla piattaforma.
  7. Hugging Face: Pagina dedicata al modello Ministral-8B-Instruct.
  8. VentureBeat: Articolo su come i nuovi modelli linguistici di Mistral AI portano la potenza dell’AI su telefoni e laptop.
  9. SiliconANGLE: Notizia sull’introduzione dei modelli Ministral 3B e 8B per il computing AI su dispositivi.
  10. Medium: Articolo che presenta Ministral 3B e 8B come innovazioni nell’AI per dispositivi edge.