9 aprile 2024 – Meta ha annunciato i piani per LLaMA 4, la nuova generazione dei suoi modelli open source di intelligenza artificiale, che sarà multimodale fin dalla progettazione, in grado cioè di elaborare sia testo sia immagini (e potenzialmente anche video). Si tratta di un’evoluzione rispetto a LLaMA 3, rilasciato in aprile, che ha introdotto versioni da 8B e 70B parametri, con un focus su performance, efficienza e apertura alla comunità. LLaMA 3 è stato pre-addestrato su oltre 15T token e ottimizzato per scenari di utilizzo reali, ma Meta guarda già avanti: LLaMA 4 punterà a migliorare il ragionamento e l’interazione con input complessi, consolidando l’approccio open-weight, alternativo al modello chiuso di GPT o Claude. L’obiettivo è promuovere una ricerca collaborativa sull’IA, favorendo lo sviluppo di applicazioni diversificate, etiche e trasparenti. Meta continua a investire in infrastrutture per il training su larga scala, con l’ambizione di guidare l’innovazione nel campo delle foundation models.

Fonte: Meta AI – LLaMA 4 Multimodal Intelligence

PS. Meta AI non è ancora disponibile in Italia