Safe Superintelligence Inc. (SSI) è una startup americana nel campo dell’intelligenza artificiale, fondata il 19 giugno 2024 da Ilya Sutskever, Daniel Gross e Daniel Levy. La missione principale di SSI è sviluppare una superintelligenza sicura, affrontando quello che considera il problema tecnico più importante del nostro tempo.
Fondazione e Obiettivi
Ilya Sutskever, co-fondatore ed ex capo scienziato di OpenAI, ha lasciato l’azienda nel maggio 2024 a causa di divergenze sulla direzione e le priorità in materia di sicurezza dell’IA. Successivamente, ha fondato SSI con l’obiettivo di creare una superintelligenza che superi le capacità umane, garantendo al contempo la sicurezza e l’allineamento con i valori umani.
Finanziamenti e Valutazione
Nel settembre 2024, SSI ha raccolto 1 miliardo di dollari da investitori di primo piano, tra cui Andreessen Horowitz, Sequoia Capital, DST Global e SV Angel. Questi fondi saranno utilizzati per potenziare le risorse computazionali e assumere i migliori talenti nel campo dell’IA. La valutazione attuale dell’azienda è stimata intorno ai 5 miliardi di dollari.
Sedi e Team
SSI ha uffici a Palo Alto, California, e Tel Aviv, Israele. Queste sedi sono state scelte per la loro capacità di attrarre talenti tecnici di alto livello e per le profonde radici dei fondatori in queste regioni. L’azienda sta assemblando un team selezionato di ingegneri e ricercatori dedicati esclusivamente allo sviluppo di una superintelligenza sicura.
Approccio alla Sicurezza
SSI adotta un approccio integrato alla sicurezza e alle capacità dell’IA, trattando entrambi come problemi tecnici da risolvere attraverso innovazioni ingegneristiche e scientifiche. L’azienda mira a far progredire le capacità dell’IA il più rapidamente possibile, assicurando che le misure di sicurezza siano sempre in anticipo rispetto ai progressi, permettendo così una scalabilità sicura.
Confronto con OpenAI
A differenza di OpenAI, che ha rilasciato prodotti commerciali come ChatGPT, SSI si concentra esclusivamente sulla creazione di una superintelligenza sicura, evitando distrazioni derivanti da cicli di prodotto o pressioni commerciali a breve termine. Questo approccio riflette la visione dei fondatori di dare priorità alla sicurezza e all’allineamento dell’IA rispetto alla commercializzazione immediata.
Implicazioni per il Futuro dell’IA
La nascita di SSI evidenzia l’importanza crescente della sicurezza nell’evoluzione dell’intelligenza artificiale. Con l’obiettivo di sviluppare una superintelligenza allineata con i valori umani, SSI potrebbe influenzare significativamente il modo in cui le future tecnologie IA vengono progettate e implementate, promuovendo un equilibrio tra innovazione e responsabilità.
Fonti: