Siamo entusiasti di collaborare con @WalrusProtocol e @SuiFoundation per portare AI decentralizzata e rispettosa della privacy nell'ecosistema di @SuiNetwork. Questa integrazione porta il layer di dati decentralizzato di Walrus e la crittografia di SEAL nel stack di apprendimento federato di FLock, consentendo un addestramento dei modelli sicuro e di proprietà della comunità.
2/ FLock addestra modelli AI utilizzando l'apprendimento federato, dove i partecipanti addestrano collaborativamente senza condividere dati grezzi. Per scalare questo in modo sicuro, avevamo bisogno di un'infrastruttura decentralizzata per memorizzare, trasmettere e crittografare gli aggiornamenti del modello. Con Walrus e SEAL, otteniamo entrambi.
3/ Walrus diventa l'infrastruttura sottostante per l'FL Alliance di FLock - la nostra rete di nodi di formazione collaborativa. Fornisce broadcasting e archiviazione decentralizzati per gradienti di modello, parametri e output di formazione. Nessun server centralizzato, nessun singolo punto di fallimento.
4/ SEAL aggiunge crittografia programmabile e controllo degli accessi al processo. Garantisce che solo i partecipanti verificati in un round di addestramento possano visualizzare o contribuire ai gradienti. I dati crittografati vengono memorizzati e recuperati in modo sicuro, senza la necessità di fidarsi di alcun singolo server o parte.
5/ Walrus e SEAL sostituiscono i pezzi mancanti nella costruzione di pipeline di apprendimento federato veramente decentralizzate e sicure. Questo sblocca un'iniziativa chiave: far crescere l'FL Alliance. Ora possiamo coinvolgere più costruttori nell'apprendimento federato con privacy e decentralizzazione integrate.
6/ Insieme a Walrus e SEAL, stiamo costruendo la stack per un'IA sicura, programmabile e di proprietà della comunità. Guardando al futuro, stiamo collaborando con @SuiFoundation per perfezionare un modello di fondazione open-source ottimizzato per l'IA agentica su Sui. Ulteriori aggiornamenti in arrivo. 💧
30,91K