Ti ricordi di quella vecchia questione su "l'uso improprio dell'AI"?
Qualcuno ha reso open source un modello per l'apprendimento mondiale, ma è stato rinominato e rivestito, senza possibilità di responsabilità.
@SentientAGI ha fornito una soluzione con OML 1.0.
È come se avessero impresso un'impronta digitale invisibile nel "cervello" dell'AI—migliaia di coppie key–response.
Il modello non può essere cancellato, nemmeno se viene riaddestrato, compresso o distillato.
L'autore originale deve solo inserire un segnale e il modello può auto-certificare la sua identità.
Questo non solo rende l'AI open source più sicura, ma permette anche agli sviluppatori di "tracciare, rivendicare e monetizzare" per la prima volta.
In aggiunta all'integrazione del sistema di agenti intelligenti ROMA, Sentient non è solo un modello, ma un "intelligenza collettiva" in grado di collaborare autonomamente, generare contenuti e integrare informazioni.
L'AI sta diventando organica e autonoma, mentre SentientAGI sta accelerando questa evoluzione. Novembre sarà il TGE, sei pronto?