Noi reguli pentru fiabilitatea inteligenței artificiale. Noul direcționament dezvăluit pe 31 iulie este mai interesant, concentrându-se în mod specific pe logica ascunsă din spatele gândirii inteligenței artificiale, transformând gândirea ambiguă în dovezi logice urmăriți.
Utilizarea inteligenței artificiale în prezent este uneori confuză: știu că oferă un rezultat, dar nu înțeleg logica care stă la baza acestuia. De exemplu, dacă un sistem medical de inteligență artificială spune "acesta este un tumor benign", de ce afirmă asta? Sau dacă o dronă dintr-un sistem de apărare își stabilește un obiectiv, care este baza acestei decizii? În trecut, a fost imposibil să explorăm această problemă.
Dar dovada de raționament a DeepProve poate face acest lucru: folosind tehnologia criptării, poate împărți logica deciziei inteligenței artificiale în "dovezi verificabile", fără a dezvălui parametrii interne ai modelului sau datele personale ale utilizatorului. #LagrangeLA
Aceasta este o chestiune de o importanță deosebită
Fiind una dintre cele patru capacități principale de demonstrație pe care le susține DeepProve, demonstrarea raționamentului nu este doar un concept. Cu accelerarea dispozitivelor dezvoltate în colaborare cu NVIDIA și Intel, inteligența artificială nu va produce doar rezultate rapide, ci va putea, de asemenea, să explice clar motivele.
#LagrangnOfficial $LA @Lagrange Official


A