Informazioni su ZKML: ZKML (Zero Knowledge Machine Learning) è una tecnologia di apprendimento automatico che combina prove a conoscenza zero e algoritmi di apprendimento automatico per risolvere problemi di protezione della privacy nell'apprendimento automatico.
Informazioni sulla potenza di calcolo distribuita: la potenza di calcolo distribuita si riferisce alla scomposizione di un'attività di elaborazione in più piccole attività e all'assegnazione di queste piccole attività a più computer o processori per l'elaborazione per ottenere un'elaborazione efficiente.

La situazione attuale dell’intelligenza artificiale e del Web3: sciame di api fuori controllo e aumento dell’entropia
In "Out of Control: The New Biology of Machines, Society and the Economy", Kevin Kelly una volta propose un fenomeno: la colonia di api prenderà decisioni elettorali in una danza di gruppo secondo una gestione distribuita, e l'intera colonia di api seguirà questo gruppo danza. Lo sciame più grande del mondo domina un evento. Questa è anche la cosiddetta "anima della colonia di api" di cui parla Maurice Maeterlinck: ogni ape può prendere la propria decisione e guidare le altre api a confermarla, e la decisione finale spetta davvero al gruppo.

La stessa legge dell'aumento dell'entropia e del disordine segue la legge della termodinamica. L'incarnazione teorica in fisica consiste nel mettere un certo numero di molecole in una scatola vuota e misurare il profilo di distribuzione finale. Specificamente per le persone, le folle generate dagli algoritmi possono mostrare regole di gruppo nonostante le differenze di pensiero individuali. Spesso sono limitate a una scatola vuota a causa di fattori come i tempi e alla fine prenderanno decisioni consensuali.
Naturalmente, le regole del gruppo potrebbero non essere corrette, ma gli opinion leader che possono rappresentare il consenso e costruire da soli il consenso sono assolutamente super individui. Ma nella maggior parte dei casi, il consenso non persegue il consenso completo e incondizionato di tutti, ma richiede soltanto il riconoscimento generale del gruppo.
Non stiamo discutendo qui se l’intelligenza artificiale porterà gli esseri umani fuori strada. In effetti, ci sono già molte discussioni del genere, se sia la grande quantità di spazzatura generata dalle applicazioni di intelligenza artificiale che ha inquinato l’autenticità dei dati di rete o gli errori nelle decisioni di gruppo. - fare ciò porterà ad alcuni L'incidente ha preso una piega più pericolosa.
L’attuale situazione dell’intelligenza artificiale ha un monopolio naturale. Ad esempio, la formazione e l’implementazione di modelli di grandi dimensioni richiedono una grande quantità di risorse informatiche e dati e solo un piccolo numero di imprese e istituzioni dispone di queste condizioni. Questi miliardi di dati sono considerati tesori da ogni detentore di monopolio. Per non parlare della condivisione open source, anche l’accesso reciproco è impossibile.
Ciò si traduce in un enorme spreco di dati. Ogni progetto di intelligenza artificiale su larga scala richiede la raccolta ripetuta di dati degli utenti. Alla fine, il vincitore prende tutto, che si tratti di fusioni e acquisizioni, vendite, espansione di singoli progetti giganti o della tradizionale Internet. La logica delle corse di rodeo.
Molte persone dicono che AI e Web3 sono due cose diverse e non hanno alcuna connessione. La prima metà della frase è corretta. Sono due tracce diverse, ma la seconda metà della frase è problematica dell’intelligenza artificiale finirà. E l’utilizzo della tecnologia dell’intelligenza artificiale per promuovere la formazione di un meccanismo di consenso decentralizzato è semplicemente una cosa naturale.
Deduzione di livello inferiore: lasciamo che l’IA formi un meccanismo di consenso di gruppo realmente distribuito
Il nucleo dell’intelligenza artificiale risiede ancora nelle persone stesse. Macchine e modelli sono solo speculazioni e imitazioni del pensiero umano. Il cosiddetto gruppo è in realtà difficile da astrarre dal gruppo, perché ciò che vediamo ogni giorno sono individui reali. Ma il modello utilizza enormi quantità di dati per apprendere e adattarsi e infine simula la forma del gruppo. Non è necessario valutare i risultati di questo modello, perché gli episodi di malvagità di gruppo non si verificano una o due volte. Ma il modello rappresenta l’emergere di questo meccanismo di consenso.
Ad esempio, per una DAO specifica, se la governance viene implementata come meccanismo, avrà inevitabilmente un impatto sull’efficienza. Il motivo è che la formazione del consenso di gruppo è una cosa problematica, per non parlare del voto, delle statistiche, ecc operazioni. Se la governance di DAO è incarnata sotto forma di un modello di intelligenza artificiale e tutta la raccolta dei dati proviene dai dati vocali di tutti i membri della DAO, allora le decisioni di output saranno effettivamente più vicine al consenso del gruppo.
Il consenso di gruppo di un singolo modello può essere utilizzato per addestrare il modello secondo lo schema sopra, ma per questi individui, dopotutto, sono ancora isole isolate. Se esiste un sistema di intelligenza collettiva per formare un’intelligenza artificiale di gruppo, ciascun modello di intelligenza artificiale in questo sistema lavorerà in collaborazione tra loro per risolvere problemi complessi, il che giocherà effettivamente un ruolo importante nel rafforzare il livello di consenso.
Per le raccolte di piccole dimensioni, è possibile creare un ecosistema in modo indipendente oppure formare un insieme cooperativo con altre raccolte per soddisfare una potenza di calcolo o transazioni di dati estremamente grandi in modo più efficiente e a basso costo. Ma il problema si ripresenta: la situazione attuale tra i vari database modello è la completa sfiducia e la protezione dagli altri. Questa è la caratteristica naturale della blockchain: attraverso la sfiducia si può ottenere una sicurezza veramente distribuita tra le macchine IA.

Un cervello intelligente globale può far sì che modelli di algoritmi di intelligenza artificiale originariamente indipendenti l'uno dall'altro e con singole funzioni cooperino tra loro ed eseguano complessi processi di algoritmi intelligenti internamente, in modo da formare continuamente una rete di consenso di gruppo distribuita. Questo è anche il più grande significato del potenziamento del Web3 da parte dell’intelligenza artificiale.
Privacy e monopolio dei dati? La combinazione di ZK e machine learning
Gli esseri umani devono prendere precauzioni mirate contro le azioni malvagie dell'intelligenza artificiale o contro il timore del monopolio dei dati a causa della protezione della privacy. Il problema principale è che non sappiamo come si arriva alla conclusione. Allo stesso modo, gli operatori del modello non intendono rispondere a domande su questo problema. Per l’integrazione del cervello intelligente globale di cui abbiamo parlato sopra, questo problema deve essere risolto ancora di più, altrimenti nessuna parte interessata sarà disposta a condividerne il nucleo con altri.
ZKML (Zero Knowledge Machine Learning) è una tecnologia che utilizza la prova a conoscenza zero per l'apprendimento automatico. Zero-Knowledge Proofs (ZKP) significa che il dimostratore può far credere al verificatore l'autenticità dei dati senza rivelare i dati specifici.

Prendi i casi teorici come guida. Esiste un Sudoku standard 9×9. La condizione di completamento è riempire le nove griglie con numeri da 1 a 9 in modo che ogni numero possa apparire solo una volta in ciascuna riga, colonna e griglia. Allora come fa la persona che ha creato questo puzzle a dimostrare agli sfidanti che il sudoku ha una soluzione senza rivelare la risposta?

Basta coprire l'area di riempimento con la risposta, quindi chiedere in modo casuale allo sfidante di selezionare alcune righe o colonne, mescolare tutti i numeri e verificare se sono tutti da uno a nove. Questa è una semplice implementazione della prova a conoscenza zero.
La tecnologia di prova a conoscenza zero ha tre caratteristiche: completezza, correttezza e conoscenza zero, il che significa che dimostra la conclusione senza rivelare alcun dettaglio. La sua fonte tecnica può riflettere la semplicità. Nel contesto della crittografia omomorfica, la difficoltà di verifica è molto inferiore alla difficoltà di generare prove.
Il Machine Learning utilizza algoritmi e modelli per consentire ai sistemi informatici di apprendere e migliorare dai dati. Apprendendo dall'esperienza in modo automatizzato, il sistema può eseguire automaticamente attività quali previsione, classificazione, clustering e ottimizzazione sulla base di dati e modelli.
Fondamentalmente, l’apprendimento automatico consiste nella costruzione di modelli che apprendono dai dati e fanno automaticamente previsioni e decisioni. La costruzione di questi modelli richiede solitamente tre elementi chiave: set di dati, algoritmi e valutazione del modello. I set di dati rappresentano la base dell'apprendimento automatico e contengono campioni di dati utilizzati per addestrare e testare modelli di apprendimento automatico. Gli algoritmi sono il nucleo dei modelli di machine learning e definiscono il modo in cui il modello apprende e prevede dai dati. La valutazione del modello è una parte importante dell'apprendimento automatico, utilizzata per valutare le prestazioni e l'accuratezza del modello e decidere se il modello deve essere ottimizzato e migliorato.

Nell’apprendimento automatico tradizionale, i set di dati di solito devono essere raccolti in un luogo centralizzato per la formazione, il che significa che il proprietario dei dati deve condividere i dati con una terza parte, il che può comportare il rischio di fuga di dati o di privacy. Con ZKML, i proprietari dei dati possono condividere set di dati con altri senza divulgarli. Ciò si ottiene utilizzando prove a conoscenza zero.
Quando la prova a conoscenza zero viene utilizzata per potenziare l’apprendimento automatico, l’effetto dovrebbe essere prevedibile. Ciò risolve i problemi di lunga data della scatola nera della privacy e del monopolio dei dati: se la parte del progetto può farlo senza divulgare i dati inseriti dagli utenti o dettagli specifici del progetto. modello Dopo aver completato la prova e la verifica, ciascuna collezione può essere in grado di condividere i propri dati o modello per funzionare senza perdita di dati privati? Naturalmente, la tecnologia attuale è ancora in fase iniziale e nella pratica ci saranno sicuramente molti problemi. Ciò non ci impedisce di immaginare e molti team la stanno già sviluppando.
Questa situazione porterà alla libera prostituzione di piccoli database contro grandi database? Quando pensi ai problemi di governance, torni al nostro pensiero Web3. L’essenza di Crypto è la governance. Che sia attraverso un uso estensivo o attraverso la condivisione, dovrebbe ricevere i dovuti incentivi. Sia attraverso i meccanismi Pow originali, PoS o i più recenti meccanismi PoR (Proof of Reputation), l'effetto incentivante è garantito.

Potenza di calcolo distribuita: una narrazione innovativa intrecciata con bugie e realtà
Le reti di potenza di calcolo decentralizzate sono sempre state uno scenario popolare nel circolo della crittografia. Dopotutto, i grandi modelli di intelligenza artificiale richiedono una potenza di calcolo straordinaria e le reti di potenza di calcolo centralizzate non solo causeranno uno spreco di risorse ma formeranno anche un monopolio virtuale, se paragonate a In. Alla fine, ciò che conta è il numero di GPU, che è troppo noioso.
L'essenza di una rete informatica decentralizzata è quella di integrare risorse informatiche sparse su luoghi e dispositivi diversi. I principali vantaggi che tutti menzionano spesso sono: fornire capacità di elaborazione distribuita, risolvere problemi di privacy, migliorare la credibilità e l'affidabilità dei modelli di intelligenza artificiale, supportare una rapida implementazione e funzionamento in vari scenari applicativi e fornire soluzioni di archiviazione e gestione dei dati. Esatto, attraverso la potenza di calcolo decentralizzata, chiunque può eseguire modelli di intelligenza artificiale e testarli su set di dati reali on-chain di utenti globali, in modo da poter usufruire di servizi informatici più flessibili, efficienti e a basso costo.

Allo stesso tempo, la potenza di calcolo decentralizzata può risolvere i problemi di privacy creando un potente quadro per proteggere la sicurezza e la privacy dei dati degli utenti. Fornisce inoltre un processo informatico trasparente e verificabile, migliora la credibilità e l’affidabilità dei modelli di intelligenza artificiale e fornisce risorse informatiche flessibili e scalabili per una rapida implementazione e funzionamento in vari scenari applicativi.
Esaminiamo l'addestramento del modello da un insieme completo di processi informatici centralizzati. Le fasi sono generalmente suddivise in: preparazione dei dati, segmentazione dei dati, trasmissione dei dati tra dispositivi, addestramento parallelo, aggregazione del gradiente, aggiornamento dei parametri, sincronizzazione e addestramento ripetuto. In questo processo, anche se la sala computer centralizzata utilizza cluster di apparecchiature informatiche ad alte prestazioni e condivide le attività di calcolo attraverso connessioni di rete ad alta velocità, gli elevati costi di comunicazione sono diventati uno dei maggiori limiti delle reti informatiche decentralizzate.
Pertanto, sebbene la rete di potenza di calcolo decentralizzata presenti numerosi vantaggi e potenzialità, il percorso di sviluppo è ancora tortuoso a causa degli attuali costi di comunicazione e delle effettive difficoltà operative. In pratica, la realizzazione di una rete informatica decentralizzata richiede il superamento di molti problemi tecnici pratici, sia che si tratti di come garantire l'affidabilità e la sicurezza dei nodi, di come gestire e programmare in modo efficace le risorse informatiche distribuite, o di come ottenere un'efficiente trasmissione e comunicazione dei dati, ecc. , sono probabilmente tutti grossi problemi che dobbiamo affrontare nella pratica.
Coda: aspettative lasciate agli idealisti
Tornando alla realtà aziendale, la narrativa della profonda integrazione tra AI e Web3 sembra così buona, ma capitale e utenti ci dicono con azioni più pratiche che questo è destinato a essere un percorso di innovazione estremamente difficile, a meno che il progetto non possa essere come OpenAI. finché siamo forti, dovremmo abbracciare uno sponsor forte, altrimenti le spese infinite di ricerca e sviluppo e il modello di business poco chiaro ci distruggeranno completamente.
Sia l’intelligenza artificiale che il Web3 si trovano ora in una fase estremamente iniziale di sviluppo, proprio come la bolla di Internet alla fine del secolo scorso. Solo quasi dieci anni dopo è stata ufficialmente inaugurata la vera età dell’oro. McCarthy una volta sognava di progettare l’intelligenza artificiale con l’intelligenza umana in una vacanza, ma è stato solo quasi settant’anni dopo che abbiamo effettivamente compiuto un passo fondamentale verso l’intelligenza artificiale.
Lo stesso vale per Web3+AI. Abbiamo determinato la correttezza della direzione da seguire, il resto lo lasceremo al tempo.
Quando il corso del tempo si ritira gradualmente, quelle persone e cose che rimangono in piedi sono i cardini del nostro viaggio dalla fantascienza alla realtà.

