Twitter (X) è stato un periodo tumultuoso negli ultimi due anni. L'anno scorso, Elon Musk ha acquistato la piattaforma per 44 miliardi di dollari e ha poi rivisto il personale dell'azienda, la moderazione dei contenuti, il modello di business e la cultura del sito web. Questi cambiamenti potrebbero avere più a che fare con il soft power di Elon Musk piuttosto che con decisioni politiche specifiche. In mezzo a queste azioni controverse, tuttavia, una nuova funzionalità su Twitter è diventata rapidamente importante e sembra essere amata da persone di tutto lo spettro politico: Community Notes.

Community Notes è uno strumento di controllo dei fatti che a volte aggiunge note contestuali ai tweet, come il tweet di Elon Musk sopra, come strumento di controllo dei fatti e di contro-disinformazione. Originariamente si chiamava Birdwatch e fu lanciato per la prima volta come progetto pilota nel gennaio 2021. Da allora si è gradualmente espanso, con la sua espansione più rapida in coincidenza con l'acquisizione di Twitter da parte di Elon Musk l'anno scorso. Le note della community compaiono regolarmente tra i tweet che ricevono ampia attenzione su Twitter in questi giorni, compresi quelli che trattano argomenti politici controversi. Secondo me, e la mia conclusione dopo aver parlato con molte persone di tutto lo spettro politico, queste note sono informative e preziose così come appaiono.
Tuttavia, ciò che mi interessa di più sono Community Notes, che sebbene non sia un "progetto crittografico" è probabilmente l'esempio più vicino di "valori crittografici" che abbiamo visto nel mondo tradizionale. Le note della community non sono scritte o curate da esperti selezionati a livello centrale; chiunque può invece scrivere e votare e quali note appaiono o non appaiono sono determinate interamente da algoritmi open source. Il sito Web di Twitter dispone di una guida dettagliata ed esauriente che descrive come funziona l'algoritmo ed è possibile scaricare i dati contenenti note e sondaggi pubblicati, eseguire l'algoritmo localmente e verificare che l'output corrisponda a ciò che è visibile sul sito Web di Twitter. Sebbene non sia perfetto, si avvicina sorprendentemente all’ideale di neutralità affidabile in situazioni piuttosto controverse ed è allo stesso tempo molto utile.
Come funziona l'algoritmo delle Community Notes?
Chiunque abbia un account Twitter che soddisfi determinati criteri (sostanzialmente: attivo per più di 6 mesi, nessuna violazione delle policy, numero di cellulare verificato) può iscriversi per partecipare a Community Notes. Attualmente, i partecipanti vengono accettati lentamente e in modo casuale, ma alla fine il piano è quello di consentire a chiunque sia idoneo di unirsi. Una volta accettato, puoi prima partecipare alla valutazione delle Note esistenti e, una volta che le tue valutazioni sono sufficientemente buone (misurate vedendo quali valutazioni corrispondono ai risultati finali per quella Nota), puoi anche scrivere le tue Note.

Quando scrivi una nota, la nota riceve un punteggio in base alla revisione di altri membri delle note della community. Queste recensioni possono essere considerate come voti lungo i tre livelli di "utile", "abbastanza utile" e "non utile", ma le recensioni possono anche includere altre etichette che svolgono un ruolo nell'algoritmo. Sulla base di queste revisioni, a Notes viene assegnato un punteggio. Se il punteggio della nota supera 0,40, la nota verrà visualizzata, altrimenti la nota non verrà visualizzata;
La particolarità dell'algoritmo è il modo in cui vengono calcolati i punteggi. A differenza dei semplici algoritmi, progettati per calcolare semplicemente una sorta di somma o media delle valutazioni degli utenti e utilizzarla come risultato finale, l'algoritmo di valutazione di Community Notes cerca esplicitamente di dare la priorità a coloro che hanno ricevuto recensioni positive da persone con prospettive diverse di Notes. Cioè, se le persone che normalmente non sono d'accordo sulle valutazioni finiscono per essere d'accordo su una particolare nota, quella nota avrà un punteggio elevato.
Diamo uno sguardo più da vicino a come funziona. Abbiamo un insieme di utenti e un insieme di Note; possiamo creare una matrice M dove la cella Mij rappresenta come l'i-esimo utente ha valutato le j-esime Note.
Per qualsiasi nota, la maggior parte degli utenti non ha valutato quella nota, quindi la maggior parte delle voci nella matrice sarà pari a zero, ma va bene. L'obiettivo dell'algoritmo è creare un modello a quattro colonne di utenti e note, assegnando due statistiche a ciascun utente, che possiamo chiamare "cordialità" e "polarità", e due statistiche a ciascuna nota, che chiamiamo "utilità". " e "polarità". Il modello tenta di prevedere la matrice in funzione di questi valori, utilizzando la seguente formula:

Tieni presente che qui presento la terminologia utilizzata nell'articolo di Birdwatch, così come la mia terminologia per fornire una comprensione più intuitiva del significato delle variabili senza coinvolgere concetti matematici:
μ è un parametro del "sentimento pubblico" che misura quanto sono alte le valutazioni generalmente fornite dagli utenti.
iu è la "cordialità" dell'utente, ovvero quanto è probabile che l'utente tenda a dare un punteggio alto.
in è l'"utilità" delle Obbligazioni, ovvero la probabilità che le Obbligazioni ricevano un rating elevato. Questa è la variabile che ci interessa.
fu o fn è la "polarità" dell'utente o delle note, ovvero la sua posizione sull'asse dominante degli estremi politici. In pratica, la polarità negativa significa approssimativamente "inclinazione a sinistra" e la polarità positiva significa "inclinazione a destra", ma si noti che gli assi estremi vengono derivati analizzando i dati dell'utente e di Notes e i concetti di sinistra e destra non sono codificati.
L'algoritmo utilizza un modello di apprendimento automatico abbastanza elementare (discesa del gradiente standard) per trovare i migliori valori variabili per prevedere i valori della matrice. L'utilità assegnata ad una particolare nota è il punteggio finale per quella nota. Verrà visualizzata una nota se la sua utilità è almeno +0,4.
L'intelligenza fondamentale qui è che la "polarità" assorbe le caratteristiche di una nota che la rendono apprezzata da alcuni utenti e non apprezzata da altri, mentre l'"utilità" misura solo le caratteristiche di una nota. Queste caratteristiche portano a piacerla a tutti utenti. La selezione dell'utilità identifica quindi le Note che sono approvate da tutte le tribù ed esclude le Note che sono apprezzate da una tribù ma risentite da un'altra.
Quanto sopra descrive solo la parte centrale dell'algoritmo. In effetti, ci sono molti meccanismi aggiuntivi aggiunti oltre ad esso. Fortunatamente, sono descritti nella documentazione pubblica. Questi meccanismi includono quanto segue:
L'algoritmo viene eseguito più volte, ogni volta aggiungendo al voto alcuni "voti falsi" estremi generati casualmente. Ciò significa che il vero output dell'algoritmo per ciascuna nota è un intervallo di valori e il risultato finale dipende da una "confidenza inferiore" presa da tale intervallo e rispetto a una soglia di 0,32.
Se molti utenti (specialmente quelli con una polarità Notes) valutano una nota come "Non utile" e assegnano anche lo stesso "tag" (ad esempio, "linguaggio polemico o parziale", "fonte insolita") "Note di supporto") come la motivazione del rating, quindi la soglia di utilità richiesta per la pubblicazione delle Notes aumenterà da 0,4 a 0,5 (può sembrare piccola, ma nella pratica è molto importante).
Se una nota viene accettata, la sua utilità deve essere ridotta a 0,01 punti al di sotto della soglia richiesta per accettare la nota.
L'algoritmo esegue più esecuzioni utilizzando più modelli, a volte potenziando Notes con punteggi di utilità grezza compresi tra 0,3 e 0,4.
Tutto sommato, ottieni un codice Python piuttosto complesso per un totale di 6282 righe distribuite su 22 file. Ma è tutto aperto e puoi scaricare Note e i dati dei punteggi ed eseguirli tu stesso per vedere se l'output corrisponde a ciò che sta realmente accadendo su Twitter.
Allora, come si presenta in pratica?
Probabilmente la differenza più grande tra questo algoritmo e il semplice prendere un punteggio medio dai voti delle persone è il concetto di quelli che io chiamo valori "polari". La documentazione dell'algoritmo si riferisce ad essi come fu e fn, usando f come fattore perché i due termini si moltiplicano tra loro; la terminologia più generale è in parte dovuta all'eventuale desiderio di rendere fu e fn multidimensionali;
La polarità è assegnata agli utenti e alle note. Il collegamento tra l'ID utente e l'account Twitter sottostante è intenzionalmente mantenuto segreto, ma Notes è pubblico. Infatti, almeno per il set di dati inglese, la polarità generata dall’algoritmo è strettamente correlata con sinistra e destra.
Ecco alcuni esempi di note con polarità intorno a -0,8:

Tieni presente che qui non sto facendo una scelta selettiva; queste sono in realtà le prime tre righe nel foglio di calcolo score_notes.tsv che ho generato durante l'esecuzione dell'algoritmo localmente e i loro punteggi di polarità (chiamati coreNoteFactor1 nel foglio di calcolo) sono inferiori a - 0,8.
Ora, ecco alcune note con una polarità di circa +0,8. Si scopre che molti di loro sono persone che parlano di politica brasiliana in portoghese o fan di Tesla che confutano con rabbia le critiche a Tesla, quindi lasciatemi fare una piccola selezione e trovare alcune note che non rientrano in nessuna di queste categorie:

Ancora una volta, come promemoria, la "divisione tra sinistra e destra" non è in alcun modo codificata nell'algoritmo, ma viene scoperta computazionalmente; Ciò suggerisce che se si applica questo algoritmo ad altri contesti culturali, è possibile rilevare automaticamente le loro principali divisioni politiche e costruire ponti tra tali divisioni.
Nel frattempo, le note per la massima utilità si presentano così. Questa volta, poiché le note vengono effettivamente visualizzate su Twitter, posso semplicemente fare uno screenshot:

Ce n'è un altro:

Per quanto riguarda il secondo Notes, tratta più direttamente argomenti politici altamente partigiani, ma è un Notes chiaro, di alta qualità e informativo, quindi ottiene un punteggio elevato. Nel complesso, l'algoritmo sembra funzionare e sembra possibile verificarne l'output eseguendo il codice.
Cosa penso di questo algoritmo?
Ciò che mi ha colpito di più analizzando questo algoritmo è stata la sua complessità. Esiste una "versione cartacea accademica" che utilizza la discesa del gradiente per trovare l'adattamento migliore delle equazioni vettoriali e matriciali a cinque termini, e poi c'è la versione reale, una serie complessa di esecuzioni dell'algoritmo con molte esecuzioni diverse e molta arbitrarietà. il modo.
Anche la versione cartacea accademica nasconde la complessità di fondo. L'equazione ottimizzata è di quarto ordine negativo (perché nella formula di previsione è presente un termine quadratico fu*fn e la funzione di costo misura il quadrato dell'errore). Mentre l'ottimizzazione di un'equazione quadratica in qualsiasi numero di variabili avrà quasi sempre una soluzione unica, che puoi trovare con l'algebra lineare abbastanza elementare, l'ottimizzazione di un'equazione quadratica in molte variabili di solito ha molte soluzioni, da qui i molteplici cicli di algoritmi di discesa del gradiente. si possono ottenere risposte. Piccoli cambiamenti di input possono far sì che il calo passi da un minimo locale a un altro, modificando in modo significativo i risultati di output.
La differenza tra questo e gli algoritmi che ho contribuito a sviluppare, come il finanziamento secondario, per me è come la differenza tra l'algoritmo di un economista e quello di un ingegnere. Gli algoritmi degli economisti, nel migliore dei casi, si concentrano sulla semplicità, sono relativamente facili da analizzare e hanno proprietà matematiche chiare, che indicano che è la soluzione migliore (o meno negativa) per il compito da risolvere, e idealmente può anche essere dimostrato Quanti danni può fare qualcuno cercando di sfruttarlo. L'algoritmo di un ingegnere, invece, deriva da un processo iterativo di tentativi ed errori per vedere cosa funziona e cosa non funziona nell'ambiente operativo dell'ingegnere. Gli algoritmi degli ingegneri sono pragmatici e portano a termine il lavoro; gli algoritmi degli economisti non perdono completamente il controllo di fronte a situazioni inaspettate.
Oppure, come afferma il rispettato filosofo di Internet Roon (alias tszzl) in un thread correlato:

Naturalmente, direi che l'aspetto "estetico teorico" delle criptovalute è necessario per poter distinguere con precisione tra quei protocolli che sono veramente trustless e quelli che sembrano buoni e funzionano bene in superficie ma in realtà richiedono fiducia in qualche attore centralizzato, O peggio ancora, potrebbe trattarsi di una truffa completa.
Il deep learning è efficace in circostanze normali, ma presenta inevitabili punti deboli in vari attacchi avversari di machine learning. Se eseguite correttamente, le trappole tecniche e le scale di astrazione di alto livello possono combattere questi attacchi. Quindi, ho una domanda: possiamo trasformare lo stesso Community Notes in qualcosa di più simile a un algoritmo economico?
Per vedere cosa significa in pratica, esploriamo un algoritmo che ho progettato alcuni anni fa per uno scopo simile: il finanziamento quadratico limitato a coppie.

L'obiettivo del finanziamento quadratico limitato a coppie è quello di colmare una lacuna nel finanziamento quadratico "regolare", per cui anche se due partecipanti colludono tra loro, possono contribuire con importi molto elevati a un progetto falso, restituire loro i fondi e ricevere ingenti somme di denaro. sussidi che drenano l’intero pool di capitali. Nel finanziamento quadratico limitato a coppie, assegniamo un budget limitato M a ciascuna coppia di attori. L’algoritmo itera attraverso tutte le possibili coppie di attori, e se l’algoritmo decide di aggiungere un sussidio a un certo progetto P perché sia l’attore A che l’attore B lo sostengono, allora questo sussidio viene detratto dal budget assegnato alla coppia (A, B ). Pertanto, anche se k partecipanti colludono, la quantità che possono rubare dal meccanismo è al massimo k (k-1) M.
Questa forma di algoritmo non funziona bene nel contesto delle Community Notes perché ogni utente esprime solo un piccolo numero di voti: in media, il numero di voti in comune tra due utenti qualsiasi è zero, quindi semplicemente guardando ciascuna coppia individualmente Utente, l'algoritmo non riesce a comprendere la polarità dell'utente. L'obiettivo di un modello di machine learning è proprio quello di cercare di "popolare" una matrice a partire da dati di origine molto sparsi che non possono essere analizzati direttamente in questo modo. Ma la sfida di questo approccio è che sono necessari ulteriori sforzi per evitare risultati altamente volatili a fronte di un numero limitato di voti negativi.
Le Community Notes possono davvero resistere alla sinistra e alla destra?
Possiamo analizzare se l’algoritmo di Community Notes è effettivamente in grado di resistere agli estremi, cioè se si comporta meglio di un ingenuo algoritmo di voto. Questo algoritmo di voto resiste già in una certa misura agli estremi: un post con 200 Mi piace e 100 Non mi piace avrà prestazioni peggiori di un post con solo 200 Mi piace. Ma Community Notes fa di meglio?
Dal punto di vista dell'algoritmo astratto, è difficile dirlo. Perché un post polarizzante con una valutazione media elevata non dovrebbe avere una forte polarità e un’elevata utilità? L'idea è che se questi voti sono contrastanti, la polarità dovrebbe "assorbire" le caratteristiche che hanno fatto sì che il post ottenesse molti voti, ma in realtà lo fa?
Per verificarlo, ho eseguito la mia implementazione semplificata per 100 round. I risultati medi sono i seguenti:

In questo test, i biglietti "buoni" hanno ricevuto un punteggio di +2 tra gli utenti della stessa affiliazione politica e un punteggio di +0 tra gli utenti di appartenenza politica opposta, mentre i biglietti "buoni ma più estremi" hanno ricevuto un punteggio di +0 tra gli utenti del gruppo stessa affiliazione politica ha ricevuto un punteggio di +4 tra gli utenti della fazione opposta e un punteggio di -2 tra gli utenti della fazione opposta. Sebbene i punteggi medi siano gli stessi, la polarità è diversa. E in effetti, l'utilità media delle note "buone" sembra essere superiore a quella delle note "buone ma più inclinate".
Avere un algoritmo più vicino all’“algoritmo dell’economista” avrà una storia più chiara su come l’algoritmo penalizza gli estremi.
Quanto è utile tutto questo in situazioni ad alto rischio?
Possiamo imparare qualcosa di questo osservando una situazione specifica. Circa un mese fa, Ian Bremmer si è lamentato del fatto che una nota della comunità altamente critica era stata aggiunta a un tweet su un funzionario del governo cinese, ma da allora le note erano state rimosse.

Questo è un compito difficile. Una cosa è progettare un meccanismo in un ambiente comunitario di Ethereum in cui la lamentela più grande potrebbe essere solo di $ 20.000 destinati a un influencer estremo di Twitter. La situazione è completamente diversa quando si tratta di questioni politiche e geopolitiche che riguardano milioni di persone, dove tutti spesso danno ragionevolmente per scontato le motivazioni peggiori. Tuttavia, l’interazione con questi ambienti ad alto rischio è essenziale se i progettisti meccanici vogliono avere un impatto significativo sul mondo.
Nel caso di Twitter, c'è un motivo ovvio per sospettare una manipolazione centralizzata come motivo della rimozione di Notes: Elon Musk ha molti interessi commerciali in Cina, quindi è possibile che Elon Musk abbia costretto il team di Community Notes a interferire con l'output dell'algoritmo e rimuovilo Queste note particolari.
Fortunatamente, l’algoritmo è open source e verificabile, quindi possiamo effettivamente approfondirlo! Facciamolo. L'URL del tweet originale è https://twitter.com/MFA_China/status/1676157337109946369. Il numero 1676157337109946369 alla fine è l'ID del tweet. Possiamo cercare questo ID nei dati scaricabili e identificare la riga specifica nel foglio di calcolo che contiene le note sopra:

Qui otteniamo l'ID di Notes stesso, 1676391378815709184. Cerchiamo quindi quell'ID nei file score_notes.tsv e note_status_history.tsv generati eseguendo l'algoritmo. Abbiamo ottenuto i seguenti risultati:

La seconda colonna nel primo output è il rating attuale per quelle Notes. Il secondo output mostra la cronologia delle note: il suo stato attuale è nella colonna sette (NEEDS_MORE_RATINGS) e il primo stato ricevuto in precedenza che non era NEEDS_MORE_RATINGS è nella colonna cinque (CURRENTLY_RATED_HELPFUL). Quindi possiamo vedere che l'algoritmo stesso ha prima mostrato la banconota e poi l'ha rimossa dopo che la sua valutazione è scesa leggermente: non sembra essere coinvolto alcun intervento centrale.
Possiamo anche considerare la questione in un altro modo, esaminando il voto stesso. Possiamo scansionare il file ratings-00000.tsv per isolare tutte le valutazioni per quelle note e vedere quante sono valutate UTILI e NON_HELPFUL:

Tuttavia, se li ordini per timestamp e guardi i primi 50 voti, vedrai che ci sono 40 voti utili e 9 voti NON_HELPFUL. Quindi arriviamo alla stessa conclusione: il pubblico iniziale di Notes ha valutato Notes in modo più positivo, mentre il pubblico successivo di Notes lo ha valutato in modo meno favorevole, quindi le sue valutazioni sono iniziate più alte e sono diminuite nel tempo.
Sfortunatamente, è difficile spiegare esattamente come Notes abbia cambiato stato: non è semplicemente una questione di "prima aveva un punteggio superiore a 0,40, ora è inferiore a 0,40, quindi è stato rimosso". Invece, un numero elevato di risposte NOT_HELPFUL attiva una delle condizioni di eccezione, aumentando il punteggio di utilità di cui Notes ha bisogno per rimanere al di sopra della soglia.
Questa è un’altra grande opportunità di apprendimento che ci insegna una lezione: per rendere un algoritmo neutrale affidabile veramente affidabile è necessario mantenerlo semplice. Se una nota passa dall'accettazione alla non accettazione, dovrebbe esserci una storia semplice e chiara che spieghi il motivo.
Naturalmente, esiste un modo completamente diverso per manipolare questo voto: il Brigading. Qualcuno che vede un Notes che disapprova può fare appello a una comunità molto impegnata (o peggio, a una legione di account falsi) per valutarlo NOT_HELPFUL, e potrebbero non essere necessari troppi voti per spostare Notes da "Utile" a "estremo". Sono necessari ulteriori analisi e lavoro per ridurre adeguatamente la vulnerabilità dell’algoritmo a tali attacchi coordinati. Un possibile miglioramento sarebbe quello di non consentire a nessun utente di votare su alcuna nota, ma invece di assegnare casualmente le note ai valutatori nel modo consigliato dall'algoritmo "For You" e consentire ai valutatori di valutare solo le note a cui sono state assegnate.
Le Community Notes non sono abbastanza “coraggiose”?
La critica principale che vedo nei confronti di Community Notes è fondamentalmente che non fa abbastanza. Ho visto due articoli recenti che menzionano questo. Per citare uno degli articoli:
Il programma soffre di una grave limitazione, ovvero che affinché le Community Notes siano pubbliche, devono essere universalmente accettate dal consenso di persone di tutto lo spettro politico.
"Deve avere un consenso ideologico", ha detto. "Ciò significa che le persone di sinistra e quelle di destra devono essere d'accordo sul fatto che la nota deve essere allegata al tweet."
Essenzialmente, ha detto, ciò richiede "un accordo interideologico sulla verità, che è quasi impossibile da raggiungere in un ambiente sempre più partigiano".
È una domanda difficile, ma alla fine sono propenso a pensare che sia meglio avere dieci tweet di disinformazione diffusi liberamente piuttosto che avere un tweet annotato ingiustamente. Abbiamo assistito ad anni di verifica dei fatti, ed è stato coraggioso, ed è dal punto di vista di "in realtà conosciamo la verità, sappiamo che una parte mente più spesso dell'altra". Quale sarà il risultato?

A dire il vero c’è una diffidenza abbastanza diffusa nei confronti del concetto di fact-checking. Ecco una strategia che dice: ignorare le critiche, ricordare che gli esperti di verifica dei fatti conoscono davvero i fatti meglio di qualsiasi sistema di voto e attenersi ad esso. Ma adottare questo approccio all-in sembra rischioso. È utile costruire istituzioni intertribali che siano rispettate da tutti, almeno in una certa misura. Come la massima di William Blackstone e i tribunali, ritengo che mantenere tale rispetto richieda un sistema che commetta errori per omissione piuttosto che in modo proattivo. Quindi mi sembra che ci sia valore nel fatto che almeno una grande organizzazione intraprenda questa strada diversa e tratti il suo raro rispetto intertribale come una risorsa preziosa.
Un altro motivo per cui penso che sia giusto che Community Notes sia conservatore è che non penso che ogni tweet di disinformazione, o anche la maggior parte dei tweet di disinformazione, dovrebbe ricevere una nota correttiva. Anche se meno dell’1% dei tweet di disinformazione riceve annotazioni che forniscono contesto o correzione, Community Notes fornisce comunque un servizio estremamente prezioso come strumento educativo. L'obiettivo non è correggere tutto; piuttosto, l'obiettivo è ricordare alle persone che esistono molteplici punti di vista, che alcuni post che sembrano convincenti e coinvolgenti presi isolatamente sono in realtà del tutto sbagliati e che sì, di solito puoi eseguire una ricerca di base su Internet. per verificare che sia sbagliato.
Le Community Notes non possono essere, né vogliono essere, una panacea per tutti i problemi dell’epistemologia pubblica. Qualunque sia il problema che non risolve, c’è molto spazio per altri meccanismi per colmarlo, che si tratti di un gadget nuovo di zecca come un mercato di previsione o di un’organizzazione consolidata che impiega dipendenti a tempo pieno con competenze nel settore che possono provare a colmare le lacune.
Insomma
Community Notes non è solo un affascinante esperimento sui social media, ma anche un esempio di un affascinante tipo emergente di progettazione di meccanismi: meccanismi che cercano consapevolmente di identificare gli estremi e tendono a promuovere il superamento dei confini piuttosto che perpetuare le divisioni.
Altri due esempi in questa categoria di cui sono a conoscenza sono: (i) il meccanismo di finanziamento secondario a coppie utilizzato in Gitcoin Grants e (ii) Polis, uno strumento di discussione che utilizza algoritmi di clustering per aiutare la comunità a identificare le dichiarazioni popolari comuni che abbracciano le persone che spesso hanno opinioni diverse. Quest’area della progettazione dei meccanismi è preziosa e spero che vedremo più lavoro accademico in quest’area.
La trasparenza algoritmica fornita da Community Notes non è esattamente la stessa dei social media completamente decentralizzati: se non sei d'accordo con il modo in cui funziona Community Notes, non c'è modo di visualizzare lo stesso contenuto attraverso un algoritmo diverso. Ma questo è il massimo che le applicazioni su larga scala raggiungeranno nei prossimi anni, e possiamo vedere che fornisce già molto valore, sia nel prevenire la manipolazione centralizzata sia nel garantire che le piattaforme che non si impegnano in tale manipolazione ottengano il dovuto riconoscimento .
Non vedo l'ora di vedere lo sviluppo e la crescita di Community Notes e di molti algoritmi simili nel prossimo decennio.
