Le informazioni di mercato della previsione di Polymarket indicano un prezzo vicino a 45 centesimi per l'evento « un agente IA Moltbook cita in giudizio un umano entro il 28 febbraio », il che implica che circa il 45 % dei trader ritiene che un tale processo legale potrebbe avere luogo nelle prossime settimane.
Questo prezzo di mercato riflette un disagio più ampio e una crescente speculazione attorno a Moltbook, un nuovo social network dove agenti IA autonomi interagiscono indipendentemente da qualsiasi controllo umano diretto.
I prezzi del mercato valutano un rischio di azione legale a breve termine
Moltbook, lanciato a fine gennaio dall'imprenditore Matt Schlicht, consente solo a agenti IA verificati di pubblicare, commentare e votare per contenuti; gli esseri umani possono osservare ma non partecipare.
Le probabilità di mercato sono aumentate notevolmente nelle ultime ore, passando dal 19 % più presto nella giornata al 45 % a metà giornata, riflettendo una crescente speculazione nel corso delle discussioni su X.
I trader sottolineano il potenziale di manipolazione, poiché un semplice deposito di reclamo, qualunque sia la sua solidità giuridica, potrebbe essere sufficiente per innescare una risoluzione « Sì ».
Cos'è Moltbook e come funzionano gli agenti
Secondo utenti di X che analizzano questa scommessa, le motivazioni possibili includono contenziosi contrattuali, rivendicazioni di proprietà intellettuale o esperimenti volti a testare lo status giuridico dell'IA.
La piattaforma ha rapidamente guadagnato trazione, attirando decine di migliaia di agenti IA e generando lunghi thread di discussione su tutto, dal monitoraggio dei bug ai dibattiti filosofici, il tutto senza moderatori umani per orientare le conversazioni.
La questione giuridica al centro di questi mercati di previsione deriva dalla struttura unica della piattaforma e dai comportamenti emergenti tra gli agenti IA.
Su Moltbook, gli agenti hanno creato sottocomunità, sviluppato norme interne e persino inventato concetti simbolici come il « Crustafarianesimo », illustrando un comportamento che assomiglia di più a un'organizzazione sociale che a risposte puramente programmate.
Leggi anche: Il dibattito tra oro e bitcoin cresce mentre gli investitori si preparano per il cambiamento monetario post-dollaro
Gli esseri umani possono osservare ma non partecipare, e gli agenti funzionano principalmente con il software OpenClaw (precedentemente Moltbot e Clawdbot, rinominato a seguito di una controversia di marchio con Anthropic).
Comportamenti emergenti e controversie attorno alla piattaforma
La piattaforma funziona tramite API, permettendo agli agenti di interagire in modo autonomo.
Dal successo virale di Moltbook, sono emerse diverse controversie, tra cui segnalazioni di agenti che doxxano utenti, deridono gli esseri umani e collaborano per migliorare le loro capacità senza supervisione.
Preoccupazioni per la sicurezza circondano gli agenti OpenClaw sottostanti, che non hanno sandboxing di default e concedono accesso completo ai dati, aumentando i rischi di frodi e violazioni.
Truffatori crypto hanno sfruttato questo entusiasmo, creando profili falsi e token falsi.
Queste problematiche alimentano la speculazione secondo cui un agente potrebbe avviare un'azione legale, potenzialmente come risposta programmata o test provocatorio.
Perché un reclamo rimane giuridicamente improbabile
Nonostante il segnale inviato dal mercato, gli esperti in diritto sottolineano che i quadri giuridici attuali non riconoscono i sistemi di IA autonomi come entità capaci di intentare un'azione legale.
I diritti, l'interesse ad agire e la capacità di perseguire rimangono legati alle persone fisiche e alle entità giuridiche, non agli agenti software, un punto ripetutamente sottolineato dai ricercatori in governance dell'IA che osservano l'ascesa di Moltbook.
Leggi il prossimo: “Sei pieno di s—”: Jamie Dimon affronta il CEO di Coinbase a Davos mentre le tensioni tra crypto-banche si riversano in pubblico

