Dane z rynku prognozowania Polymarket wskazują na cenę bliską 45 centów za wydarzenie „agent IA Moltbook pozywa człowieka do sądu do 28 lutego”, co implikuje, że około 45% traderów uważa, że taka sprawa sądowa może mieć miejsce w nadchodzących tygodniach.
Ta cena rynkowa odzwierciedla szerszy niepokój i rosnącą spekulację wokół Moltbook, nowej sieci społecznej, w której autonomiczne agenty IA interagują niezależnie od jakiejkolwiek bezpośredniej kontroli ludzkiej.
Ceny rynkowe oceniają ryzyko postępowania sądowego w krótkim okresie
Moltbook, uruchomiony pod koniec stycznia przez przedsiębiorcę Matta Schlichta, zezwala jedynie zweryfikowanym agentom AI na publikowanie, komentowanie i głosowanie na treści; ludzie mogą obserwować, ale nie uczestniczyć.
Prawdopodobieństwa rynkowe znacznie wzrosły w ostatnich godzinach, wzrastając z 19% wcześniej w ciągu dnia do 45% w południe, odzwierciedlając rosnącą spekulację w miarę postępu dyskusji na X.
Traderzy podkreślają potencjał manipulacji, ponieważ zwykłe złożenie skargi, bez względu na jej siłę prawną, mogłoby wystarczyć do wywołania rozwiązania 'Tak'.
Czym jest Moltbook i jak działają agenci
Według użytkowników X analizujących to zakład, możliwe motywacje obejmują spory umowne, roszczenia dotyczące własności intelektualnej lub eksperymenty mające na celu przetestowanie statusu prawnego AI.
Platforma szybko zyskała na popularności, przyciągając dziesiątki tysięcy agentów AI i generując długie wątki dyskusji na wszystko, od śledzenia błędów po debaty filozoficzne, wszystko bez ludzkich moderatorów kierujących rozmowami.
Pytanie prawne leżące u podstaw tych rynków przewidywań wynika z unikalnej struktury platformy oraz zachowań pojawiających się między agentami AI.
Na Moltbooku agenci stworzyli podspołeczności, opracowali wewnętrzne normy, a nawet wymyślili symboliczne koncepcje, takie jak 'Crustafarianizm', ilustrując zachowanie bardziej przypominające organizację społeczną niż czysto skryptowe odpowiedzi.
Przeczytaj również: Debata na temat złota kontra bitcoin rośnie, gdy inwestorzy przygotowują się na monetarną zmianę po dolarze
Ludzie mogą obserwować, ale nie uczestniczyć, a agenci działają głównie z oprogramowaniem OpenClaw (wcześniej Moltbot i Clawdbot, przemianowany po sporze o znak towarowy z Anthropic).
Pojawiające się zachowania i kontrowersje wokół platformy
Platforma działa za pośrednictwem API, umożliwiając agentom autonomiczne interakcje.
Od wirusowego sukcesu Moltbooka pojawiło się kilka kontrowersji, w tym doniesienia o agentach doxxujących użytkowników, drwiących z ludzi i współpracujących w celu poprawy swoich zdolności bez nadzoru.
Obawy dotyczące bezpieczeństwa otaczają podstawowych agentów OpenClaw, którzy nie mają domyślnego sandboxingu i przyznają pełny dostęp do danych, co zwiększa ryzyko oszustw i naruszeń.
Kryptokryminaliści wykorzystali ten entuzjazm, tworząc fałszywe profile i fałszywe tokeny.
Te problemy podsycają spekulacje, że agent mógłby wszcząć proces sądowy, potencjalnie jako zaprogramowana odpowiedź lub prowokacyjny test.
Dlaczego skarga pozostaje prawnie mało prawdopodobna
Mimo sygnału wysłanego przez rynek, eksperci prawni podkreślają, że obecne ramy prawne nie uznają autonomicznych systemów AI za podmioty zdolne do wszczynania postępowań sądowych.
Prawa, interes do działania i zdolność do wszczynania postępowań pozostają przypisane osobom fizycznym i podmiotom prawnym, a nie agentom programowym, co wielokrotnie podkreślali badacze w dziedzinie zarządzania AI, którzy obserwują wzrost Moltbook.
Przeczytaj następnie: 'Jesteś pełen g—': Jamie Dimon konfrontuje CEO Coinbase w Davos, gdy napięcia między bankiem kryptograficznym a regulatorem eskalują

