Umělá inteligence transformovala mnohé sektory a tam, kde se prosazuje, se opakuje stejná otázka: nahradí člověka? V kryptoměnách je její dopad již dobře viditelný, od obchodních botů řízených umělou inteligencí po agentní obchodní systémy.

Nicméně, Alex Svanevik, generální ředitel a spoluzakladatel Nansen, tvrdí, že umělá inteligence nenahrazuje lidský úsudek, ale spíše ho zvyšuje. V exkluzivním rozhovoru pro BeInCrypto Svanevik podrobně zkoumá tuto změnu a zmiňuje perspektivy analýzy posílené umělou inteligencí.

Debata o umělé inteligenci v kryptoměnách: generální ředitel Nansen obhajuje podporu umělé inteligence spíše než její nahrazení.

Ve středu 21. ledna oznámil Nansen spuštění své funkce obchodování on-chain řízené umělou inteligencí. Tato událost představuje významný pokrok a umožňuje mu přejít z jednoduché analytické platformy na jednotný produkt spojující vhled a provedení.

Postavená na základě vlastního souboru dat více než 500 milionů označených peněženek, toto nové řešení umožňuje uživatelům spravovat portfolia, interpretovat on-chain signály v reálném čase a získávat návrhy založené na datech. Umožňuje také provádět obchody přímo na Nansen.

„Trénována a hodnocena na základě vlastního souboru dat Nansen, umělá inteligence Nansen neustále překonává hlavní produkty AI na benchmarkech navržených pro analýzu a obchodování on-chain. To zajišťuje, že poskytované informace jsou nejen přesnější, ale také přímo využitelné obchodníky/investory, přetvářející agentní inteligenci na skutečnou obchodní výhodu,“ lze číst v tiskové zprávě Nansen.

Kromě toho tento start otevírá cestu k tomu, co Nansen nazývá „vibe trading“. Jde o intuitivnější způsob provádění, který přechází od vhledu k on-chain provedení bez změny nástroje.

Jak umělá inteligence přebírá stále více analýz, vyvstává otázka role lidských analytiků. Svanevik vysvětluje, že umělá inteligence vyniká v řízení velkých objemů dat, což jí umožňuje analyzovat stovky milionů peněženek, sledovat toky cross-chain a identifikovat vzory, které jsou pro člověka obtížně detekovatelné.

Nicméně zdůrazňuje, že rozhodování zůstává výsadou uživatele, který řídí proces kladením správných otázek a validací akcí.

„Hranice není pevná. Vyvíjí se, jak umělá inteligence pokročila v uvažování a má stále bohatší on-chain data. Cílem však není nahradit úsudek. Jde o to osvobodit člověka od namáhavých úkolů, aby se mohl soustředit na rozhodnutí na vyšší úrovni,“ uvedl.

Jak poznat důvěryhodnou analýzu na krypto trhu dominovaném umělou inteligencí?

Výzkumy naznačují, že zvýšená závislost na nástrojích umělé inteligence by mohla souviset s poklesem kritického myšlení. Na krypto trzích, kde se obchodníci musí vyrovnávat s extrémní volatilitou a vysoce rizikovými aktivy, jsou sázky ještě vyšší.

Nicméně, Svanevik nabízí jiný pohled. Podle něj „dobrá umělá inteligence“ osvětluje více signálů, což uživatele nutí k tomu, aby kriticky přemýšleli o provedení, a ne naopak.

„Skutečné systémové riziko spočívá v tom, že všichni následují stejný vzor. To není specifické pro umělou inteligenci — k tomu dochází i u lidských analytiků. Odpověď spočívá v rozmanitosti: rozmanitost modelů, rozmanitost strategií, rozmanitost v interpretaci dat. Proto vytváříme nástroje, které podporují individuální rozhodování, a ne jeden jediný oracle, který je třeba následovat,“ dodává.

Ředitel také uvádí, že není dobré mít slepou důvěru ani v umělou inteligenci, ani v lidské analytiky. Podle něj je nejdůležitější schopnost analýzy vydržet v čase.

Pokud jde o důvěryhodnost na trhu orientovaném na umělou inteligenci, generální ředitel uvádí:

„Důvěryhodnost v éře umělé inteligence spočívá na měření a opakování, ne na jménu nebo publiku na Twitteru. Umělá inteligence má tu výhodu, že může být neúnavně testována, ve velkém měřítku a tváří v tvář realitě způsobem, kterým člověk nemůže rovnat.“

Vysvětluje, že nejjednodušší test je praktického rázu. Svanevik skutečně navrhuje, aby uživatelé kladli otázky, které se jich opravdu týkají, a poté posoudili, zda jsou odpovědi relevantní, užitečné a proveditelné, přičemž poznamenává, že uživatelé jsou často dobrými soudci kvality.

„Dlouhodobě se důvěra přesune od jednotlivých analytiků k platformám, které mohou neustále dokazovat, že extrahují signál a omezují šum. To je úroveň nároků, kterou na sebe klademe,“ říká Svanevik pro BeInCrypto.

Umělá inteligence může analyzovat on-chain data, ale nemůže nahradit lidské cítění.

Lidské analytici často přizpůsobují svá obchodní rozhodnutí on-chain indikátorům, datům o cenách nebo jiným signálům díky svému úsudku a schopnosti kontextuální interpretace. Systémy umělé inteligence se naopak spoléhají na vzory naučené z minulých dat.

Dotazován na možnost, že by jednou mohla umělá inteligence vyvinout podobnou formu úsudku, Svanevik odhaduje, že se to bezpochyby stane, ale ne lidským způsobem. Vysvětluje, že umělá inteligence vyvine svou vlastní formu kontextuálního uvažování. Podle ředitele by mohla být dokonce efektivnější při integraci dat v reálném čase na široké škále proměnných, daleko za hranicemi lidských schopností.

„Abychom toho dosáhli, budeme potřebovat lepší tréninková data, delší kontextové okna a zpětné vazby z reálného provedení. To už vidíme s naším agentem. Nepoužívá jen vzory; uvažuje o behaviorálních datech v reálném čase. Jde o začátek úsudku. Ten se stane ostřejším, jak se modely vyvíjejí a jak shromáždíme poznatky z milionů interakcí on-chain,“ zdůrazňuje Svanevik.

Nicméně identifikuje jeden aspekt on-chain analýzy, který umělá inteligence nikdy zcela nenahradí: převzetí odpovědnosti za rozhodnutí přijatá v nejistotě.

Svanevik připomíná, že pokud umělá inteligence může vyvést vzory, hodnotit pravděpodobnosti a potenciální scénáře a analyzovat minulá nebo budoucí data, nemůže určit toleranci k riziku člověka, jeho hodnotové úsudky nebo převzít odpovědnost za rozhodnutí, když výsledky jsou negativní.

„On-chain analýza nakonec přechází k konkrétním činům: investování kapitálu, podpora týmů, přijímání veřejných postojů. Někdo musí převzít zodpovědnost za tato rozhodnutí. To je lidská role,“ uzavírá ředitel.

Upozornil, že bez ohledu na úroveň sofistikovanosti, které modely umělé inteligence dosáhnou, bude důvěryhodnost i nadále záviset na lidech, pokud jde o úsudek, odpovědnost a přesvědčení. Umělá inteligence může osvětlit rozhodnutí, řekl, ale stále to jsou lidé, kteří je činí a nesou následky.

„Rozhodnout, co má význam. Umělá inteligence vám může říct, co se děje on-chain, ale nemůže vám říct, čemu byste měli věnovat pozornost. To je otázka citlivosti, otázka přesvědčení. To je lidské,“ komentoval Svanevik.

Nakonec Svanevik považuje umělou inteligenci za silný páku a ne za rozhodovací nástroj. Pokud umělá inteligence může odhalit vzory, pravděpodobnosti a analýzy v dosud nevídaném měřítku, lidský úsudek zůstává centrální pro hodnocení rizika, odpovědnost a přesvědčení.

Jakmile se analýza poháněná umělou inteligencí demokratizuje, důvěra se stále více přesune na platformy, které mohou neustále dokazovat kvalitu svých analýz. Současně zůstávají lidé odpovědní za určování toho, co je důležité, a za převzetí důsledků, které z toho vyplývají.

Moral této historie: Umělá inteligence nikdy nepokračuje sama.