Sztuczna inteligencja przekształciła wiele sektorów i wszędzie tam, gdzie się narzuca, wraca to samo pytanie: czy zastąpi człowieka? W kryptowalutach jej wpływ jest już wyraźnie widoczny, od botów handlowych zarządzanych przez AI po systemy handlu agentowego.

Jednak Alex Svanevik, CEO i współzałożyciel Nansen, twierdzi, że AI nie zastępuje ludzkiego osądu, lecz raczej go wzmacnia. W ekskluzywnym wywiadzie udzielonym BeInCrypto, Svanevik szczegółowo bada tę zmianę i omawia perspektywy analizy wspieranej przez sztuczną inteligencję.

Debata na temat AI w kryptowalutach: CEO Nansen broni wspierania AI zamiast jej zastępowania.

W środę 21 stycznia Nansen ogłosił uruchomienie swojej funkcji handlu on-chain zasilanej przez AI. To wydarzenie oznacza dużą ewolucję i pozwala mu przejść z prostej platformy analitycznej do zjednoczonego produktu łączącego wgląd i wykonanie.

Zbudowane na podstawie własnego zbioru danych liczącego ponad 500 milionów oznaczonych portfeli, to nowe rozwiązanie pozwala użytkownikom zarządzać portfelami, interpretować sygnały on-chain w czasie rzeczywistym i uzyskiwać sugestie oparte na danych. Umożliwia również wykonywanie transakcji bezpośrednio na Nansen.

„Szkolona i oceniana na bazie własnego zbioru danych Nansen, AI Nansen stale przewyższa czołowe produkty AI na benchmarkach zaprojektowanych do analizy i handlu on-chain. To gwarantuje, że dostarczane informacje są nie tylko bardziej precyzyjne, ale także bezpośrednio wykorzystywalne przez traderów/inwestorów, przekształcając inteligencję agentową w prawdziwą przewagę handlową”, można przeczytać w komunikacie Nansen.

Ponadto to uruchomienie otwiera drogę do tego, co Nansen nazywa „tradingiem wibracyjnym”. To bardziej intuicyjny sposób wykonania, który przechodzi od wglądu do wykonania on-chain bez zmiany narzędzia.

W miarę jak AI przejmuje coraz więcej analiz, pojawia się pytanie o rolę ludzkich analityków. Svanevik wyjaśnia, że AI świetnie radzi sobie z zarządzaniem dużymi wolumenami danych, co pozwala jej analizować setki milionów portfeli, śledzić przepływy cross-chain i identyfikować wzory, które są trudno wykrywalne przez ludzi.

Jednak podkreśla, że podejmowanie decyzji pozostaje w gestii użytkownika, który kieruje procesem, zadając odpowiednie pytania i walidując działania.

„Granica nie jest stała. Ewoluuje w miarę postępu AI w rozumowaniu i coraz bogatszych danych on-chain. Jednak celem nie jest zastąpienie osądu. Chodzi o uwolnienie człowieka od uciążliwych zadań, aby mógł skupić się na decyzjach wyższego poziomu”, powiedział.

Jak rozpoznać wiarygodną analizę na rynku kryptowalut zdominowanym przez AI?

Badania sugerują, że wzrost zależności od narzędzi sztucznej inteligencji może być związany ze spadkiem krytycznego myślenia. Na rynkach kryptowalut, gdzie traderzy muszą stawić czoła ekstremalnej zmienności i aktywom o wysokim ryzyku, stawka staje się jeszcze wyższa.

Jednak Svanevik oferuje inny punkt widzenia. Twierdzi, że „dobra AI” uwydatnia więcej sygnałów, skłaniając użytkowników do bardziej krytycznego myślenia o wykonaniu, a nie odwrotnie.

„Prawdziwe ryzyko systemowe polega na tym, że wszyscy podążają za tym samym schematem. To nie dotyczy tylko AI — dzieje się to także z ludzkimi analitykami. Odpowiedzią jest różnorodność: różnorodność modeli, różnorodność strategii, różnorodność w interpretacji danych. Dlatego tworzymy narzędzia, które sprzyjają indywidualnemu podejmowaniu decyzji, a nie jednemu oraklowi do naśladowania”, dodaje.

Lider podkreśla również, że nie należy mieć ślepego zaufania ani do AI, ani do ludzkich analityków. Według niego najważniejsze jest, aby analiza potrafiła przetrwać próbę czasu.

Jeśli chodzi o wiarygodność na rynku zorientowanym na AI, CEO podkreśla:

„Wiarygodność w erze AI opiera się na pomiarze i powtarzalności, a nie na nazwisku czy publiczności na Twitterze. AI ma tę przewagę, że może być nieustannie testowana na dużą skalę i w obliczu rzeczywistości w sposób, którego człowiek nie mógłby dorównać.”

Wyjaśnia, że najprostszy test ma charakter praktyczny. Svanevik sugeruje, aby użytkownicy zadawali pytania, które ich naprawdę dotyczą, a następnie oceniali, czy odpowiedzi są istotne, użyteczne i możliwe do wdrożenia, zauważając, że użytkownicy często są dobrymi sędziami jakości.

„Długoterminowo zaufanie przesunie się z indywidualnych analityków na platformy zdolne do ciągłego udowadniania, że wyodrębniają sygnały i ograniczają szum. To jest poziom wymagań, który sobie narzucamy”, mówi Svanevik w BeInCrypto.

AI może analizować dane on-chain, ale nie może zastąpić ludzkiego odczucia.

Ludzkie analitycy często dostosowują swoje decyzje handlowe do wskaźników on-chain, danych cenowych lub innych sygnałów, dzięki swojemu osądowi i zdolności do kontekstowej interpretacji. Systemy AI opierają się na wzorach wyuczonych na podstawie danych przeszłych.

Zapytał o możliwość, że pewnego dnia AI będzie w stanie rozwinąć podobną formę osądu, Svanevik uważa, że to bez wątpienia nastąpi, ale nie w ludzki sposób. Wyjaśnia, że AI rozwinie swoją własną formę rozumowania kontekstowego. Według lidera, może być nawet bardziej efektywna w integracji danych w czasie rzeczywistym na szeroką gamę zmiennych, znacznie przekraczając możliwości ludzkie.

„Aby to osiągnąć, potrzebne będą lepsze dane do szkolenia, dłuższe okna kontekstu i pętle zwrotne pochodzące z rzeczywistego wykonania. Już to dostrzegamy w naszym agencie. Nie tylko szuka wzorów; rozumuje na podstawie danych behawioralnych w czasie rzeczywistym. To początek osądu. Będzie to bardziej wyrafinowane w miarę jak modele będą się rozwijać i zbierzemy nauki z milionów interakcji on-chain”, podkreśla Svanevik.

Jednak identyfikuje aspekt analizy on-chain, którego AI nigdy całkowicie nie zastąpi: ponoszenie odpowiedzialności za podejmowane decyzje w warunkach niepewności.

Svanevik przypomina, że jeśli AI może wydobywać wzory, oceniać prawdopodobieństwa i potencjalne scenariusze oraz analizować dane przeszłe lub przyszłe, nie może jednak określić tolerancji na ryzyko danej osoby, jej osądów wartościowych ani ponosić odpowiedzialności za decyzje, gdy wyniki stają się negatywne.

„Analiza on-chain kończy się ostatecznie na konkretnych działaniach: inwestowaniu kapitału, wspieraniu zespołów, zajmowaniu publicznych stanowisk. Ktoś musi ponieść te decyzje. To rola ludzka”, podsumowuje lider.

Podkreślił, że bez względu na poziom zaawansowania modeli AI, wiarygodność będzie nadal opierać się na ludziach w kwestii osądu, odpowiedzialności i przekonania. AI może oświetlać decyzje, powiedział, ale to zawsze ludzie je podejmują i ponoszą za nie konsekwencje.

„Decydować, co jest ważne. AI może powiedzieć, co się dzieje on-chain, ale nie może powiedzieć, na co powinieneś zwrócić uwagę. To kwestia wrażliwości, kwestia przekonania. To jest ludzkie”, skomentował Svanevik.

Ostatecznie Svanevik postrzega AI jako potężny dźwignię, a nie jako podejmującą decyzje. Jeśli AI może ujawniać wzory, prawdopodobieństwa i analizy w niespotykanej skali, ludzki osąd pozostaje centralny dla oceny ryzyka, odpowiedzialności i przekonania.

W miarę jak analiza wspierana przez AI staje się coraz bardziej demokratyczna, zaufanie będzie coraz bardziej opierać się na platformach zdolnych do ciągłego udowadniania jakości swoich analiz. Równocześnie ludzie pozostają odpowiedzialni za określenie, co jest ważne i za ponoszenie konsekwencji, które z tego wynikają.

Morał z tej historii: AI nigdy nie działa sama.