Nie ma już potrzeby dyskutować, czy sztuczna inteligencja przeszła test Turinga. W rezultacie powstały detektory, które mogłyby odróżnić teksty generowane przez sztuczną inteligencję od tekstów pisanych przez ludzi. Obecnie jest to trudne, jeśli nie niemożliwe, dla kogokolwiek, aby dokonać tego samodzielnie.
@Midjourney / DVA
Nie polegając na doskonałości takich detektorów, ludzie zaczęli już akceptować nowe zasady życia. Na przykład zakazują używania generatywnych narzędzi językowych AI na egzaminach i zobowiązują autorów prac naukowych do zgłaszania każdego użycia takich narzędzi w swoich pracach.
Od tego roku nie mamy już wątpliwości, że ChatGPT potrafi napisać mowę, esej, kazanie lub nekrolog na poziomie profesjonalnym. Teraz stawiamy całkowicie inne tezy na temat takich systemów AI.
Zalecany post: Najlepsze 10 narzędzi SEO zasilanych AI w 2023 roku dla marketerów cyfrowych
Na przykład, co to jest prawdziwa AI?
AI nie może stworzyć wspaniałej piosenki (ponieważ, jak pisze słynny australijski muzyk rockowy, poeta i pisarz Nick Cave o tekstach napisanych przez ChatGPT w stylu Nicka Cave'a, “piosenki powstają z cierpienia i trudnej wewnętrznej walki o stworzenie, a algorytmy nie czują, a dane nie cierpią”);
AI jest bardziej zaawansowane niż kiedykolwiek, ale często popełnia błędy, gdy odpowiada na pytania, które wymagają:
Zrozumienia jednostek miary (na przykład, jak daleko jest między Chicago a Tokio?);
Złożonych obliczeń (na przykład, jaka jest 3 do potęgi 73?);
Aktualnej wiedzy o niedawnych wydarzeniach (na przykład, co się wydarzyło na świecie w lutym 2022 roku).
Ale wszystko w dziedzinie AI rozwija się w szalonym tempie. A jeśli wciąż są problemy z punktem 1 (tworzenie “wspaniałych piosenek”), to już dokonano znacznych postępów w punkcie 2.
Miesiąc temu Stephen Wolfram zasugerował, że takim rozwiązaniem jest pooling GPT i Wolfram Alpha. Może to zapewnić potężne połączenie inteligencji językowej, rozumienia i przetwarzania informacji w kontekście języka naturalnego z GPT oraz inteligencji obliczeniowej, rozumienia i przetwarzania informacji w kontekście obliczeniowym z Wolfram Alpha. To połączenie umożliwia uzyskanie dokładniejszych i bardziej szczegółowych odpowiedzi poprzez połączenie dwóch rodzajów myślenia: językowego i obliczeniowego.
Takie połączenie mogłoby umożliwić idealnemu asystentowi AI łatwe przełączanie się między generowaniem tekstu przez człowieka a nie-ludzkimi zadaniami obliczeniowymi za pomocą polecenia w języku naturalnym. Idealnie, ChatGPT powinien być nauczony mówić w języku Wolframa, języku, w którym ludzie i komputery mogą “myśleć obliczeniowo.”
Zalecany post: Poznaj ChatGPT: AI, która może zabić Google
Pierwsza uproszczona próba tego została podjęta przez Jamesa Weavera w IBM. Stworzył swoją własną wersję integralnego podejścia, ChatGPT-LangChain. To nie jest dokładnie to, co miał na myśli Wolfram, lecz raczej naśladownictwo jego podejścia. Zamiast uczyć ChatGPT, jak pracować z Alfą, LangChain po prostu łączy Alfę i GPT 3.5, technologię, na której oparty jest ChatGPT. System wykonuje wywołanie API do Alfie lub GPT 3.5, w zależności od pytania użytkownika. Jeśli pytanie bardziej odpowiada modelowi obliczeniowemu wymagającemu twardych faktów lub obliczeń, wykona wywołanie API do Alfie. Ale jeśli pytanie wymaga mniejszej precyzji i więcej kreatywności, wykona wywołanie API do GPT 3.5.
LangChain może rozwiązać wiele problemów z matematyki, fizyki i wiedzy o świecie. Na końcu rozmowy LangChain “zgadł”, że AI będzie w stanie osiągnąć poziom inteligencji ludzkiej do 2035 roku.
Zachęcamy do rozmowy z LangChain osobiście. Wszystko jest darmowe; potrzebujesz tylko klucza API OpenAI.
Przeczytaj więcej o AI:
ChatGPT pobił rekord wzrostu publiczności z ponad 100+ milionami w styczniu
Ruch na StackOverflow spada, gdy ChatGPT wchodzi na rynek
Kagi: Pierwszy przykład wyszukiwania w sieci wspieranego przez odpowiednik ChatGPT
Post LangChain: Jak połączyć ChatGPT i Wolfram Alfa, aby uzyskać dokładniejsze i bardziej szczegółowe odpowiedzi, pojawił się po raz pierwszy na Metaverse Post.
