Dla nas, ludzi, symbolika jest kluczem do zrozumienia otaczającego nas świata, to sposób, w jaki interpretujemy obiekty, idee i relacje między nimi.

Jesteśmy całkowicie zależni od analogii, co sprawia, że ​​nasza obecna technologia komputerowa jest niezwykle zawiła, złożona i w tym momencie wręcz archaiczna.

Rosnąca popularność sztucznej inteligencji (AI) i przypadki użycia, które już obserwujemy w przypadku ChatGPT firmy OpenAI, niekoniecznie oznaczają najlepsze zastosowania wykraczające poza zwykły „szum medialny” i inflację giełdową.

W tradycyjnym przetwarzaniu danych nie do końca rozumiemy, co robią te sztuczne sieci neuronowe (ANN) ani dlaczego działają tak dobrze. Całkowity brak przejrzystości stanowi również poważną wadę w naszym rozumieniu tego, w jaki sposób dane są zbierane i analizowane, aby wypluwać wyniki, do których tak rozpaczliwie się przywiązujemy, że nazywamy je „postępem”.

Rozważmy następujący przykład sieci neuronowej, która potrafi odróżnić od siebie „koła” i „kwadraty”.

Jednym ze sposobów osiągnięcia tego rozróżnienia jest oczywisty sposób – wyobraź sobie, że jedna warstwa wyjściowa wskazuje okrąg, a druga kwadrat.

A co, jeśli chciałbyś, aby sieć neuronowa rozróżniała „kolor” danego kształtu – czy jest „czerwony” czy „niebieski”?

Ponieważ „kolor” jest całkowicie oddzielnym zestawem danych, wymaga dodatkowych neuronów wyjściowych, aby móc uwzględnić tę cechę w ostatecznym wyniku. W tym przypadku potrzebne byłyby cztery neurony wyjściowe – po jednym dla niebieskiego koła, niebieskiego kwadratu, czerwonego koła i czerwonego kwadratu.

A co, gdybyśmy chcieli wykonać obliczenia uwzględniające również dodatkowe informacje, takie jak „rozmiar” lub „położenie/lokalizacja”?

Więcej cech oznacza więcej neuronów, które muszą uwzględnić każdą możliwość związaną z definiowaniem tej konkretnej cechy (lub kombinacji cech) za pomocą „koła” i „kwadratu”.

Innymi słowy, staje się to niesamowicie skomplikowane.

Bruno Olshausen, neurobiolog z University of California w Berkeley, niedawno mówił o potrzebie posiadania neuronu dla każdej możliwej kombinacji cech.

„To nie może być sposób, w jaki nasze mózgi postrzegają świat przyrody, ze wszystkimi jego odmianami. Trzeba zaproponować… neuron dla wszystkich kombinacji”, powiedział, wyjaśniając dalej, że w istocie potrzebowalibyśmy „fioletowego detektora Volkswagena” lub czegoś tak niejasnego, aby uwzględnić każdą możliwą kombinację informacji, którą mamy nadzieję rozważyć w dowolnym eksperymencie.

Poznaj „komputery hiperwymiarowe”.

Czym jest „komputeryzacja hiperwymiarowa”?

Sercem obliczeń hiperwymiarowych jest zdolność algorytmu do odczytywania określonych fragmentów informacji ze złożonych obrazów (pomyśl o metadanych), a następnie przedstawiania tych zbiorczych informacji jako pojedynczego bytu, znanego jako „wektor hiperwymiarowy”.

W przeciwieństwie do tradycyjnych obliczeń, obliczenia hiperwymiarowe pozwalają nam rozwiązywać problemy symbolicznie i w pewnym sensie pozwalają nam wydajnie i dokładnie „przewidywać” wynik konkretnego problemu na podstawie danych zawartych w wektorze hiperwymiarowym.

Olshausen i jego koledzy twierdzą, że informacje w mózgu są reprezentowane przez aktywność ogromnej liczby neuronów, co sprawia, że ​​postrzeganie naszego fikcyjnego „fioletowego Volkswagena” nie może być ograniczone przez działania pojedynczego neuronu, ale przez tysiące neuronów, które łącznie tworzą fioletowego Volkswagena.

Gdyby ten sam zestaw neuronów działał inaczej, moglibyśmy zobaczyć zupełnie inny koncept lub wynik, na przykład różowego Cadillaca.

Kluczem, zgodnie z niedawną dyskusją w WIRED, jest to, że każda informacja, taka jak pomysł na samochód lub jego marka, model, kolor lub wszystkie te elementy razem wzięte, jest reprezentowana jako pojedyncza całość – wektor hiperwymiarowy lub hiperwektor.

„Wektor” to po prostu uporządkowana tablica liczb – 1, 2, 3 itd. – gdzie wektor 3D składa się z trzech liczb – współrzędnych x, y i z dokładnego punktu w przestrzeni 3D.

Z drugiej strony „hiperwektor” może być tablicą tysięcy lub setek tysięcy liczb, które reprezentują punkt w przestrzeni o takiej liczbie wymiarów. Na przykład hiperwektor, który reprezentuje tablicę 10 000 liczb, reprezentuje punkt w przestrzeni 10 000-wymiarowej.

Ten poziom abstrakcji zapewnia nam elastyczność i możliwość rozwijania nowoczesnych technologii obliczeniowych oraz harmonizowania ich z nowymi technologiami, takimi jak sztuczna inteligencja (AI).

„To jest rzecz, która najbardziej mnie ekscytuje, praktycznie w całej mojej karierze” – powiedział Olshausen. Dla niego i wielu innych hiperwymiarowe obliczenia obiecują nowy świat, w którym obliczenia są wydajne i solidne, a decyzje podejmowane przez maszyny są całkowicie przejrzyste.

Przekształcanie „metadanych” w hiperwymiarowe algorytmy w celu generowania złożonych wyników

Podstawowa algebra mówi nam, dlaczego system wybrał tę konkretną odpowiedź, czego nie można powiedzieć o tradycyjnych sieciach neuronowych.

Opracowywanie hybrydowych systemów, w których sieci neuronowe mogą mapować obiekty w prawdziwym życiu na hiperwektory, a następnie pozwalają na przejęcie kontroli przez algebrę hiperwymiarową, stanowi sedno sposobu, w jaki sztuczna inteligencja powinna być wykorzystywana, abyśmy mogli lepiej zrozumieć otaczający nas świat.

„To jest to, czego powinniśmy oczekiwać od każdego systemu AI” – mówi Olshausen. „Powinniśmy być w stanie zrozumieć go tak, jak rozumiemy samolot lub telewizor”.

Wracając do przykładu z „kołami” i „kwadratami” i stosując go do przestrzeni o wielu wymiarach, potrzebujemy wektorów do reprezentowania zmiennych „kształtu” i „koloru” – ale potrzebujemy również wektorów do reprezentowania wartości, które można przypisać zmiennym – „KOŁO”, „KWADRAT”, „NIEBIESKI” i „CZERWONY”.

Co najważniejsze, wektory te muszą być na tyle różne, aby można było faktycznie określić ilościowo te zmienne.

Przyjrzyjmy się teraz Ericowi Weissowi, studentowi Olshausena, który w 2015 r. zademonstrował jeden z aspektów unikalnych możliwości obliczeń hiperwymiarowych, polegający na tym, jak najlepiej przedstawić złożony obraz jako pojedynczy wektor hiperwymiarowy zawierający informacje o WSZYSTKICH obiektach na obrazie – kolorach, położeniach i rozmiarach.

Innymi słowy, niezwykle zaawansowana reprezentacja metadanych obrazu.

„Prawie spadłem z krzesła” – powiedział Olshausen. „Nagle zapaliła mi się żarówka”.

W tym momencie więcej zespołów zaczęło koncentrować swoje wysiłki na opracowywaniu „hiperwymiarowych algorytmów”, aby odtworzyć „proste” zadania, którymi głębokie sieci neuronowe zajmowały się już dwie dekady wcześniej – takie jak klasyfikowanie obrazów.

Tworzenie „hiperwektora” dla każdego obrazu

Na przykład, gdyby wziąć zestaw danych z adnotacjami, składający się z obrazów ręcznie pisanych cyfr, ten hiperwymiarowy algorytm analizowałby specyficzne cechy każdego obrazu, tworząc „hiperwektor” dla każdego obrazu.

Tworzenie „klasy” hiperwektorów dla każdej cyfry

Następnie algorytm dodałby hiperwektory dla wszystkich obrazów „zera”, aby utworzyć hiperwektor dla „idei zera” i powtórzyłby to dla wszystkich cyfr, generując 10 hiperwektorów „klasy” – po jednym dla każdej cyfry.

Te zapisane klasy hiperwektorów są teraz mierzone i analizowane w odniesieniu do hiperwektora utworzonego dla nowego, nieoznaczonego obrazu w celu opracowania algorytmu określającego, która cyfra najbardziej pasuje do nowego obrazu (na podstawie wstępnie określonej klasy hiperwektorów dla każdej cyfry).

IBM Research wkracza do akcji

W marcu Abbas Rahimi i dwaj jego koledzy z IBM Research w Zurychu wykorzystali obliczenia hiperwymiarowe z wykorzystaniem sieci neuronowych do rozwiązania klasycznego problemu abstrakcyjnego rozumowania wizualnego – problemu, który stanowił poważne wyzwanie dla typowych sieci neuronowych, a nawet dla niektórych ludzi.

Zespół najpierw stworzył „słownik” hiperwektorów, które reprezentowały obiekty na każdym obrazie, gdzie każdy hiperwektor w słowniku reprezentował konkretny obiekt i pewną kombinację jego atrybutów.

Następnie zespół wytrenował sieć neuronową, aby zbadała obraz i wygenerowała bipolarny hiperwektor, w którym konkretny atrybut lub element może być +1 lub -1.

„Kierujesz siecią neuronową do znaczącej przestrzeni koncepcyjnej” – powiedział Rahimi.

Wartość tego rozwiązania polega na tym, że gdy sieć wygeneruje hiperwektory dla każdego z obrazów kontekstowych i dla każdego kandydata na puste miejsce, inny algorytm jest używany do analizy hiperwektorów w celu utworzenia „rozkładów prawdopodobieństwa” dla pewnej liczby obiektów na obrazie.

Innymi słowy, algebrę można wykorzystać do przewidywania najbardziej prawdopodobnego obrazu kandydata na wypełnienie wolnego miejsca. A podejście zespołu dało blisko 88-procentową dokładność w jednym zestawie problemów, gdzie rozwiązania wyłącznie z wykorzystaniem sieci neuronowych były mniej niż 61-procentowe.

Jesteśmy jeszcze w niemowlęctwie

Pomimo wielu zalet obliczenia hiperwymiarowe są wciąż w powijakach i wymagają testowania w kontekście rzeczywistych problemów oraz na znacznie większą skalę, niż widzieliśmy do tej pory – na przykład konieczności wydajnego przeszukiwania ponad miliarda elementów lub wyników w celu znalezienia określonego wyniku.

Ostatecznie stanie się to z czasem, ale pojawiają się pytania, gdzie i jak powinniśmy stosować i integrować wykorzystanie sztucznej inteligencji.

Przeczytaj, jak 40-minutowe nabożeństwo kościelne w Niemczech, wspomagane przez sztuczną inteligencję, przyciągnęło ponad 300 uczestników jako pierwszy tego typu eksperyment.

Kliknij tutaj, aby zobaczyć całą galerię na Hypemoon