Binance Square

parachainvc

0 Obserwowani
14 Obserwujący
4 Polubione
1 Udostępnione
Posty
·
--
According to CEO Dr. @bengoertzel, we can look forward to 2026 as a year where artificial intelligence makes significant contributions toward resolving enduring mysteries, potentially offering breakthroughs for the Clay Millennium Prize problems. This insight is part of a broader list of 9 predictions for AI in 2026 found at https://channellife.co.uk/story/nine-predictions-for-ai-in-2026-from-the-father-of-agi
According to CEO Dr. @bengoertzel, we can look forward to 2026 as a year where artificial intelligence makes significant contributions toward resolving enduring mysteries, potentially offering breakthroughs for the Clay Millennium Prize problems. This insight is part of a broader list of 9 predictions for AI in 2026 found at https://channellife.co.uk/story/nine-predictions-for-ai-in-2026-from-the-father-of-agi
What is the process for developing a beneficial AGI?
What is the process for developing a beneficial AGI?
We are currently witnessing a genuine economic shift rather than just predicting a speculative future, according to CEO Dr. @bengoertzel. He points out that artificial intelligence is evolving beyond elementary assignments to automate sophisticated cognitive endeavors that demand creative synthesis, analysis, and pattern recognition. Although high-level AI might eventually minimize the necessity for routine labor, Dr. @bengoertzel warns that this transition carries substantial risks if managed poorly. Without the implementation of decentralized systems, comprehensive social protections, and broad access to AI tools, there is a real danger of exacerbating economic inequality and displacing mid-career professionals.
We are currently witnessing a genuine economic shift rather than just predicting a speculative future, according to CEO Dr. @bengoertzel. He points out that artificial intelligence is evolving beyond elementary assignments to automate sophisticated cognitive endeavors that demand creative synthesis, analysis, and pattern recognition. Although high-level AI might eventually minimize the necessity for routine labor, Dr. @bengoertzel warns that this transition carries substantial risks if managed poorly. Without the implementation of decentralized systems, comprehensive social protections, and broad access to AI tools, there is a real danger of exacerbating economic inequality and displacing mid-career professionals.
We are eager to welcome you to the upcoming meeting of the BGI Nexus Working Groups, taking place at 5:00 PM UTC on Wednesday, January 28, 2026. Following our earlier discussions regarding the strategic priorities for BGI Nexus in 2026, this gathering aims to turn those community insights into action. We are offering a platform for members to step forward and spearhead topics they are passionate about. Those interested in serving as leads will have the chance to give a short overview of the initiatives they plan to guide. Subsequently, all attendees will be free to team up and organize themselves based on the projects that best match their interests.
We are eager to welcome you to the upcoming meeting of the BGI Nexus Working Groups, taking place at 5:00 PM UTC on Wednesday, January 28, 2026.

Following our earlier discussions regarding the strategic priorities for BGI Nexus in 2026, this gathering aims to turn those community insights into action. We are offering a platform for members to step forward and spearhead topics they are passionate about. Those interested in serving as leads will have the chance to give a short overview of the initiatives they plan to guide. Subsequently, all attendees will be free to team up and organize themselves based on the projects that best match their interests.
We are pioneering the research and infrastructure necessary to achieve decentralized human-level AGI.
We are pioneering the research and infrastructure necessary to achieve decentralized human-level AGI.
We would like to invite researchers and developers dedicated to AGI to attend our upcoming MeTTa Coders session this Friday, January 23, at 4:30 PM UTC. This meeting unites the Hyperon community to investigate the latest advancements in the MeTTa language for cognitive computations, facilitate collaboration, and further practical use cases. You can add our biweekly sessions to your calendar via:
We would like to invite researchers and developers dedicated to AGI to attend our upcoming MeTTa Coders session this Friday, January 23, at 4:30 PM UTC.

This meeting unites the Hyperon community to investigate the latest advancements in the MeTTa language for cognitive computations, facilitate collaboration, and further practical use cases.

You can add our biweekly sessions to your calendar via:
“You want AGI to be rolled out in the spirit of Linux or the Internet, rather than as a closed, proprietary system.” In a recent episode of the @beincrypto Podcast, our CEO, Dr. @bengoertzel, sat down with host Brian McGleenon. They explored several critical topics, including: - Decentralized governance and infrastructure for human-level AGI - The Hyperon AGI platform - Realistic AGI timelines - The global race for compute - Embodied AGI - The intersection of human creativity and AI.
“You want AGI to be rolled out in the spirit of Linux or the Internet, rather than as a closed, proprietary system.”

In a recent episode of the @beincrypto Podcast, our CEO, Dr. @bengoertzel, sat down with host Brian McGleenon. They explored several critical topics, including:

- Decentralized governance and infrastructure for human-level AGI
- The Hyperon AGI platform
- Realistic AGI timelines
- The global race for compute
- Embodied AGI
- The intersection of human creativity and AI.
To develop human-level AGI systems, we need a cognitive modeling approach that prioritizes functional similarities with human cognition over merely structural ones. We have realized this through our Economic Attention Networks (ECAN), which serve as the attention-allocation and resource-regulation subsystem of the Hyperon architecture, originally implemented and tested within the OpenCog AGI framework. Inside ECAN, working memory—as implemented in the PRIMUS cognitive architecture—is stored in the form of Atoms that maintain sufficiently high Short-Term Importance (STI) values. A novel enhancement to ECAN within Hyperon reframes this attention allocation as incompressible fluid dynamics with optimal control semantics. Instead of treating attention as something that diffuses randomly through the knowledge graph, this approach models it as a conserved fluid, where the flow is optimally steered toward goal-relevant regions.
To develop human-level AGI systems, we need a cognitive modeling approach that prioritizes functional similarities with human cognition over merely structural ones. We have realized this through our Economic Attention Networks (ECAN), which serve as the attention-allocation and resource-regulation subsystem of the Hyperon architecture, originally implemented and tested within the OpenCog AGI framework.

Inside ECAN, working memory—as implemented in the PRIMUS cognitive architecture—is stored in the form of Atoms that maintain sufficiently high Short-Term Importance (STI) values. A novel enhancement to ECAN within Hyperon reframes this attention allocation as incompressible fluid dynamics with optimal control semantics. Instead of treating attention as something that diffuses randomly through the knowledge graph, this approach models it as a conserved fluid, where the flow is optimally steered toward goal-relevant regions.
"We're emerging from a couple of years spent on building tooling. We've finally got all our infrastructure working at scale for Hyperon, which is exciting." Our CEO, Dr. @bengoertzel, sat down with Robb Wilson and Josh Tyson on the Invisible Machines podcast to explore the current state and future trajectory of the AI industry. The discussion delves into Big Tech’s narrow emphasis on transformer scaling, the journey toward human-level AGI via Hyperon, and the decentralized deployment of generally intelligent systems on ASI:Chain.
"We're emerging from a couple of years spent on building tooling. We've finally got all our infrastructure working at scale for Hyperon, which is exciting."

Our CEO, Dr. @bengoertzel, sat down with Robb Wilson and Josh Tyson on the Invisible Machines podcast to explore the current state and future trajectory of the AI industry.

The discussion delves into Big Tech’s narrow emphasis on transformer scaling, the journey toward human-level AGI via Hyperon, and the decentralized deployment of generally intelligent systems on ASI:Chain.
W najnowszym odcinku serii Dziesięciu Zasobów AGI, nasz dyrektor generalny, Dr. @bengoertzel, rozmawia z technologiem Jaronem Lanierem. Razem badają praktyczne realia budowania i zarządzania zaawansowanymi systemami oraz debatują, jak daleko nasza empatia powinna sięgać w stosunku do AI i przyszłego AGI.
W najnowszym odcinku serii Dziesięciu Zasobów AGI, nasz dyrektor generalny, Dr. @bengoertzel, rozmawia z technologiem Jaronem Lanierem. Razem badają praktyczne realia budowania i zarządzania zaawansowanymi systemami oraz debatują, jak daleko nasza empatia powinna sięgać w stosunku do AI i przyszłego AGI.
Jak system AGI na poziomie ludzkim może samodzielnie się poprawiać, pozostając zgodnym z wartościami ludzkimi i utrzymując swoje podstawowe cele? Tworzenie zdolnego AGI stanowi zarówno znaczący krok milowy w długoterminowych badaniach nad AI, jak i punkt wyjścia do przyszłego rozwoju. Kluczowym aspektem tego wyzwania jest skonstruowanie systemu, który może się samodzielnie poprawiać, nie kompromitując swojego pierwotnego celu ani wartości. Chociaż ten pomysł może początkowo wydawać się ambitny lub spekulacyjny, jest to praktyczna konieczność. Aby być naprawdę wartościowym, AGI będzie musiało mieć zdolność do aktualizacji swoich możliwości, udoskonalania swoich algorytmów i skalowania swojego przetwarzania poznawczego. W przeciwieństwie do tradycyjnych systemów oprogramowania, które polegają na zewnętrznych deweloperach w celu aktualizacji, prawdziwy system AGI musi wykonywać samodzielne modyfikacje, które chronią jego zamierzone właściwości. Początkowo takie modyfikacje powinny ściśle utrzymywać zgodność z określonymi celami, a wszelkie odchylenia powinny występować tylko po starannej kontroli i refleksyjnej ocenie. To wymaga trzech powiązanych ze sobą zdolności: 1. Zachowanie celów: Mechanizmy do reprezentowania i podtrzymywania podstawowych celów, aby pozostały nienaruszone podczas aktualizacji systemu. 2. Bezpieczeństwo kompozycji: Wspólne zasady, które zapewniają, że moduły nadal będą ze sobą współdziałać w sposób przewidywalny i niezawodny w miarę ich rozwoju. 3. Kontrolowana modyfikacja: Procedura samodoskonalenia, która obejmuje walidację, testowanie i środki przywracania.
Jak system AGI na poziomie ludzkim może samodzielnie się poprawiać, pozostając zgodnym z wartościami ludzkimi i utrzymując swoje podstawowe cele?

Tworzenie zdolnego AGI stanowi zarówno znaczący krok milowy w długoterminowych badaniach nad AI, jak i punkt wyjścia do przyszłego rozwoju. Kluczowym aspektem tego wyzwania jest skonstruowanie systemu, który może się samodzielnie poprawiać, nie kompromitując swojego pierwotnego celu ani wartości.

Chociaż ten pomysł może początkowo wydawać się ambitny lub spekulacyjny, jest to praktyczna konieczność. Aby być naprawdę wartościowym, AGI będzie musiało mieć zdolność do aktualizacji swoich możliwości, udoskonalania swoich algorytmów i skalowania swojego przetwarzania poznawczego.

W przeciwieństwie do tradycyjnych systemów oprogramowania, które polegają na zewnętrznych deweloperach w celu aktualizacji, prawdziwy system AGI musi wykonywać samodzielne modyfikacje, które chronią jego zamierzone właściwości. Początkowo takie modyfikacje powinny ściśle utrzymywać zgodność z określonymi celami, a wszelkie odchylenia powinny występować tylko po starannej kontroli i refleksyjnej ocenie.

To wymaga trzech powiązanych ze sobą zdolności:

1. Zachowanie celów: Mechanizmy do reprezentowania i podtrzymywania podstawowych celów, aby pozostały nienaruszone podczas aktualizacji systemu.

2. Bezpieczeństwo kompozycji: Wspólne zasady, które zapewniają, że moduły nadal będą ze sobą współdziałać w sposób przewidywalny i niezawodny w miarę ich rozwoju.

3. Kontrolowana modyfikacja: Procedura samodoskonalenia, która obejmuje walidację, testowanie i środki przywracania.
Dołączenie do zdecentralizowanej sieci AGI @ASI_Alliance daje Ci możliwość "uczestniczenia w kształtowaniu umysłu pierwszej maszyny myślącej, która zostanie zbudowana przez ludzkość." $FET
Dołączenie do zdecentralizowanej sieci AGI @ASI_Alliance daje Ci możliwość "uczestniczenia w kształtowaniu umysłu pierwszej maszyny myślącej, która zostanie zbudowana przez ludzkość." $FET
Wdrażaj na żądanie lub zarezerwowane GPU NVIDIA—z modelami L40S, H200, B200s i innymi—na Bare Metal lub maszynach wirtualnych z @S_Compute. Skorzystaj z wstępnie skonfigurowanych szablonów, takich jak vLLM, Triton i JupyterLab, aby przyspieszyć swoje przepływy pracy związane z AI. Rozpocznij teraz: https://www.singularitycompute.com/
Wdrażaj na żądanie lub zarezerwowane GPU NVIDIA—z modelami L40S, H200, B200s i innymi—na Bare Metal lub maszynach wirtualnych z @S_Compute.

Skorzystaj z wstępnie skonfigurowanych szablonów, takich jak vLLM, Triton i JupyterLab, aby przyspieszyć swoje przepływy pracy związane z AI.

Rozpocznij teraz: https://www.singularitycompute.com/
Co mają wspólnego systemy biologiczne, obliczeniowe i ludzkie organizacyjne? Dlaczego prostota formy jest skorelowana z funkcjonalną adaptacyjnością? Co stanowi najbardziej adaptacyjny możliwy system? @MiTiBennett bada odpowiedzi na te pytania przez pryzmat swojej proponowanej Teorii Stosów. Ta struktura traktuje systemy jako nieskończone stosy warstw abstrahujących, gdzie każda warstwa reprezentuje zachowanie warstwy poniżej.
Co mają wspólnego systemy biologiczne, obliczeniowe i ludzkie organizacyjne?

Dlaczego prostota formy jest skorelowana z funkcjonalną adaptacyjnością?

Co stanowi najbardziej adaptacyjny możliwy system?

@MiTiBennett bada odpowiedzi na te pytania przez pryzmat swojej proponowanej Teorii Stosów. Ta struktura traktuje systemy jako nieskończone stosy warstw abstrahujących, gdzie każda warstwa reprezentuje zachowanie warstwy poniżej.
Z radością informujemy, że nasz dyrektor generalny, dr @bengoertzel, ma zaplanowane wystąpienie na Festiwalu AI NeoRenaissance w Oakland w Kalifornii w najbliższą niedzielę, 11 stycznia 2026. Wydarzenie powita również Robota Codey z Mind Children. W ramach wieczornego programu poświęconego fuzji sztucznej inteligencji i muzyki, uczestnicy mogą oczekiwać występu na żywo z udziałem Robota Desdemona i jej zespołu, @DesiAndHerBand.
Z radością informujemy, że nasz dyrektor generalny, dr @bengoertzel, ma zaplanowane wystąpienie na Festiwalu AI NeoRenaissance w Oakland w Kalifornii w najbliższą niedzielę, 11 stycznia 2026.

Wydarzenie powita również Robota Codey z Mind Children. W ramach wieczornego programu poświęconego fuzji sztucznej inteligencji i muzyki, uczestnicy mogą oczekiwać występu na żywo z udziałem Robota Desdemona i jej zespołu, @DesiAndHerBand.
Podczas gdy LLM i inne współczesne architektury sieci neuronowych zazwyczaj pozostają niewystarczające do osiągnięcia ludzkiego poziomu AGI z powodu braku wewnętrznej abstrakcji—co ogranicza ich zdolność do dokonywania kreatywnych skoków poza dane treningowe—nadal wykazują imponujące praktyczne możliwości w szerokim zakresie zastosowań. Chociaż te możliwości można powielić za pomocą architektur nieneuronalnych, istnieje silna pragmatyczna motywacja, aby zachować to, co obecnie działa, i zintegrować to z innymi komponentami, które działają inaczej. Ta rzeczywistość skłania do hybrydowych architektur AGI, takich jak systemy neuranlno-symboliczne i neuranlno-symboliczno-ewolucyjne. Ogólnie rzecz biorąc, obecne sieci neuronowe doskonale radzą sobie z rozpoznawaniem wzorców, radzeniem sobie z niejednoznacznością i uczeniem się na podstawie przykładów. Z drugiej strony, systemy symboliczne obecnie błyszczą w explicytnym rozumowaniu, strukturalnej manipulacji i przejrzystości wyjaśniającej. Uruchamianie tych systemów w izolacji oznacza ciągłe przesyłanie danych tam i z powrotem, tracąc kontekst w tłumaczeniu i marnując możliwości wzajemnego wzmacniania. Hyperon eliminuje te bariery, ustanawiając komponenty neuronowe i symboliczne jako obywateli pierwszej klasy w tej samej przestrzeni obliczeniowej. Cechy, zasady, dowody, opcje i aktywacje stają się atomami w współdzielonej pamięci, działając w ramach zjednoczonego modelu harmonogramowania. To oznacza, że rozumowanie może bezpośrednio kierować, na czym sieci neuronowe koncentrują swoją uwagę, podczas gdy sieci neuronowe mogą proponować strukturalne hipotezy z powrotem do systemu rozumowania—wszystko to bez granic serializacji czy wąskich gardeł synchronizacji.
Podczas gdy LLM i inne współczesne architektury sieci neuronowych zazwyczaj pozostają niewystarczające do osiągnięcia ludzkiego poziomu AGI z powodu braku wewnętrznej abstrakcji—co ogranicza ich zdolność do dokonywania kreatywnych skoków poza dane treningowe—nadal wykazują imponujące praktyczne możliwości w szerokim zakresie zastosowań.

Chociaż te możliwości można powielić za pomocą architektur nieneuronalnych, istnieje silna pragmatyczna motywacja, aby zachować to, co obecnie działa, i zintegrować to z innymi komponentami, które działają inaczej. Ta rzeczywistość skłania do hybrydowych architektur AGI, takich jak systemy neuranlno-symboliczne i neuranlno-symboliczno-ewolucyjne.

Ogólnie rzecz biorąc, obecne sieci neuronowe doskonale radzą sobie z rozpoznawaniem wzorców, radzeniem sobie z niejednoznacznością i uczeniem się na podstawie przykładów. Z drugiej strony, systemy symboliczne obecnie błyszczą w explicytnym rozumowaniu, strukturalnej manipulacji i przejrzystości wyjaśniającej. Uruchamianie tych systemów w izolacji oznacza ciągłe przesyłanie danych tam i z powrotem, tracąc kontekst w tłumaczeniu i marnując możliwości wzajemnego wzmacniania.

Hyperon eliminuje te bariery, ustanawiając komponenty neuronowe i symboliczne jako obywateli pierwszej klasy w tej samej przestrzeni obliczeniowej. Cechy, zasady, dowody, opcje i aktywacje stają się atomami w współdzielonej pamięci, działając w ramach zjednoczonego modelu harmonogramowania.

To oznacza, że rozumowanie może bezpośrednio kierować, na czym sieci neuronowe koncentrują swoją uwagę, podczas gdy sieci neuronowe mogą proponować strukturalne hipotezy z powrotem do systemu rozumowania—wszystko to bez granic serializacji czy wąskich gardeł synchronizacji.
Dołącz do nas we wtorek, 6 stycznia 2026 roku, o 16:30 UTC na angażującą sesję grupy roboczej BGI Nexus, w której zgłębimy: Jakie fundamentalne, ogólne tematy są niezbędne do definiowania i rozwijania Pozytywnej AGI?
Dołącz do nas we wtorek, 6 stycznia 2026 roku, o 16:30 UTC na angażującą sesję grupy roboczej BGI Nexus, w której zgłębimy:

Jakie fundamentalne, ogólne tematy są niezbędne do definiowania i rozwijania Pozytywnej AGI?
""" AGI: Jakie są potencjalne ryzyka braku decentralizacji? """
"""
AGI: Jakie są potencjalne ryzyka braku decentralizacji?
"""
""" Czy ogólna inteligencja sztuczna doprowadzi do wymarcia ludzkości czy niespotykanego dobrobytu? To intrygujące pytanie jest analizowane w 2-godzinnej dyskusji z udziałem dr. @bengoertzel i dr. Romana Yampolskiego @romanyam. Oglądaj tutaj: https://www.youtube.com/watch?v=NNsJMneeK80 """
"""
Czy ogólna inteligencja sztuczna doprowadzi do wymarcia ludzkości czy niespotykanego dobrobytu?

To intrygujące pytanie jest analizowane w 2-godzinnej dyskusji z udziałem dr. @bengoertzel i dr. Romana Yampolskiego @romanyam.

Oglądaj tutaj: https://www.youtube.com/watch?v=NNsJMneeK80
"""
Seattle's @MindChildren_AI aktualnie pracuje nad Codey, humanoidalnym robotem zaprojektowanym do środowisk edukacyjnych i opiekuńczych. To innowacyjne rozwiązanie podkreśla znaczenie ochrony prywatności, dobrostanu emocjonalnego i przystępności w swoim wdrożeniu. "Codey wykorzystuje zaawansowane elementy AI z ekosystemu SingularityNET, aby zwiększyć swoje zdolności rozumowania i podejmowania decyzji." Odkryj więcej:
Seattle's @MindChildren_AI aktualnie pracuje nad Codey, humanoidalnym robotem zaprojektowanym do środowisk edukacyjnych i opiekuńczych. To innowacyjne rozwiązanie podkreśla znaczenie ochrony prywatności, dobrostanu emocjonalnego i przystępności w swoim wdrożeniu.

"Codey wykorzystuje zaawansowane elementy AI z ekosystemu SingularityNET, aby zwiększyć swoje zdolności rozumowania i podejmowania decyzji."

Odkryj więcej:
Zaloguj się, aby odkryć więcej treści
Poznaj najnowsze wiadomości dotyczące krypto
⚡️ Weź udział w najnowszych dyskusjach na temat krypto
💬 Współpracuj ze swoimi ulubionymi twórcami
👍 Korzystaj z treści, które Cię interesują
E-mail / Numer telefonu
Mapa strony
Preferencje dotyczące plików cookie
Regulamin platformy