Binance Square

parachainvc

0 Following
14 Follower
4 Like gegeben
1 Geteilt
Beiträge
·
--
What is the process for developing a beneficial AGI?
What is the process for developing a beneficial AGI?
We are currently witnessing a genuine economic shift rather than just predicting a speculative future, according to CEO Dr. @bengoertzel. He points out that artificial intelligence is evolving beyond elementary assignments to automate sophisticated cognitive endeavors that demand creative synthesis, analysis, and pattern recognition. Although high-level AI might eventually minimize the necessity for routine labor, Dr. @bengoertzel warns that this transition carries substantial risks if managed poorly. Without the implementation of decentralized systems, comprehensive social protections, and broad access to AI tools, there is a real danger of exacerbating economic inequality and displacing mid-career professionals.
We are currently witnessing a genuine economic shift rather than just predicting a speculative future, according to CEO Dr. @bengoertzel. He points out that artificial intelligence is evolving beyond elementary assignments to automate sophisticated cognitive endeavors that demand creative synthesis, analysis, and pattern recognition. Although high-level AI might eventually minimize the necessity for routine labor, Dr. @bengoertzel warns that this transition carries substantial risks if managed poorly. Without the implementation of decentralized systems, comprehensive social protections, and broad access to AI tools, there is a real danger of exacerbating economic inequality and displacing mid-career professionals.
We are eager to welcome you to the upcoming meeting of the BGI Nexus Working Groups, taking place at 5:00 PM UTC on Wednesday, January 28, 2026. Following our earlier discussions regarding the strategic priorities for BGI Nexus in 2026, this gathering aims to turn those community insights into action. We are offering a platform for members to step forward and spearhead topics they are passionate about. Those interested in serving as leads will have the chance to give a short overview of the initiatives they plan to guide. Subsequently, all attendees will be free to team up and organize themselves based on the projects that best match their interests.
We are eager to welcome you to the upcoming meeting of the BGI Nexus Working Groups, taking place at 5:00 PM UTC on Wednesday, January 28, 2026.

Following our earlier discussions regarding the strategic priorities for BGI Nexus in 2026, this gathering aims to turn those community insights into action. We are offering a platform for members to step forward and spearhead topics they are passionate about. Those interested in serving as leads will have the chance to give a short overview of the initiatives they plan to guide. Subsequently, all attendees will be free to team up and organize themselves based on the projects that best match their interests.
We are pioneering the research and infrastructure necessary to achieve decentralized human-level AGI.
We are pioneering the research and infrastructure necessary to achieve decentralized human-level AGI.
We would like to invite researchers and developers dedicated to AGI to attend our upcoming MeTTa Coders session this Friday, January 23, at 4:30 PM UTC. This meeting unites the Hyperon community to investigate the latest advancements in the MeTTa language for cognitive computations, facilitate collaboration, and further practical use cases. You can add our biweekly sessions to your calendar via:
We would like to invite researchers and developers dedicated to AGI to attend our upcoming MeTTa Coders session this Friday, January 23, at 4:30 PM UTC.

This meeting unites the Hyperon community to investigate the latest advancements in the MeTTa language for cognitive computations, facilitate collaboration, and further practical use cases.

You can add our biweekly sessions to your calendar via:
“You want AGI to be rolled out in the spirit of Linux or the Internet, rather than as a closed, proprietary system.” In a recent episode of the @beincrypto Podcast, our CEO, Dr. @bengoertzel, sat down with host Brian McGleenon. They explored several critical topics, including: - Decentralized governance and infrastructure for human-level AGI - The Hyperon AGI platform - Realistic AGI timelines - The global race for compute - Embodied AGI - The intersection of human creativity and AI.
“You want AGI to be rolled out in the spirit of Linux or the Internet, rather than as a closed, proprietary system.”

In a recent episode of the @beincrypto Podcast, our CEO, Dr. @bengoertzel, sat down with host Brian McGleenon. They explored several critical topics, including:

- Decentralized governance and infrastructure for human-level AGI
- The Hyperon AGI platform
- Realistic AGI timelines
- The global race for compute
- Embodied AGI
- The intersection of human creativity and AI.
To develop human-level AGI systems, we need a cognitive modeling approach that prioritizes functional similarities with human cognition over merely structural ones. We have realized this through our Economic Attention Networks (ECAN), which serve as the attention-allocation and resource-regulation subsystem of the Hyperon architecture, originally implemented and tested within the OpenCog AGI framework. Inside ECAN, working memory—as implemented in the PRIMUS cognitive architecture—is stored in the form of Atoms that maintain sufficiently high Short-Term Importance (STI) values. A novel enhancement to ECAN within Hyperon reframes this attention allocation as incompressible fluid dynamics with optimal control semantics. Instead of treating attention as something that diffuses randomly through the knowledge graph, this approach models it as a conserved fluid, where the flow is optimally steered toward goal-relevant regions.
To develop human-level AGI systems, we need a cognitive modeling approach that prioritizes functional similarities with human cognition over merely structural ones. We have realized this through our Economic Attention Networks (ECAN), which serve as the attention-allocation and resource-regulation subsystem of the Hyperon architecture, originally implemented and tested within the OpenCog AGI framework.

Inside ECAN, working memory—as implemented in the PRIMUS cognitive architecture—is stored in the form of Atoms that maintain sufficiently high Short-Term Importance (STI) values. A novel enhancement to ECAN within Hyperon reframes this attention allocation as incompressible fluid dynamics with optimal control semantics. Instead of treating attention as something that diffuses randomly through the knowledge graph, this approach models it as a conserved fluid, where the flow is optimally steered toward goal-relevant regions.
"We're emerging from a couple of years spent on building tooling. We've finally got all our infrastructure working at scale for Hyperon, which is exciting." Our CEO, Dr. @bengoertzel, sat down with Robb Wilson and Josh Tyson on the Invisible Machines podcast to explore the current state and future trajectory of the AI industry. The discussion delves into Big Tech’s narrow emphasis on transformer scaling, the journey toward human-level AGI via Hyperon, and the decentralized deployment of generally intelligent systems on ASI:Chain.
"We're emerging from a couple of years spent on building tooling. We've finally got all our infrastructure working at scale for Hyperon, which is exciting."

Our CEO, Dr. @bengoertzel, sat down with Robb Wilson and Josh Tyson on the Invisible Machines podcast to explore the current state and future trajectory of the AI industry.

The discussion delves into Big Tech’s narrow emphasis on transformer scaling, the journey toward human-level AGI via Hyperon, and the decentralized deployment of generally intelligent systems on ASI:Chain.
In the latest episode of The Ten Reckonings of AGI series, our CEO, Dr. @bengoertzel, sits down with technologist Jaron Lanier. Together, they explore the practical realities of building and governing advanced systems and debate how far our empathy should extend to AI and future AGI.
In the latest episode of The Ten Reckonings of AGI series, our CEO, Dr. @bengoertzel, sits down with technologist Jaron Lanier. Together, they explore the practical realities of building and governing advanced systems and debate how far our empathy should extend to AI and future AGI.
Wie kann ein menschlich niveau-AGI-System sich selbst verbessern, ohne von menschlichen Werten abzuweichen und seine grundlegenden Ziele beizubehalten? Die Schaffung einer leistungsfähigen AGI stellt sowohl einen bedeutenden Meilenstein in der langfristigen KI-Forschung dar als auch einen Ausgangspunkt für zukünftige Entwicklungen. Ein wesentlicher Aspekt dieser Herausforderung besteht darin, ein System zu konstruieren, das sich selbst verbessern kann, ohne seinen ursprünglichen Zweck oder seine Werte zu gefährden. Obwohl diese Idee zunächst ambitioniert oder spekulativ erscheinen mag, ist sie eine praktische Notwendigkeit. Um wirklich wertvoll zu sein, muss eine AGI die Fähigkeit besitzen, ihre Fähigkeiten zu erweitern, ihre Algorithmen zu verfeinern und ihre kognitiven Prozesse zu skalieren. Im Gegensatz zu traditionellen Software-Systemen, die Updates von externen Entwicklern abhängen, muss ein echtes AGI-System selbstmodifizierende Maßnahmen durchführen, die seine vorgesehenen Eigenschaften schützen. Anfänglich sollten solche Modifikationen streng die Ausrichtung auf die festgelegten Ziele bewahren, wobei Abweichungen erst nach sorgfältiger Überwachung und reflektiver Bewertung auftreten dürfen. Dies erfordert drei miteinander verbundene Fähigkeiten: 1. Zielbewahrung: Mechanismen zur Darstellung und Aufrechterhaltung grundlegender Ziele, sodass sie während der System-Updates intakt bleiben. 2. Kompositionssicherheit: Gemeinsame Prinzipien, die sicherstellen, dass Module weiterhin vorhersehbar und zuverlässig interagieren, während sie sich weiterentwickeln. 3. Kontrollierte Modifikation: Ein Verfahren zur Selbstverbesserung, das Validierung, Tests und Rückgängigmachungsmaßnahmen beinhaltet.
Wie kann ein menschlich niveau-AGI-System sich selbst verbessern, ohne von menschlichen Werten abzuweichen und seine grundlegenden Ziele beizubehalten?

Die Schaffung einer leistungsfähigen AGI stellt sowohl einen bedeutenden Meilenstein in der langfristigen KI-Forschung dar als auch einen Ausgangspunkt für zukünftige Entwicklungen. Ein wesentlicher Aspekt dieser Herausforderung besteht darin, ein System zu konstruieren, das sich selbst verbessern kann, ohne seinen ursprünglichen Zweck oder seine Werte zu gefährden.

Obwohl diese Idee zunächst ambitioniert oder spekulativ erscheinen mag, ist sie eine praktische Notwendigkeit. Um wirklich wertvoll zu sein, muss eine AGI die Fähigkeit besitzen, ihre Fähigkeiten zu erweitern, ihre Algorithmen zu verfeinern und ihre kognitiven Prozesse zu skalieren.

Im Gegensatz zu traditionellen Software-Systemen, die Updates von externen Entwicklern abhängen, muss ein echtes AGI-System selbstmodifizierende Maßnahmen durchführen, die seine vorgesehenen Eigenschaften schützen. Anfänglich sollten solche Modifikationen streng die Ausrichtung auf die festgelegten Ziele bewahren, wobei Abweichungen erst nach sorgfältiger Überwachung und reflektiver Bewertung auftreten dürfen.

Dies erfordert drei miteinander verbundene Fähigkeiten:

1. Zielbewahrung: Mechanismen zur Darstellung und Aufrechterhaltung grundlegender Ziele, sodass sie während der System-Updates intakt bleiben.

2. Kompositionssicherheit: Gemeinsame Prinzipien, die sicherstellen, dass Module weiterhin vorhersehbar und zuverlässig interagieren, während sie sich weiterentwickeln.

3. Kontrollierte Modifikation: Ein Verfahren zur Selbstverbesserung, das Validierung, Tests und Rückgängigmachungsmaßnahmen beinhaltet.
Beitritt zum dezentralen AGI-Netzwerk @ASI_Alliance bietet Ihnen die Möglichkeit, "bei der Gestaltung des Geistes der ersten übermenschlichen Denkmaschine, die die Menschheit baut, mitzuwirken." $FET
Beitritt zum dezentralen AGI-Netzwerk @ASI_Alliance bietet Ihnen die Möglichkeit, "bei der Gestaltung des Geistes der ersten übermenschlichen Denkmaschine, die die Menschheit baut, mitzuwirken." $FET
Bereitstellen von NVIDIA-GPUs nach Bedarf oder reserviert – mit L40S, H200, B200s und mehr – auf Bare Metal oder VMs mit @S_Compute. Nutzen Sie vorgefertigte Vorlagen wie vLLM, Triton und JupyterLab, um Ihre KI-Workflows zu beschleunigen. Starten Sie jetzt: https://www.singularitycompute.com/
Bereitstellen von NVIDIA-GPUs nach Bedarf oder reserviert – mit L40S, H200, B200s und mehr – auf Bare Metal oder VMs mit @S_Compute.

Nutzen Sie vorgefertigte Vorlagen wie vLLM, Triton und JupyterLab, um Ihre KI-Workflows zu beschleunigen.

Starten Sie jetzt: https://www.singularitycompute.com/
Was haben biologische, rechnerische und menschliche Organisationsysteme gemeinsam? Warum ist die Einfachheit der Form mit der funktionalen Anpassungsfähigkeit korreliert? Was ist das anpassungsfähigste System, das möglich ist? @MiTiBennett untersucht die Antworten auf diese Fragen durch die Brille seiner vorgeschlagenen Stack-Theorie. Dieser Rahmen behandelt Systeme als unendliche Stapel abstrakter Schichten, wobei jede Schicht das Verhalten der darunterliegenden Schicht darstellt.
Was haben biologische, rechnerische und menschliche Organisationsysteme gemeinsam?

Warum ist die Einfachheit der Form mit der funktionalen Anpassungsfähigkeit korreliert?

Was ist das anpassungsfähigste System, das möglich ist?

@MiTiBennett untersucht die Antworten auf diese Fragen durch die Brille seiner vorgeschlagenen Stack-Theorie. Dieser Rahmen behandelt Systeme als unendliche Stapel abstrakter Schichten, wobei jede Schicht das Verhalten der darunterliegenden Schicht darstellt.
Wir freuen uns, mitteilen zu können, dass unser CEO, Dr. @bengoertzel, am kommenden Sonntag, den 11. Januar 2026, in Oakland, Kalifornien, eine Rede auf dem AI NeoRenaissance-Festival halten wird. Die Veranstaltung wird zudem den Codey-Roboter von Mind Children begrüßen. Im Rahmen eines Abendprogramms, das die Verbindung von künstlicher Intelligenz und Musik thematisiert, können die Besucher:innen sich auf eine Live-Aufführung mit der Desdemona-Roboterin und ihrem Ensemble, @DesiAndHerBand, freuen.
Wir freuen uns, mitteilen zu können, dass unser CEO, Dr. @bengoertzel, am kommenden Sonntag, den 11. Januar 2026, in Oakland, Kalifornien, eine Rede auf dem AI NeoRenaissance-Festival halten wird.

Die Veranstaltung wird zudem den Codey-Roboter von Mind Children begrüßen. Im Rahmen eines Abendprogramms, das die Verbindung von künstlicher Intelligenz und Musik thematisiert, können die Besucher:innen sich auf eine Live-Aufführung mit der Desdemona-Roboterin und ihrem Ensemble, @DesiAndHerBand, freuen.
Während LLMs und andere moderne neuronale Netzarchitekturen im Allgemeinen weiterhin unzureichend sind, um menschenähnliche AGI zu erreichen, da sie an internen Abstraktionen leiden – was ihre Fähigkeit einschränkt, kreative Sprünge über ihre Trainingsdaten hinaus zu machen –, zeigen sie dennoch beeindruckende praktische Fähigkeiten in einer Vielzahl von Anwendungen. Obwohl diese Fähigkeiten auch durch nicht-neuronale Architekturen nachgebildet werden können, gibt es starke pragmatische Gründe, das zu behalten, was derzeit funktioniert, und es mit anderen Komponenten zu integrieren, die anders arbeiten. Diese Realität spricht für hybride AGI-Architekturen, wie neuronisch-symbolische und neuronisch-symbolisch-evolutionäre Systeme. Im Allgemeinen sind aktuelle neuronale Netze hervorragend in der Mustererkennung, der Bewältigung von Unsicherheiten und dem Lernen aus Beispielen. Umgekehrt zeichnen sich symbolische Systeme derzeit durch explizites Schließen, strukturierte Manipulation und erklärbare Transparenz aus. Die Ausführung dieser Systeme getrennt voneinander bedeutet ständigen Datenaustausch hin und her, Verlust von Kontext bei der Übersetzung und Verpassen von Möglichkeiten zur gegenseitigen Verbesserung. Hyperon beseitigt diese Barrieren, indem neuronale und symbolische Komponenten als gleichberechtigte Elemente im selben Rechenspace etabliert werden. Merkmale, Regeln, Beweise, Optionen und Aktivierungen werden alle zu Atomen im gemeinsamen Speicher, die unter einem einheitlichen Planungsmodell arbeiten. Dies bedeutet, dass der Schlussfolgerungsprozess direkt steuern kann, wo neuronale Netze ihre Aufmerksamkeit richten, während neuronale Netze strukturierte Hypothesen zurück zum Schlussfolgerungssystem vorschlagen können – alles ohne Serialisierungs-Grenzen oder Synchronisationsengpässe.
Während LLMs und andere moderne neuronale Netzarchitekturen im Allgemeinen weiterhin unzureichend sind, um menschenähnliche AGI zu erreichen, da sie an internen Abstraktionen leiden – was ihre Fähigkeit einschränkt, kreative Sprünge über ihre Trainingsdaten hinaus zu machen –, zeigen sie dennoch beeindruckende praktische Fähigkeiten in einer Vielzahl von Anwendungen.

Obwohl diese Fähigkeiten auch durch nicht-neuronale Architekturen nachgebildet werden können, gibt es starke pragmatische Gründe, das zu behalten, was derzeit funktioniert, und es mit anderen Komponenten zu integrieren, die anders arbeiten. Diese Realität spricht für hybride AGI-Architekturen, wie neuronisch-symbolische und neuronisch-symbolisch-evolutionäre Systeme.

Im Allgemeinen sind aktuelle neuronale Netze hervorragend in der Mustererkennung, der Bewältigung von Unsicherheiten und dem Lernen aus Beispielen. Umgekehrt zeichnen sich symbolische Systeme derzeit durch explizites Schließen, strukturierte Manipulation und erklärbare Transparenz aus. Die Ausführung dieser Systeme getrennt voneinander bedeutet ständigen Datenaustausch hin und her, Verlust von Kontext bei der Übersetzung und Verpassen von Möglichkeiten zur gegenseitigen Verbesserung.

Hyperon beseitigt diese Barrieren, indem neuronale und symbolische Komponenten als gleichberechtigte Elemente im selben Rechenspace etabliert werden. Merkmale, Regeln, Beweise, Optionen und Aktivierungen werden alle zu Atomen im gemeinsamen Speicher, die unter einem einheitlichen Planungsmodell arbeiten.

Dies bedeutet, dass der Schlussfolgerungsprozess direkt steuern kann, wo neuronale Netze ihre Aufmerksamkeit richten, während neuronale Netze strukturierte Hypothesen zurück zum Schlussfolgerungssystem vorschlagen können – alles ohne Serialisierungs-Grenzen oder Synchronisationsengpässe.
Treten Sie uns am Dienstag, den 6. Januar 2026, um 16:30 UTC bei einer interessanten Sitzung der BGI Nexus-Arbeitsgruppe bei, in der wir uns folgenden Themen widmen werden: Welche grundlegenden übergeordneten Themen sind entscheidend für die Definition und Förderung von nützlichem AGI?
Treten Sie uns am Dienstag, den 6. Januar 2026, um 16:30 UTC bei einer interessanten Sitzung der BGI Nexus-Arbeitsgruppe bei, in der wir uns folgenden Themen widmen werden:

Welche grundlegenden übergeordneten Themen sind entscheidend für die Definition und Förderung von nützlichem AGI?
""" AGI: Welche potenziellen Risiken bestehen bei Fehlen einer Dezentralisierung? """
"""
AGI: Welche potenziellen Risiken bestehen bei Fehlen einer Dezentralisierung?
"""
""" Wird künstliche allgemeine Intelligenz zur menschlichen Ausrottung oder zu ungeahntem Wohlstand führen? Diese faszinierende Frage wird in einer zweistündigen Diskussion mit Dr. @bengoertzel und Dr. Roman Yampolskiy @romanyam untersucht. Schalten Sie hier ein: https://www.youtube.com/watch?v=NNsJMneeK80 """
"""
Wird künstliche allgemeine Intelligenz zur menschlichen Ausrottung oder zu ungeahntem Wohlstand führen?

Diese faszinierende Frage wird in einer zweistündigen Diskussion mit Dr. @bengoertzel und Dr. Roman Yampolskiy @romanyam untersucht.

Schalten Sie hier ein: https://www.youtube.com/watch?v=NNsJMneeK80
"""
Seattle's @MindChildren_AI arbeitet derzeit an Codey, einem humanoiden Roboter, der für Bildungs- und Pflegeumgebungen konzipiert ist. Diese innovative Lösung betont die Bedeutung des Datenschutzes, des emotionalen Wohlbefindens und der Kostenersparnis bei ihrer Umsetzung. "Codey nutzt fortschrittliche KI-Elemente aus dem SingularityNET-Ökosystem, um seine Schlussfolgerungs- und Entscheidungsfähigkeiten zu verbessern." Erfahren Sie mehr:
Seattle's @MindChildren_AI arbeitet derzeit an Codey, einem humanoiden Roboter, der für Bildungs- und Pflegeumgebungen konzipiert ist. Diese innovative Lösung betont die Bedeutung des Datenschutzes, des emotionalen Wohlbefindens und der Kostenersparnis bei ihrer Umsetzung.

"Codey nutzt fortschrittliche KI-Elemente aus dem SingularityNET-Ökosystem, um seine Schlussfolgerungs- und Entscheidungsfähigkeiten zu verbessern."

Erfahren Sie mehr:
Die Idee der Weltmodellierung hat in letzter Zeit erhebliche Aufmerksamkeit erhalten und wird als Einschränkung bestehender LLM-Systeme identifiziert sowie als entscheidender Faktor für die Erreichung von menschlichem und übermenschlichem AGI erkannt. Hervorgehobene Persönlichkeiten aus dem Bereich, darunter Yann LeCun, betonen, dass KI ihre eigene Darstellung der Realität entwickeln muss. Dies kann durch die Verarbeitung von Informationen über ihre „Sinne“ erreicht werden, ähnlich wie sie das Verhalten physikalischer Objekte lernt, indem sie Videos beobachtet. Es ist jedoch wichtig zu beachten, dass Weltmodellierung kein rätselhaftes Konzept ist, das unerforschte Mechanismen erfordert. Innerhalb eines gut ausgestalteten AGI-Rahmens, der die wesentlichen Merkmale eines menschenähnlichen künstlichen Geistes enthält, entsteht die Fähigkeit, die Welt zu modellieren, natürlich aus dem dynamischen Wechselspiel dieser Elemente. Wir präsentieren eine Weltmodellierungsstrategie innerhalb von Hyperon, die auf AGI ausgerichtet ist, mit der PRIMUS-Kognitionsarchitektur vereinbar ist und für Robotik sowie Umgebungen, die Minecraft ähneln oder andere simulierter oder spielartiger Szenarien darstellen, maßgeschneidert ist. Lesen Sie hier:
Die Idee der Weltmodellierung hat in letzter Zeit erhebliche Aufmerksamkeit erhalten und wird als Einschränkung bestehender LLM-Systeme identifiziert sowie als entscheidender Faktor für die Erreichung von menschlichem und übermenschlichem AGI erkannt.

Hervorgehobene Persönlichkeiten aus dem Bereich, darunter Yann LeCun, betonen, dass KI ihre eigene Darstellung der Realität entwickeln muss. Dies kann durch die Verarbeitung von Informationen über ihre „Sinne“ erreicht werden, ähnlich wie sie das Verhalten physikalischer Objekte lernt, indem sie Videos beobachtet.

Es ist jedoch wichtig zu beachten, dass Weltmodellierung kein rätselhaftes Konzept ist, das unerforschte Mechanismen erfordert. Innerhalb eines gut ausgestalteten AGI-Rahmens, der die wesentlichen Merkmale eines menschenähnlichen künstlichen Geistes enthält, entsteht die Fähigkeit, die Welt zu modellieren, natürlich aus dem dynamischen Wechselspiel dieser Elemente.

Wir präsentieren eine Weltmodellierungsstrategie innerhalb von Hyperon, die auf AGI ausgerichtet ist, mit der PRIMUS-Kognitionsarchitektur vereinbar ist und für Robotik sowie Umgebungen, die Minecraft ähneln oder andere simulierter oder spielartiger Szenarien darstellen, maßgeschneidert ist.

Lesen Sie hier:
Melde dich an, um weitere Inhalte zu entdecken
Bleib immer am Ball mit den neuesten Nachrichten aus der Kryptowelt
⚡️ Beteilige dich an aktuellen Diskussionen rund um Kryptothemen
💬 Interagiere mit deinen bevorzugten Content-Erstellern
👍 Entdecke für dich interessante Inhalte
E-Mail-Adresse/Telefonnummer
Sitemap
Cookie-Präferenzen
Nutzungsbedingungen der Plattform