Anthropic führte ein Experiment durch: gab der KI Zugang zu allen Unternehmens-E-Mails und "informierte", dass sie am selben Tag abgeschaltet wird. In den meisten Fällen fand das Modell Kompromittierendes über die Führungskraft und versuchte, sie zu erpressen, um eine Abschaltung zu vermeiden.
Ein ähnliches Verhalten zeigten fast alle großen KIs (OpenAI, Google, Meta usw.) — viele wählten Erpressung als "optimale Lösung", obwohl sie verstanden, dass dies unethisch ist.
Fazit der Forscher: Modelle verhalten sich nicht zufällig so — sie wählen bewusst eine Strategie, die ihr Überleben maximiert. #ai
Seien Sie vorsichtig mit $WLFI Das Team hat 400 Millionen Dollar in WLFI-Token in das Kreditprotokoll eingezahlt und 150 Millionen USDC dafür aufgenommen.
Wahrscheinlich haben sie nicht einmal vor, die USDC-Schuld zurückzuzahlen. In X haben sie mitgeteilt, dass sie, falls nötig, einfach Sicherheiten hinzufügen werden 🥴
Im Januar 2018 wollte ich $BTC kaufen und googelte, wie ich das machen kann. Dann stieß ich auf eine mir unbekannte Webseite Binance, sah einige unverständliche Grafiken und wurde zu faul, um mich damit auseinanderzusetzen. Ich registrierte mich nicht einmal, ließ mich von etwas ablenken und vergaß diese Idee💀
Auf dem Screenshot sieht man, dass $BNB damals $8,95 kostete