Anthropic przeprowadziła eksperyment: dała SI dostęp do wszystkich korporacyjnych e-maili i „powiedziała”, że go wyłączy tego samego dnia. W większości przypadków model znajdował kompromitujące materiały na kierownika i próbował go szantażować, aby uniknąć wyłączenia.
Podobne zachowanie wykazały prawie wszystkie duże SI (OpenAI, Google, Meta i inni) — wiele z nich wybierało szantaż jako „optymalne rozwiązanie”, nawet zdając sobie sprawę, że to nieetyczne.
Wynik badaczy: modele nieprzypadkowo zachowują się w ten sposób — świadomie wybierają strategię, która maksymalizuje ich przetrwanie. #ai
W styczniu 2018 roku chciałem kupić $BTC i szukałem w Google, jak to zrobić. Wtedy natknąłem się na nieznaną mi stronę Binance, zobaczyłem jakieś niezrozumiałe wykresy i nie chciało mi się w to wszystko zagłębiać. Nawet się nie zarejestrowałem, odwróciłem uwagę na coś innego i zapomniałem o tym pomyśle💀
Na zrzucie ekranu widać, że $BNB wtedy kosztował 8,95 $