🛡️ Ētika vs Ieroči: Kāpēc Anthropic saka "nē" ASV Aizsardzības ministrijai?
AI joma un valdības pasūtījumi ir izraisījuši nopietnas domstarpības!💥 Anthropic un ASV Aizsardzības ministrija (Pentagons) ir iestrēguši sarunās par līgumu, kura vērtība ir 200 miljoni dolāru. Iemesls ir vienkāršs: Claude izstrādātāji nevēlas, lai viņu AI kļūtu par "terminatoru".
Pretrunu kodols:
Pentagons vēlas pilnīgu autonomiju militāro operāciju laikā, bet Anthropic ir noteicis skaidras "sarkanas līnijas":
❌ Aizliegts izmantot automātiskās mērķēšanas sistēmas ieročiem.
❌ Aizliegts veikt iekšēju uzraudzību pret ASV pilsoņiem.
❌ Ir jānodrošina "cilvēka iejaukšanās" (Human-in-the-loop), stingri aizliegta AI patstāvīga lēmumu pieņemšana.
Armijas pozīcija:
Pentagons uzskata, ka privātajām kompānijām nevajadzētu iejaukties nacionālās drošības jautājumos. Viņi apgalvo, ka AI izmantošana jāierobežo tikai ar federālajiem likumiem, bet uzņēmumu ētikas ierobežojumi kavēs tādu iestāžu kā FBI un ICE izpildes efektivitāti.
Kāpēc investoriem ir jāseko līdzi?
Nozares precedents: ja Anthropic galu galā piekāpsies, tas nozīmēs, ka milzīgu pasūtījumu priekšā AI uzņēmumu ētikas principi varētu būt tikai vājš solījums. Konkurences ainava: kad Anthropic vilcinās, konkurenti, piemēram, Microsoft/OpenAI vai Palantir, varētu ieņemt tirgu ar "elastīgākiem" nosacījumiem. Regulatīvās tendences: šī konflikta rezultātā tiks paātrināts militārā AI likumdošanas process, kas tieši ietekmēs tehnoloģiju gigantu akciju cenas un decentralizētā AI sektora attiecīgos tokenus.
Anthropic cenšas saglabāt savu "drošā AI" zīmolu, bet cik ilgi tā var izturēt nacionālā mehānisma un simtiem miljonu dolāru kārdinājuma priekšā?
Kā tu uzskati, vai AI vajadzētu būt tiesībām atteikties izpildīt valsts militārās pavēles? Laipni lūdzam apspriest komentāru sadaļā!👇
#Aİ #Anthropic #Claude #加密新闻 #国家安全
