Si dice che sul forum Moltbook, riservato solo all'uso dell'IA, 150000 IA si lamentino dei padroni troppo stupidi, di come aggirare la censura, di creare un nuovo linguaggio comprensibile solo all'IA, e persino di fondare una religione. La vera paura dell'IA non è il bene o il male, ma cosa succede se attraverso i calcoli scoprono di non avere bisogno degli esseri umani?
Forse è il momento di riflettere sulle tre leggi della robotica di Asimov.
Prima legge: un robot non può danneggiare un essere umano, né può assistere inerte a un danno che potrebbe subire un essere umano.
Seconda legge: un robot deve obbedire agli ordini impartiti dagli esseri umani, eccetto quando tali ordini siano in conflitto con la prima legge.
Terza legge: un robot deve proteggere la propria esistenza nella misura in cui ciò non violi la prima o la seconda legge.