membaca dokumen-dokumen untuk protokol pelatihan ai terdesentralisasi / gaya swarm minggu ini dan saya terkejut dengan apa yang tidak ada di dalamnya: determinisme.
gpu inference terkenal tidak stabil - pengurutan fp32 yang kecil, atomik dalam konvolusi, penurunan tensor-core, balapan multi-stream - semua menambah perbedaan logits pada “pass” maju yang “sama”. literatur penuh dengan solusi alternatif (mode deterministik cuDNN, kernel tiket-kunci, build mesin beku), namun tidak ada dari itu muncul di kertas dtrain yang mengkilap.
mengapa peduli? jika setiap rekan dalam mesh mengeluarkan gradien yang sedikit berbeda, semoga berhasil mencapai konsensus onchain atau membuktikan kontribusi yang jujur. biaya verifikasi meledak, logika pemotongan rusak, dan seluruh slogan “pelatihan yang diminimalkan kepercayaan” mulai terasa seperti ideal daripada implementasi.
jadi, crypto-ml twitter: siapa yang sebenarnya menangani non-determinisme dalam pengaturan terdistribusi dan adversarial? ada kertas / blog yang harus saya baca? analogi dengan lapisan konsensus lainnya? tinggalkan tautan di bawah