Il creatore di Ethereum Vitalik Buterin mette in guardia dal precipitarsi nell'IA superintelligente "molto rischiosa"
Vitalik Buterin, il creatore di Ethereum, ha invitato alla cautela nella ricerca sull'intelligenza artificiale, etichettando l'attuale corsa come "molto rischiosa". Rispondendo a Ryan Selkis di Messari, Buterin ha sottolineato l’importanza dei principi di allineamento dell’IA e si è opposto ai rapidi progressi nell’IA superintelligente.
Click Here To Go To Feed Post For FDUSD
Buterin ha messo in guardia contro i pericoli dell’intelligenza artificiale superintelligente, un’intelligenza artificiale teorica che supera l’intelligenza umana, e ha sostenuto la resistenza al suo sviluppo affrettato. Ha sottolineato la necessità di un ecosistema di intelligenza artificiale diversificato per prevenire la concentrazione di valore e mitigare i rischi associati al controllo aziendale e militare.
Buterin ha elogiato i modelli open source come Llama3 e ha osservato che alcune IA attuali, come GPT-4o di OpenAI, potrebbero superare il test di Turing. Ha messo in guardia contro un’eccessiva regolamentazione dei modelli di intelligenza artificiale e ha espresso preoccupazione per le proposte che potrebbero classificare tutta l’intelligenza artificiale come “grande”.
Le sue osservazioni arrivano nel mezzo dei dibattiti sull'allineamento dell'intelligenza artificiale e delle dimissioni dei principali ricercatori di OpenAI, che hanno criticato l'attenzione dell'azienda sul prodotto piuttosto che sullo sviluppo responsabile dell'intelligenza artificiale. Le partenze hanno alimentato preoccupazioni sullo sviluppo etico dell’IA, poiché aziende come Google, Meta e Microsoft sciolgono i loro team di sicurezza.
❤️MI PIACE 🫂SEGUI 🗳RIQUOTA O CONDIVIDI
⌨️ COMMENTA
🫂Ricorda: è necessario molto duro lavoro per fornirti i migliori articoli di investimento. I tuoi generosi consigli rafforzerebbero la nostra missione e ci aiuterebbero a lavorare ancora più duramente per fornirti i migliori consigli di investimento.