I leader dell’intelligenza artificiale lanciano una lettera aperta in cui avvertono del “rischio di estinzione”.
Il Centro per la Sicurezza dell’Intelligenza Artificiale (CAIS) ha recentemente rilasciato una dichiarazione firmata da personalità di spicco nel campo dell’intelligenza artificiale, evidenziando i potenziali pericoli posti dalla tecnologia per l’umanità.
La dichiarazione afferma che “mitigare il rischio di estinzione dell’intelligenza artificiale dovrebbe essere una priorità globale, insieme ad altri rischi su scala sociale come le pandemie e la guerra nucleare”.
Famosi ricercatori e vincitori del Premio Turing, tra cui Geoffery Hinton e Yoshua Bengio, nonché dirigenti di OpenAI e DeepMind, come Sam Altman, Ilya Sutskever e Demis Hassabis, hanno tutti firmato la dichiarazione.
L'obiettivo della lettera CAIS è avviare discussioni sui rischi urgenti associati all'IA. La lettera ha raccolto sia supporto che critiche all'interno del settore più ampio. Fa seguito a una precedente lettera aperta firmata da Elon Musk, Steve Wozniak e oltre 1.000 altri esperti, che chiedevano di fermare lo sviluppo "fuori controllo" dell'IA.
Nonostante la sua brevità, la recente dichiarazione non fornisce dettagli specifici in merito alla definizione di IA né offre strategie concrete per mitigare i rischi. Tuttavia, CAIS ha chiarito in un comunicato stampa che il suo scopo è quello di stabilire misure di salvaguardia e istituzioni che gestiscano efficacemente i rischi dell'IA.
Il CEO di OpenAI, Sam Altman, si è impegnato attivamente con i leader globali, sostenendo le normative sull'IA. Durante una recente apparizione al Senato, Altman ha ripetutamente esortato i legislatori a regolamentare pesantemente il settore. La dichiarazione del CAIS è in linea con i suoi sforzi per aumentare la consapevolezza sui pericoli dell'IA.
Sebbene la lettera aperta abbia suscitato attenzione, alcuni esperti di etica dell'intelligenza artificiale hanno criticato la tendenza a rilasciare simili dichiarazioni.
La dottoressa Sasha Luccioni, ricercatrice scientifica specializzata in apprendimento automatico, suggerisce che menzionare rischi ipotetici dell'intelligenza artificiale insieme a rischi tangibili come pandemie e cambiamenti climatici aumenta la credibilità dei primi, distogliendo al contempo l'attenzione da questioni immediate come pregiudizi, controversie legali e consenso.
Daniel Jeffries, scrittore e futurista, sostiene che discutere dei rischi dell'intelligenza artificiale è diventato un gioco di status, in cui i singoli individui salgono sul carrozzone senza sostenere costi reali.
I critici sostengono che firmare lettere aperte sulle minacce future consente ai responsabili degli attuali danni causati dall'intelligenza artificiale di attenuare la propria colpa, trascurando i problemi etici associati alle tecnologie di intelligenza artificiale già in uso.
Tuttavia, CAIS, un'organizzazione non-profit con sede a San Francisco, rimane focalizzata sulla riduzione dei rischi su scala sociale derivanti dall'IA attraverso la ricerca tecnica e l'advocacy. L'organizzazione è stata co-fondata da esperti con background in informatica e un forte interesse per la sicurezza dell'IA.
Mentre alcuni ricercatori temono l'emergere di un'IA superintelligente che superi le capacità umane e rappresenti una minaccia esistenziale, altri sostengono che firmare lettere aperte su ipotetici scenari apocalittici distrae dai dilemmi etici esistenti che circondano l'IA. Sottolineano la necessità di affrontare i veri problemi che l'IA pone oggi, come la sorveglianza, gli algoritmi distorti e la violazione dei diritti umani.
Trovare un equilibrio tra il progresso dell'intelligenza artificiale e un'implementazione e una regolamentazione responsabili resta un compito cruciale per ricercatori, decisori politici e leader del settore.