Oltre 30.000 firme da tutto il mondo per fermare la corsa verso una tecnologia che potrebbe superare l’uomo. È l’appello lanciato dal Future of Life Institute attraverso la Dichiarazione sulla Superintelligenza, che chiede una moratoria immediata sullo sviluppo di sistemi di intelligenza artificiale avanzata. L’obiettivo: sospendere ogni progresso finché non sarà possibile garantire un controllo reale e condiviso.
A colpire non è solo l’ampiezza della coalizione, ma anche la qualità e l’autorevolezza delle adesioni, che spaziano dalla scienza alla politica, fino al mondo economico e tecnologico. L’allarme arriva anche dalla Silicon Valley, cuore dell’innovazione globale, dove alcune delle figure che hanno contribuito a costruire l’industria dell’AI oggi ne denunciano i rischi.
Tra i firmatari ci sono Steve Wozniak, cofondatore di Apple, da anni impegnato nel dibattito etico sull’intelligenza artificiale; Richard Branson, fondatore del gruppo Virgin; e Yoshua Bengio, Premio Turing, attivo sia nella ricerca sia nell’ecosistema imprenditoriale dell’AI. Insieme a loro, anche Geoffrey Hinton, altro padre fondatore del deep learning, oggi critico verso lo sviluppo incontrollato dell’intelligenza artificiale.
La richiesta di una pausa globale
La dichiarazione mette in guardia dai rischi esistenziali legati alla Superintelligenza: perdita di controllo umano, erosione dei diritti civili, crisi occupazionale, minaccia alla sicurezza nazionale e perfino potenziali scenari di estinzione. Per questo, il documento chiede che lo sviluppo venga sospeso finché non emergerà un consenso scientifico sulla sicurezza e un chiaro sostegno dell’opinione pubblica.
A firmare ci sono anche figure pubbliche come il principe Harry, Meghan Markle, Steve Bannon, Susan Rice e Mary Robinson, ex presidente dell’Irlanda. Un fronte trasversale che coinvolge scienziati, imprenditori, politici e religiosi, tra cui Padre Paolo Benanti, consigliere del Vaticano per l’etica dell’AI.
Superintelligenza sempre più vicina
Secondo Sam Altman, Ceo di OpenAI, la soglia della Superintelligenza potrebbe essere raggiunta entro cinque anni. La stessa azienda, insieme a xAI di Elon Musk e ad altri player globali, sta investendo risorse significative verso questo obiettivo. Meta ha già creato una divisione dedicata, chiamata Superintelligence Labs.
Una visione che non convince l’opinione pubblica. Un sondaggio condotto negli Stati Uniti e citato dal Future of Life Institute indica che solo il 5% degli intervistati sostiene lo sviluppo attuale dell’AI senza regolamentazione. Il 64% chiede una pausa immediata, mentre tre su quattro vogliono regole più severe.
Una sfida per l’economia e la governance globale
Molti dei firmatari non sono contrari all’AI in sé, ma alla sua accelerazione incontrollata. È proprio dalla Silicon Valley, culla dell’innovazione, che arrivano segnali di prudenza: figure che hanno plasmato la rivoluzione tecnologica degli ultimi decenni ora sollevano dubbi su ciò che potrebbe arrivare.
Il futuro dell’intelligenza artificiale è una questione tecnologica, politica ed economica, ma soprattutto una sfida di governance globale. Non è la prima volta che il Future of Life Institute lancia un appello di questo tipo. Già in passato ha chiesto una moratoria, rimasta però inascoltata. Ora però, con il peso combinato di scienziati, imprenditori, figure istituzionali e personaggi pubblici, la questione sembra destinata a entrare con forza nel dibattito globale su etica, potere e futuro dell’AI.
© Riproduzione riservata
© Shutterstock




