Chi sono i 1500 esperti che chiedono di bloccare lo sviluppo di una super intelligenza artificiale. (by Wired)
Tra i firmatari dell’appello figurano Geoffrey Hinton, Yoshua Bengio e Steve Wozniak, che chiedono regole chiare per fermare la corsa alla super intelligenza prima che diventi un pericolo per l’umanità.
Scienziati e figure pubbliche chiedono di rallentare la corsa alla superintelligenza AI, avvertendo che senza regole adeguate potrebbe diventare un rischio per l’umanità.GEOFF ROBINS / Getty Images
Un ampio gruppo di scienziati, pionieri della tecnologia, accademici, figure politiche e divulgatori chiede di bloccare lo sviluppo di sistemi di intelligenza artificiale caratterizzata da una "super intelligenza" finché non ci saranno prove solide che questa tecnologia porti più benefici che rischi per l’umanità.
La richiesta è stata formalizzata in un comunicato firmato da oltre 1.500 esperti e personalità pubbliche. Il documento riconosce che l’AI può generare progressi senza precedenti in diversi ambiti a beneficio della società, ma avverte che lo sviluppo della super intelligenza — nota anche come AI generale — senza adeguate salvaguardie rappresenterebbe un rischio mai visto prima, che potrebbe perfino minacciare la sopravvivenza dell’essere umano.
La lista è guidata da Geoffrey Hinton, premio Nobel e professore emerito di Scienze informatiche all’università di Toronto, e da Yoshua Bengio, docente all’università di Montréal, considerato lo scienziato più citato al mondo. Entrambi sono riconosciuti come i "padrini dell’AI moderna".
Tra i firmatari figurano anche Steve Wozniak, cofondatore di Apple, e Richard Branson, fondatore del Virgin Group. A sostenere la petizione ci sono inoltre figure politiche e militari di alto profilo come Susan Rice, ex consigliera per la Sicurezza nazionale degli Stati Uniti; Steve Bannon, ex capo stratega e consigliere politico di Donald Trump; e Mike Mullen, ex capo dello Stato maggiore congiunto statunitense.
PUBBLICITÀ
Completano la lista varie personalità del mondo della cultura e della comunicazione, tra cui Glenn Beck, Will.i.am, Yuval Noah Harari e i duchi del Sussex, Harry e Meghan Markle.
Un appello globale per fermare la corsa alla superintelligenza
"Molte delle principali aziende di intelligenza artificiale hanno come obiettivo dichiarato quello di sviluppare una superintelligenza entro il prossimo decennio, capace di superare in modo significativo gli esseri umani in praticamente tutte le attività cognitive. Questo ha suscitato timori che vanno dal rischio di obsolescenza economica e perdita di autonomia umana, alla limitazione di libertà e diritti civili, fino ai pericoli per la sicurezza nazionale e, in ultima analisi, alla possibile estinzione della specie".
Di fronte a queste preoccupazioni, i firmatari chiedono che lo sviluppo di sistemi di AI generale venga limitato fino a quando non esisterà un ampio consenso scientifico sulla loro sicurezza e controllabilità, insieme a una diffusa accettazione pubblica.
Mark Beall, ex direttore della strategia e delle politiche sull’AI del dipartimento della Difesa degli Stati Uniti e uno dei firmatari, sottolinea: "Quando i ricercatori di intelligenza artificiale avvertono del rischio di estinzione e i leader tecnologici costruiscono bunker per scenari catastrofici, la prudenza impone di ascoltarli. La superintelligenza senza le dovute salvaguardie potrebbe rappresentare la massima espressione dell’arroganza umana: un potere privo di limiti morali".
L’iniziativa è stata promossa dal Future of Life Institute, un’organizzazione no-profit che da oltre un decennio analizza i rischi su larga scala associati all’intelligenza artificiale, con l’obiettivo di orientarne lo sviluppo a beneficio dell’umanità.
Due anni fa, la stessa istituzione aveva pubblicato una lettera firmata da numerosi esperti di tecnologia che chiedeva una pausa nello sviluppo di sistemi di AI più potenti. La nuova proposta, invece, invoca un divieto totale e si distingue per il numero e la varietà dei suoi firmatari.
Dubbi e preoccupazioni sullo sviluppo dell’AI generale
Il comunicato sostiene che, almeno negli Stati Uniti, esiste un diffuso malcontento verso l’accelerato progresso dell’intelligenza artificiale e la mancanza di regolamentazioni solide. Cita un sondaggio recente condotto su duemila adulti statunitensi, secondo il quale solo il 5% degli intervistati approva lo sviluppo rapido e scarsamente regolato di questa tecnologia.
Al contrario, il 64% degli intervistati ritiene che la superintelligenza AI non dovrebbe essere sviluppata finché non sarà dimostrato che è sicura e controllabile. Inoltre, il 73% si è dichiarato favorevole a una regolamentazione rigorosa dei sistemi avanzati di intelligenza artificiale.
Yoshua Bengio precisa che "per avanzare in modo sicuro verso la superintelligenza, dobbiamo determinare scientificamente come progettare sistemi di AI che siano intrinsecamente incapaci di danneggiare le persone, sia per disallineamento sia per uso malevolo. Dobbiamo garantire che i cittadini abbiano una partecipazione molto più forte nelle decisioni che definiranno il nostro futuro collettivo".
Gli esperti del settore sostengono che lo sviluppo di algoritmi di AI generale sia più vicino di quanto previsto. Elon Musk, amministratore delegato di xAI, prevede che le capacità dell’intelligenza artificiale supereranno l’intelletto umano tra la fine di quest’anno e l’inizio del 2026. Demis Hassabis, cofondatore di DeepMind di Google, ha affermato a febbraio che questi programmi avanzati potrebbero diventare realtà entro il 2030, mentre Jensen Huang, amministratore delegato di Nvidia, ha stimato che il prossimo grande balzo dell’AI avverrà nei prossimi cinque anni.
Finora non è stato dimostrato lo sviluppo di un’AI di questo livello. Numerosi esperti avvertono però che, in assenza di controlli rigorosi, l’uso di tecnologie così avanzate potrebbe sfuggire al controllo e comportare rischi significativi per la sicurezza e la società.
Stuart Russell, professore di Scienze informatiche all’università di Berkeley e uno dei firmatari, conclude: "Questa nuova richiesta non è un divieto né una moratoria nel senso tradizionale. È semplicemente una proposta per chiedere misure di sicurezza adeguate per una tecnologia che, secondo gli stessi sviluppatori, ha una probabilità significativa di causare l’estinzione umana. È chiedere troppo?"
Questo articolo è apparso originariamente su Wired en Español.
