La superintelligenza dell’IA potrebbe essere una “catastrofe esistenziale”

0
3
AI superintellince

I ricercatori segnalano preoccupazioni allarmanti sulla potenziale minaccia di uno sviluppo incontrollato dell’IA

Secondo questo articolo, Roman V. Yampolskiy, professore associato presso l’Università di Louisville e specialista della sicurezza dell’intelligenza artificiale, ha recentemente pubblicato uno studio che solleva serie preoccupazioni sulla crescita dell’intelligenza artificiale e sulla possibilità di una superintelligenza intrinsecamente ingestibile.

Nel suo ultimo libro, AI: Unexplainable, Unpredictable, Uncontrollable, il Dr. Yampolskiy sostiene che non esiste alcuna prova che l’intelligenza artificiale possa essere regolata in modo sicuro, sulla base di un’analisi approfondita della letteratura scientifica più recente. L’autore lancia una sfida alle basi del progresso dell’intelligenza artificiale e alla traiettoria delle tecnologie future, affermando: “Senza la prova che l’intelligenza artificiale possa essere controllata, non dovrebbe essere sviluppata”.

“Siamo di fronte a un evento quasi certo, potenzialmente in grado di provocare una catastrofe esistenziale”, ha dichiarato il dottor Yampolskiy in una dichiarazione rilasciata dall’editore Taylor & Francis. “Non c’è da stupirsi che molti lo considerino il problema più importante che l’umanità abbia mai affrontato. Il risultato potrebbe essere la prosperità o l’estinzione, e il destino dell’universo è in bilico”.

Per oltre 10 anni, il dottor Yampolskiy, specialista della sicurezza delle IA, ha messo in guardia dai pericoli posti da un’IA non controllata e dalla minaccia esistenziale che potrebbe rappresentare per l’umanità. In un documento del 2018, Yampolskiy e il coautore Michaël Trazzi hanno affermato che la “stupidità artificiale” o “tallone d’Achille” dovrebbe essere inclusa nei sistemi di IA per evitare che diventino dannosi. All’IA non dovrebbe essere permesso di accedere o alterare il proprio codice sorgente, per esempio.

Creare una superintelligenza è “più rischioso della roulette russa”, secondo il dottor Yampolskiy e l’avvocato Tam Hunt in un articolo di Nautilus.

“Una volta che l’IA sarà in grado di migliorarsi, diventerà rapidamente molto più intelligente di noi in quasi tutti gli aspetti dell’intelligenza, poi mille volte più intelligente, poi un milione, poi un miliardo… Cosa significa essere un miliardo di volte più intelligenti di un umano?”. Scrivono i dottori Yampolskiy e Hunt. “Diventeremmo rapidamente come formiche ai suoi piedi. Immaginare che gli esseri umani possano controllare un’intelligenza artificiale superintelligente è un po’ come immaginare che una formica possa controllare il risultato di una partita di football NFL che si gioca intorno a lei”.

Nel suo ultimo libro, Yampolskiy esplora i molti modi in cui l’intelligenza artificiale potrebbe alterare drasticamente la società, allontanandosi spesso dai benefici per l’uomo. Il punto principale della sua argomentazione è che lo sviluppo dell’intelligenza artificiale dovrebbe essere trattato con estrema cautela, se non addirittura interrotto del tutto, in assenza di prove indiscutibili di controllabilità.

Il Dr. Yampolskiy osserva che, sebbene sia ampiamente riconosciuto che l’IA ha un potenziale di trasformazione, il “problema del controllo” dell’IA, definito anche “problema difficile” dell’IA, è ancora un argomento poco chiaro e poco studiato.

“Perché così tanti ricercatori danno per scontato che il problema del controllo dell’IA sia risolvibile? Per quanto ne sappiamo, non c’è nessuna prova, nessuna dimostrazione”, afferma il dottor Yampolskiy, sottolineando la gravità e l’immediatezza della sfida. “Prima di imbarcarsi nella costruzione di un’intelligenza artificiale controllata, è importante dimostrare che il problema è risolvibile”.

La ricerca del dottor Yampolskiy mette in evidenza l’incontrollabilità intrinseca della superintelligenza dell’IA, che è una delle caratteristiche più preoccupanti. Il termine “superintelligenza dell’IA” descrive una situazione ipotizzabile in cui un sistema di IA è più intelligente persino degli esseri umani più intelligenti.

Gli esperti contestano la probabilità che la tecnologia possa mai superare l’intelligenza umana e alcuni sostengono che l’intelligenza artificiale non sarà mai in grado di emulare completamente la cognizione o la coscienza umana.

Tuttavia, secondo il dottor Yampolskiy e altri scienziati, la creazione di una IA superintelligente “è un evento quasi garantito” che avverrà dopo l’intelligenza artificiale generale.

La superintelligenza dell’IA, secondo il dottor Yampolskiy, permetterà ai sistemi di evolversi con la capacità di apprendere, adattarsi e agire in modo semi-autonomo. Di conseguenza, saremmo meno in grado di dirigere o comprendere il comportamento del sistema di IA. In definitiva, si verificherebbe una contraddizione per cui la sicurezza e il controllo umano diminuiscono in combinazione con lo sviluppo dell’autonomia dell’IA.

Dopo un “ampio esame della letteratura”, il dottor Yampolskiy conclude che i sistemi superintelligenti di IA “non potranno mai essere completamente controllabili”. Pertanto, anche se la superintelligenza artificiale si dimostrerà vantaggiosa, sarà sempre presente un certo rischio.

Il dottor Yampolskiy elenca diverse sfide per lo sviluppo di IA “sicure”, come le numerose decisioni e gli errori che un sistema di superintelligenza artificiale potrebbe commettere, portando a innumerevoli problemi di sicurezza imprevedibili.

Un’altra preoccupazione è che, dati i limiti umani nella comprensione dei concetti sofisticati che impiega, la superintelligenza dell’IA potrebbe non essere in grado di spiegare le ragioni delle sue decisioni. Yampolskiy sottolinea che per garantire l’imparzialità dei sistemi di IA, questi devono almeno essere in grado di descrivere come prendono le decisioni.

“Se ci abituassimo ad accettare le risposte dell’IA senza spiegazioni, trattandola essenzialmente come un sistema Oracolo, non saremmo in grado di capire se inizia a fornire risposte sbagliate o manipolative”, ha spiegato il dottor Yampolsky.

Quando si è scoperto che Gemini, il generatore di immagini e chatbot alimentato dall’intelligenza artificiale di Google, faticava a generare foto di persone bianche, le preoccupazioni relative ai bias dell’intelligenza artificiale hanno acquisito importanza.

Numerosi utenti hanno condiviso sui social media foto che mostravano come Gemini producesse immagini di persone di colore solo quando gli veniva richiesto di raffigurare personaggi storicamente significativi, spesso associati a persone bianche, come i “padri fondatori dell’America”. In un caso, il chatbot ha prodotto immagini di un uomo di colore e di una donna asiatica che indossavano uniformi delle Waffen SS naziste quando è stato chiesto di raffigurare un soldato tedesco del 1943.

Da allora, Google ha rimosso la funzione di generazione di immagini da Gemini.

“Siamo consapevoli del fatto che Gemini presenta delle imprecisioni in alcune rappresentazioni storiche di generazione di immagini”, ha dichiarato Google in un comunicato. “Stiamo lavorando per migliorare immediatamente questo tipo di rappresentazioni. La generazione di immagini da parte dell’intelligenza artificiale di Gemini genera un’ampia gamma di persone. E questo è generalmente un bene, perché le persone di tutto il mondo lo usano. Ma in questo caso manca il suo obiettivo”.

Il Dr. Yampolskiy sostiene che la recente debacle di Gemini serve a dare un’idea moderata e ragionevolmente sicura di ciò che può andare storto se si permette all’intelligenza artificiale di funzionare senza controllo. Ancora più allarmante, è che risulta fondamentalmente impossibile controllare veramente i sistemi con la superintelligenza dell’IA.

“Gli agenti meno intelligenti (le persone) non possono controllare in modo permanente gli agenti più intelligenti (ASI). Questo non perché non riusciamo a trovare un progetto sicuro per la superintelligenza nel vasto spazio di tutti i progetti possibili, ma perché nessun progetto del genere è possibile, non esiste”, ha sostenuto il dottor Yampolskiy. “La superintelligenza non si sta ribellando, è incontrollabile già in partenza”.

“L’umanità si trova di fronte a una scelta: diventare come bambini, di cui ci si prende cura ma di cui non si ha il controllo, oppure rifiutare di avere un tutore utile ma rimanere in carica e liberi”.

Secondo il dottor Yampolskiy, esistono tecniche per ridurre i rischi. Queste includono la limitazione dell’IA all’uso di un linguaggio chiaro e comprensibile per l’uomo e il fornire scelte di “annullamento” per le modifiche.

Inoltre, “nulla dovrebbe essere escluso a priori” in termini di limitazione o divieto assoluto di avanzamento di particolari tipi di tecnologia AI che hanno il potenziale di diventare incontrollabili.

Elon Musk e altri importanti esponenti dell’industria tecnologica hanno appoggiato il lavoro del dottor Yampolskiy. Critico dello sviluppo incontrollato dell’IA, Musk è stato tra gli oltre 33.000 leader aziendali che l’anno scorso hanno firmato una lettera aperta in cui si chiedeva di fermare “l’addestramento di sistemi di IA più potenti di GPT-4”.

Il dottor Yampolskiy ritiene che, nonostante gli spaventosi effetti potenziali che l’IA potrebbe avere sugli esseri umani, le preoccupazioni evidenziate dalle sue ultime scoperte dovrebbero stimolare ulteriori ricerche sulla sicurezza dell’IA.

“Forse non arriveremo mai a un’IA sicura al 100%, ma possiamo renderla più sicura in proporzione ai nostri sforzi, il che è molto meglio che non fare nulla”, ha esortato il dottor Yampolskiy. “Dobbiamo usare questa opportunità con saggezza”.

L’evoluzione tecnologica sembra essere una valanga inarrestabile in cui le persone sono destinate a subirne le conseguenza, sia in positivo che in negativo. La stessa evoluzione tecnologia sembra essere già una sorta di intelligenza incontrollabile a cui dobbiamo sottostare. In parte è comprensibile che la ricerca, come la curiosità, non possa fare altro che evolvere, ma trascurare i rischi quasi evidenti dimostra già una scarsa intelligenza dell’essere umano nel tutelare se stesso.