L’umanità sarà spazzata via dall’IA che si auto-migliora?
A parte i problemi di privacy e sicurezza, il potenziale dell’IA generativa di spazzare via l’umanità è ancora un enigma considerevole, vista la rapidità con cui la tecnologia si sta sviluppando. Roman Yampolskiy, direttore del Cyber Security Laboratory dell’Università di Louisville e ricercatore sulla sicurezza dell’IA famoso per aver previsto al 99,999999% che l’IA spazzerà via l’umanità, ha recentemente dichiarato che l’agognata soglia dell’AGI non è più limitata al tempo, ma a coloro che possono permettersi di acquistare un numero sufficiente di centri dati e di potenza di elaborazione.
Dario Amodei di Anthropic e Sam Altman, CEO di OpenAI, stimano che l’intelligenza artificiale generale (AGI) sarà sviluppata entro i prossimi tre anni, con potenti sistemi di IA che supereranno gli esseri umani in una serie di compiti. L’ex amministratore delegato di Google, Eric Schmidt, sostiene che dovremmo pensare a interrompere il lavoro dell’IA se inizia ad auto-migliorarsi, mentre Sam Altman pensa che l’IA sarà possibile con l’hardware esistente prima del previsto.
Secondo questo articolo, il dirigente ha dichiarato in una recente intervista alla rete televisiva americana ABC News:
“Quando il sistema sarà in grado di auto-migliorarsi, dovremo pensare seriamente a staccare la spina. Sarà estremamente difficile. Sarà molto difficile mantenere l’equilibrio”.
Le osservazioni di Schmidt sul rapido sviluppo dell’IA arrivano in un momento cruciale, poiché diverse fonti suggeriscono che OpenAI potrebbe aver già raggiunto l AGI dopo aver reso ampiamente disponibile il suo modello di ragionamento o1. Sam Altman, il CEO di OpenAI, ha aggiunto che la superintelligenza potrebbe arrivare in poche migliaia di giorni.
Anche se OpenAI potrebbe essere vicina a raggiungere la soglia desiderata di AGI, un ex dipendente di OpenAI avverte che il creatore di ChatGPT potrebbe non essere in grado di gestire tutto ciò che deriva da un sistema di IA che supera le capacità cognitive umane.
Sam Altman sostiene che i problemi di sicurezza sollevati dal benchmark AGI non si presenteranno nel “momento AGI”. Aggiunge che l’AGI avrà un’influenza notevolmente ridotta sulla società. Tuttavia, prevede che l’AGI e la superintelligenza continueranno a progredire ancora per qualche tempo, con agenti e sistemi di IA che supereranno gli esseri umani nella maggior parte dei compiti entro il 2025 e oltre.
La corsa verso l’AGI presenta un panorama complesso di opportunità e sfide che non possono essere ignorate. Mentre i leader dell’industria come Altman e Amodei prevedono tempistiche ambiziose per lo sviluppo dell’AGI, gli avvertimenti di esperti come Yampolskiy e Schmidt evidenziano problematiche cruciali relative alla sicurezza, al controllo e alla preparazione dell’umanità. In particolare, la visione sorprendentemente ottimistica di Altman di una transizione agevole verso le AGI, unita alle sue ambiziose tempistiche di sviluppo, solleva interrogativi sulla trasparenza dello sviluppo delle IA. La sua posizione – che prevede un rapido raggiungimento dell’IA e un impatto minimo sulla società – sembra paradossale se confrontata con le gravi preoccupazioni di altri esperti. Questa disparità potrebbe suggerire o una svista dei rischi reali o una minimizzazione strategica dei pericoli per mantenere lo slancio dello sviluppo. In questo crocevia tecnologico, le decisioni prese oggi in merito allo sviluppo e alla regolamentazione dell’IA probabilmente influenzeranno non solo il futuro immediato dell’IA, ma potenzialmente il corso stesso della civiltà umana. La sfida principale che ci attende non è solo quella di realizzare l’IA, ma anche quella di garantire un dialogo onesto sulle sue implicazioni, mantenendo al contempo una significativa supervisione e un controllo da parte dell’uomo. Il contrasto tra le narrazioni pubbliche e gli avvertimenti degli esperti sottolinea l’urgente necessità di un dibattito trasparente sulle possibilità e sui pericoli dello sviluppo dell’AGI.