La tecnologia che ci circonda evolve di continuo e ci costringe a riflettere su come viviamo e vivremo, come cambierà la società e fino a che punto ne verrà influenzata. In meglio o in peggio? Difficile dare una risposta netta. Tuttavia anche le forme d’arte come ad esempio il cinema ci possono dare spunti di riflessione sulla società e sui noi stessi, così come anche alcuni ragionamenti psicologici. Tutto questo per cercare di capire meglio noi stessi, il mondo che ci circonda e verso dove siamo diretti.
Il blog di House cerca di fare tutto questo.
Ultimi articoli
Dicembre 10, 2024Un dipendente tecnico di OpenAI sostiene che il produttore di ChatGPT ha raggiunto il benchmark AGI dopo aver rilasciato il modello o1
Sembra che OpenAI abbia fatto avanzare l’intelligenza artificiale in modo significativo negli ultimi mesi. In un recente articolo di approfondimento sul blog, Sam Altman ha dichiarato che la superintelligenza è solo “a poche migliaia di giorni di distanza”.
Come riportato qui, in una recente dichiarazione, il dirigente ha affermato che l’azienda di IA potrebbe essere sul punto di raggiungere un importante traguardo, alludendo anche al fatto che l’azienda potrebbe raggiungere il benchmark AGI entro il 2025. Ma la cosa forse più interessante è che il dirigente ha affermato che, contrariamente a quanto si pensa, l’intelligenza artificiale avrà un impatto “sorprendentemente ridotto” sulla società.
Il modello O1 di OpenAI ha dimostrato capacità straordinarie, in particolare nei settori del ragionamento e della risoluzione di problemi complessi. Il modello si è distinto in benchmark che prevedevano domande di livello dottorale, dimostrando capacità di matematica avanzata, programmazione e risoluzione creativa di problemi. Tuttavia, i critici sostengono che eccellere in compiti specifici, per quanto complessi, non costituisce definitivamente un’intelligenza artificiale generale. La vera intelligenza artificiale generale dovrebbe dimostrare un apprendimento dinamico, la capacità di adattarsi a situazioni impreviste e un’autentica generalizzazione delle conoscenze in ambiti diversi, capacità che gli attuali sistemi di intelligenza artificiale non hanno ancora pienamente raggiunto.
In my opinion we have already achieved AGI and it’s even more clear with O1. We have not achieved “better than any human at any task” but what we have is “better than most humans at most tasks”. Some say LLMs only know how to follow a recipe. Firstly, no one can really explain…— Vahid Kazemi (@VahidK) December 6, 2024
Kazemi ammette che l’azienda di intelligenza artificiale non è ancora riuscita a fare “meglio di qualsiasi umano in qualsiasi compito”. È interessante notare che i modelli dell’azienda sono “migliori della maggior parte degli esseri umani nella maggior parte dei compiti”.
“Alcuni dicono che gli LLM sanno solo seguire una ricetta. Innanzitutto, nessuno è in grado di spiegare cosa possa imparare una rete neurale profonda da un trilione di parametri. Ma anche se ci credete, l’intero metodo scientifico può essere riassunto come una ricetta: osservare, ipotizzare e verificare. I bravi scienziati possono produrre ipotesi migliori sulla base della loro intuizione, ma l’intuizione stessa è stata costruita con molte prove ed errori. Non c’è nulla che non si possa imparare con gli esempi.” Collaboratore tecnico di OpenAI, Vahid Kazemi
Nonostante questi notevoli progressi, lo sviluppo dell’IA presenta ancora sfide significative. I sistemi attuali, come O1, si basano molto sui dati di pre-addestramento e non possono apprendere e adattarsi in tempo reale senza un’ addestramento significativo. I limiti principali includono l’incapacità di generalizzare realmente la conoscenza in diversi ambiti, una dipendenza critica dalla qualità e dalla portata dei dati di addestramento e la mancanza di un ragionamento sfumato e simile a quello umano, essenziale per navigare in scenari complessi del mondo reale.
L’Intelligenza Artificiale Generale (AGI) è più di una semplice parola d’ordine tecnologica: rappresenta un sistema di IA in grado di svolgere un’ampia gamma di compiti di valore economico a un livello superiore alle capacità umane. A differenza dell’IA ristretta, che è progettata per eccellere in compiti specifici e predefiniti, l’AGI è concepita come un’intelligenza versatile e adattiva in grado di generalizzare la conoscenza in più domini. Sebbene Kazemi e Altman suggeriscano progressi significativi, gli esperti sottolineano che il raggiungimento di una vera AGI richiede qualcosa di più di una performance impressionante.
Nel suo post su X, Kazemi non afferma esplicitamente che i modelli di OpenAI sono più intelligenti degli esseri umani. Dice solo che sono superiori agli esseri umani nella maggior parte dei compiti.
Secondo Sam Altman, lo standard AGI potrebbe arrivare prima del previsto, anche se il termine potrebbe avere diverse accezioni.
Elon Musk, ex amministratore delegato di Tesla e cofondatore di OpenAI, ha citato in giudizio OpenAI e Sam Altman, sostenendo che si sono impegnati in un’attività di racket e che OpenAI ha tradito il suo scopo originario. Musk ha anche esortato le autorità a esaminare i sofisticati modelli di intelligenza artificiale di OpenAI, sostenendo che essi costituiscono un’intelligenza artificiale generale (AGI) e che potrebbero portare all’inevitabile rovina dell’umanità.
Secondo un’indiscrezione emersa di recente, OpenAI starebbe valutando la possibilità di rimuovere un’importante clausola che invaliderebbe la sua partnership con Microsoft una volta raggiunto l’auspicato traguardo dell’AGI. Secondo le indiscrezioni dei social media, il produttore di ChatGPT potrebbe aver intrapreso questa azione calcolata per invogliare Microsoft a investire nei suoi progetti di IA più complessi e sofisticati in futuro.
Gli esperti e gli analisti di mercato prevedono che gli investitori stiano iniziando a disinteressarsi dell’IA e a spostare il loro denaro verso altri settori, man mano che il clamore si affievolisce. Di conseguenza, potrebbe diventare più difficile per OpenAI sostenere i suoi sviluppi di IA sulla scia delle notizie di bancarotta. Secondo le fonti, Microsoft potrebbe acquistare OpenAI entro i prossimi tre anni, il che potrebbe esporre l’azienda ad acquisizioni ostili e interventi esterni.
Le potenziali implicazioni economiche e tecnologiche dell’intelligenza artificiale sono profonde. Se realizzata, questa tecnologia potrebbe trasformare radicalmente le industrie automatizzando compiti complessi e ad alta intensità di lavoro, accelerando l’innovazione nella ricerca scientifica, nell’ingegneria e nella medicina e riducendo potenzialmente i costi operativi in vari settori. Tuttavia, gli esperti avvertono che l’adozione diffusa delle tecnologie AGI potrebbe richiedere anni o addirittura decenni, e la convenienza immediata per gli utenti medi rimane limitata.
Gli esperti stimano che OpenAI potrebbe aver bisogno di raccogliere altri 44 miliardi di dollari prima di ottenere un profitto nel 2029, anche se l’azienda ha raccolto 6,6 miliardi di dollari nel suo ultimo giro di finanziamenti da Microsoft, NVIDIA e altre importanti parti interessate, spingendo la sua valutazione di mercato a 157 miliardi di dollari. In parte hanno attribuito la loro speculazione alla partnership del produttore di ChatGPT con Microsoft.
Mentre ci troviamo sull’orlo di un’intelligenza artificiale potenzialmente trasformativa, l’emergere dell’AGI rappresenta sia un’opportunità senza precedenti che una sfida profonda per la civiltà umana. Le implicazioni sono ampie e complesse e toccano ogni aspetto del nostro paesaggio sociale, economico ed etico.
Da un lato, l’intelligenza artificiale potrebbe accelerare drasticamente il progresso umano, risolvendo problemi complessi nel campo dell’assistenza sanitaria, del cambiamento climatico, della ricerca scientifica e dell’innovazione tecnologica. Immaginate sistemi di intelligenza artificiale in grado di sviluppare trattamenti medici rivoluzionari, progettare soluzioni energetiche sostenibili o svelare intricati misteri scientifici che da tempo sfuggono ai ricercatori umani. Il potenziale per risolvere le sfide globali potrebbe essere immenso.
D’altro canto, la stessa tecnologia solleva notevoli preoccupazioni per quanto riguarda la delocalizzazione dei posti di lavoro, l’interruzione dell’economia e i cambiamenti fondamentali nel lavoro umano e nelle strutture sociali. Intere industrie potrebbero essere trasformate o rese obsolete, richiedendo una massiccia riqualificazione economica e della forza lavoro. Il potenziale di disuguaglianza economica potrebbe aumentare se le tecnologie AGI si concentrassero tra poche entità o società potenti.
Le considerazioni etiche diventano fondamentali. Le capacità decisionali di un sistema AGI potrebbero mettere in discussione la nostra concezione di autonomia, responsabilità e autorità morale. Le domande sui diritti dell’intelligenza artificiale, sui potenziali bias dei sistemi algoritmici e sul rapporto fondamentale tra intelligenza umana e intelligenza meccanica diventeranno sempre più urgenti.
Inoltre, le dinamiche geopolitiche potrebbero essere radicalmente ridisegnate. Le nazioni e le organizzazioni che possiedono capacità avanzate di intelligenza artificiale potrebbero ottenere vantaggi strategici senza precedenti, innescando potenzialmente nuove forme di competizione tecnologica e sollevando complesse sfide di governance internazionale.
Il percorso da seguire richiede un approccio collaborativo e multidisciplinare. I politici, i tecnologi, gli etici e gli scienziati sociali devono lavorare insieme per sviluppare quadri di riferimento responsabili che massimizzino il potenziale dell’intelligenza artificiale e ne attenuino i rischi. Uno sviluppo trasparente, linee guida etiche solide e approcci normativi proattivi saranno fondamentali per garantire che l’AGI serva gli interessi più ampi dell’umanità.
In definitiva, l’AGI non è solo una pietra miliare tecnologica, ma un potenziale punto di svolta nell’evoluzione umana. Il modo in cui affronteremo questa transizione determinerà se queste potenti tecnologie diventeranno uno strumento per una prosperità umana senza precedenti o una fonte di significativi disagi per la società. [...]
Dicembre 3, 2024Sempre più vicini alla fantascienza
Boston Dynamics ha pubblicato un video dimostrativo del suo ultimo robot umanoide Atlas, che segna una significativa evoluzione rispetto alle sue precedenti versioni in cui era noto per le sue impressionanti capacità di parkour, questo nuovo Atlas presenta un design e una funzionalità più simili a quelli umani.
A prima vista, il video potrebbe sembrare banale: un robot che svolge attività industriali di routine. In questa particolare dimostrazione, Atlas sta smistando metodicamente le coperture in plastica dei motori utilizzando un carrello di sequenziamento mobile con slot verticali e orizzontali, sullo sfondo di quello che sembra essere un impianto di sviluppo di Boston Dynamics.
Ciò che distingue questa dimostrazione è la completa autonomia del robot. A differenza dei robot Optimus di Tesla, che sono stati ritenuti controllati a distanza, Boston Dynamics sottolinea che Atlas opera in modo completamente indipendente.
Caratteristiche tecniche
Come spiegato qui, il video rivela diverse notevoli capacità:
Precisione: Atlas dimostra abilità motorie complesse:
Raggiunge i vassoi con una presa precisa a due dita;
Ruota la mano per estrarre e spostare oggetti;
Naviga in spazi complessi con movimenti fluidi.
Mobilità avanzata: Il robot mostra una straordinaria flessibilità, muovendosi in modi che sfidano i limiti fisici umani:
Camminare all’indietro senza interruzioni;
Ruotare la testa di 180 gradi;
Accovacciarsi e chinarsi per accedere a diversi livelli di scaffale.
Sistema di visione intelligente: Il video mostra le capacità di elaborazione visiva di Atlas, che gli consentono di:
Ispezionare le dimensioni dei vassoi;
Prendere decisioni spaziali in tempo reale;
Adattarsi a piccoli ostacoli (come la gestione momentanea di un vassoio incastrato in un bordo di tessuto).
Implicazioni per l’industria
La dimostrazione è più di una semplice vetrina tecnica: rappresenta un potenziale cambiamento di paradigma nella produzione e gestione del magazzino. Tradizionalmente, i robot sono stati limitati a compiti ripetitivi e strutturati. Atlas suggerisce un futuro in cui i robot potranno:
Eseguire compiti che richiedono un rapido processo decisionale;
Eseguire un controllo motorio preciso con una precisione simile a quella umana;
Potenzialmente lavorare a fianco dei dipendenti umani.
Possibilità future
L’integrazione dell’IA generativa con la robotica avanzata come Atlas apre prospettive interessanti:
Possibilità per i robot di fornire rapporti di lavoro;
Capacità di rispondere a domande relative alla produzione;
Potenziale di interazioni più interattive sul posto di lavoro.
Sebbene il video possa sembrare in un primo momento insignificante, rappresenta un salto significativo nella robotica. Atlas di Boston Dynamics non è solo una macchina che esegue un compito, ma uno sguardo a un futuro in cui i robot simili a esseri umani potrebbero diventare parte integrante dei flussi di lavoro industriali.
L’arma a doppio taglio dell’automazione robotica
L’ascesa di robot umanoidi come Atlas presenta un panorama complesso di opportunità e sfide per la forza lavoro. Da un lato, queste meraviglie tecnologiche promettono una maggiore efficienza, precisione e sicurezza negli ambienti industriali. I robot possono svolgere compiti ripetitivi, fisicamente impegnativi o pericolosi che mettono a rischio i lavoratori umani, riducendo potenzialmente gli infortuni sul lavoro e migliorando la produttività complessiva.
Tuttavia, questi progressi tecnologici comportano potenziali svantaggi significativi. Il problema più pressante è la delocalizzazione dei posti di lavoro. I lavoratori del settore manifatturiero e dei magazzini, già messi a dura prova dalle precedenti ondate di automazione, potrebbero trovarsi sempre più emarginati. Sebbene i sostenitori sostengano che le nuove tecnologie creino nuove categorie di lavoro, la transizione può essere dolorosa e irregolare, lasciando potenzialmente molti lavoratori qualificati disoccupati o richiedendo un’ampia riqualificazione.
C’è anche un paradosso economico da considerare. Man mano che i robot diventano più capaci, potrebbero contemporaneamente aumentare l’efficienza produttiva e ridurre il potere d’acquisto della forza lavoro umana. Ciò potrebbe creare una spirale negativa in cui l’aumento dell’automazione porta a una diminuzione della spesa dei consumatori, danneggiando potenzialmente proprio le industrie che cercano di ottimizzare le loro operazioni.
Tuttavia, c’è speranza in un futuro collaborativo. Lo scenario più promettente potrebbe essere quello della cooperazione uomo-robot, in cui queste macchine avanzate integrano le competenze umane piuttosto che sostituirle completamente. Gli esseri umani potrebbero passare a ruoli che richiedono creatività, risoluzione di problemi complessi e intelligenza emotiva, aree in cui i robot fanno ancora fatica a competere.
La sfida principale che ci attende è quella di gestire la transizione verso questa rivoluzione tecnologica. Ciò richiederà politiche proattive, solidi programmi di riqualificazione e l’impegno a garantire che il progresso tecnologico vada a beneficio della società nel suo complesso, non solo di pochi eletti. La storia di Atlas non è solo quella di un robot che smista pezzi di motore: si tratta di ripensare la natura stessa del lavoro nel XXI secolo. [...]
Novembre 26, 2024Come la semplice percezione dell’artificialità influisce sulla risposta sessuale
Mentre l’IA diventa sempre più simile agli esseri umani, gli imprenditori stanno già approfittando della semplicità con cui è possibile creare un chatbot sexy per accaparrarsi gli utenti arrapati di Internet. In un recente concorso di bellezza sull’IA, gli utenti della comunità web che si diletta con l’IA si sono riuniti per votare la loro modella preferita creata digitalmente. Il vincitore, che si dà il caso sia il creatore dell’attraente bot, si è portato a casa più di 20.000 dollari.
Nel frattempo, i ricercatori sono sempre più interessati al modo in cui gli esseri umani vedono le persone create artificialmente e se questo aspetto influenzi il comportamento umano.
Come riportato qui, un gruppo di ricercatori finlandesi e italiani ha voluto vedere come reagiamo alle immagini create dall’intelligenza artificiale per indurre il desiderio sessuale. Hanno ipotizzato che le persone sarebbero state meno eccitate se avessero pensato che l’immagine fosse un avatar. I risultati sono stati pubblicati sulla rivista Cognition and Emotion.
“In particolare, volevamo rispondere alla domanda: le immagini considerate generate artificialmente sono in grado di suscitare lo stesso livello di eccitazione di quelle reali, o queste ultime mantengono un vantaggio in tal senso?”, hanno chiesto gli autori dello studio Alessandro Demichelis e Alessandro Ansani in una dichiarazione congiunta a PsyPost.
I ricercatori hanno utilizzato immagini di uomini e donne attraenti, tutte persone reali, in lingerie o in costume da bagno in due esperimenti. In un esperimento, ai partecipanti è stato chiesto di determinare se ogni fotografia fosse o meno generata da un’intelligenza artificiale dopo aver valutato il loro livello di eccitazione. Le stesse immagini sono state utilizzate in un esperimento successivo, ma questa volta erano chiaramente indicate come vere o false.
Per gli uomini e le donne eterosessuali che hanno partecipato allo studio, entrambe le prove hanno confermato l’ipotesi dei ricercatori secondo cui l’eccitazione sessuale è significativamente influenzata dalla percezione dell’autenticità. Ma hanno anche scoperto che gli uomini si eccitano più facilmente alle immagini false rispetto alle donne.
“I nostri risultati supportano l’idea che le foto considerate artificiali siano meno eccitanti di quelle considerate reali, ma abbiamo scoperto che le immagini presumibilmente false sono ancora in grado di generare eccitazione, soprattutto negli uomini, solo in misura inferiore”, hanno spiegato Demichelis e Ansani.
Secondo gli autori, i risultati forniscono indicazioni preziose su come le persone interagiscono con i contenuti digitali.
“Le immagini generate dall’intelligenza artificiale sono destinate a rimanere e, come ogni progresso tecnologico, offrono sia opportunità che pericoli”, hanno dichiarato a PsyPost. “Nell’ambito dell’eccitazione sessuale, i nostri risultati suggeriscono che non sostituiranno il mondo ‘reale’, poiché la semplice convinzione che un’immagine sia generata dall’IA (anche quando non lo è) è sufficiente a ridurre l’eccitazione”. In altre parole, sembra che abbiamo (ancora?) una forte preferenza per l’umanità rispetto all’artificialità, anche quando quest’ultima è solo presunta”.
Le ricerche future dovrebbero esaminare una più ampia varietà di stimoli sessuali, compresi contenuti ancora più espliciti, e se le persone attratte dallo stesso sesso sono altrettanto consapevoli dell’autenticità. Un’ulteriore complessità della risposta umana all’eccitazione può essere aggiunta da dati fisiologici come la sensibilità della pelle e la frequenza cardiaca.
Demichelis e Ansani intendono anche confrontare fotografie autentiche e fotografie realmente false in uno studio simile. “Ipotizziamo che l’effetto riscontrato nel nostro studio possa addirittura aumentare, consolidando la forza delle nostre affermazioni”, hanno dichiarato.
I risultati sottolineano la fondamentale preferenza umana per l’autenticità, suggerendo che, nonostante le notevoli capacità dell’intelligenza artificiale, i contenuti generati dall’uomo mantengono una qualità intangibile che non può essere facilmente replicata. La sottile ma significativa riduzione dell’eccitazione quando i partecipanti ritenevano che un’immagine fosse stata creata artificialmente indica un meccanismo psicologico più profondo, una sorta di filtro di autenticità che opera al di sotto della percezione cosciente.
Inoltre, le differenze di genere osservate nello studio suggeriscono i modi intricati in cui la percezione tecnologica potrebbe interagire con la risposta sessuale. La reazione più ricettiva dei partecipanti maschi alle immagini generate dall’intelligenza artificiale suggerisce potenziali variazioni nel modo in cui i diversi generi elaborano e rispondono alle rappresentazioni artificiali.
Per il futuro, questa ricerca serve a ricordare che l’innovazione tecnologica non sostituisce automaticamente l’esperienza umana. Mentre l’intelligenza artificiale continua a spingere i confini della creazione e della rappresentazione, rimane profondamente radicato nell’uomo il desiderio di una connessione genuina e non costruita. La sfida per lo sviluppo tecnologico futuro potrebbe non essere quella di creare simulazioni perfette, ma di comprendere e rispettare le esperienze sfumate e autentiche che definiscono l’interazione umana. [...]
Novembre 19, 2024Come RAG trasforma le capacità dei modelli linguistici di grandi dimensioni
Un processo di IA chiamato Retrieval Augmented Generation (RAG) utilizza una base di conoscenza efficace al di fuori delle fonti di addestramento per massimizzare l’output di un Large Language Model (LLM). Il RAG aiuta l’IA a produrre testi più precisi e pertinenti, fondendo i vantaggi dei sistemi convenzionali di recupero delle informazioni, come i database, con le capacità dei LLM.
Come spiegato qui, per far funzionare correttamente i chatbot intelligenti e altre applicazioni NLP, gli LLM sono essenziali. Tuttavia, presentano degli svantaggi, come la dipendenza da dati di addestramento statici e la produzione occasionale di risultati imprevedibili o imprecisi, nonostante la loro potenza. Quando non sono sicuri della risposta, possono anche fornire informazioni imprecise o non aggiornate, in particolare quando si parla di argomenti che richiedono una conoscenza approfondita. La distorsione delle risposte può derivare dal fatto che le risposte del modello sono limitate alle prospettive presenti nei dati di addestramento. Queste limitazioni riducono spesso l’efficacia dei LLM nel reperimento di informazioni, anche se attualmente sono ampiamente utilizzati in molti campi diversi.
La RAG è una strategia efficace che è fondamentale per superare i limiti degli LLM. La RAG garantisce che gli LLM possano fornire risposte più accurate e affidabili, indirizzandoli verso materiale pertinente proveniente da una base di conoscenza affidabile. L’uso di RAG si sta espandendo insieme all’uso degli LLM, rendendolo un componente cruciale delle soluzioni di IA contemporanee.
Architettura di un RAG
Per produrre una risposta, un’applicazione RAG in genere recupera le informazioni sulla domanda dell’utente da una fonte di dati esterna e le invia all’LLM. Per produrre risposte più precise, l’LLM utilizza sia i propri dati di addestramento sia gli input esterni. Ecco una descrizione più approfondita della procedura:
I dati esterni possono provenire da database, testi scritti o API, tra le altre fonti. Affinché il modello di intelligenza artificiale possa comprendere i dati, un modello di incorporazione li trasforma in una rappresentazione numerica in un database vettoriale.
La domanda dell’utente viene trasformata in una rappresentazione numerica, che viene poi confrontata con il database vettoriale per estrarre le informazioni più rilevanti. A questo scopo si utilizzano rappresentazioni vettoriali e calcoli matematici.
Affinché l’LLM produca risposte migliori, il modello RAG migliora la richiesta dell’utente includendo i dati rilevanti recuperati nel contesto.
Tecniche come la riscrittura delle query, la suddivisione della query originale in diverse sotto-query e l’integrazione di strumenti esterni nei sistemi RAG possono migliorare l’efficienza di un’applicazione RAG. Inoltre, la qualità del prompt, l’esistenza di metadati e la qualità dei dati utilizzati influiscono sulle prestazioni RAG.
Casi d’uso di RAG in applicazioni reali
Oggi le applicazioni RAG sono ampiamente utilizzate in molti campi diversi. Ecco alcuni esempi di casi d’uso tipici:
La raccolta di dati precisi da fonti affidabili consente ai modelli RAG di migliorare i sistemi di risposta alle domande. Un caso d’uso delle RAG è il reperimento di informazioni nelle organizzazioni sanitarie, dove l’applicazione può rispondere a domande mediche consultando la letteratura medica.
Le applicazioni RAG sono molto efficaci per semplificare la creazione di contenuti, generando informazioni pertinenti. Inoltre, sono molto utili per creare panoramiche concise di informazioni provenienti da più fonti.
Inoltre, le applicazioni RAG migliorano gli agenti conversazionali, consentendo agli assistenti virtuali e ai chatbot di rispondere con precisione e contesto. La loro capacità di rispondere in modo accurato e informativo durante le interazioni li rende perfetti per essere utilizzati come assistenti virtuali e chatbot per l’assistenza clienti.
Gli assistenti di ricerca legale, le risorse didattiche e i motori di ricerca basati sulla conoscenza fanno tutti uso di modelli RAG. Possono fornire materiali di studio, assistere nella redazione di documenti, offrire spiegazioni personalizzate, valutare casi giuridici e formulare argomentazioni.
Le sfide principali
Anche se le applicazioni RAG sono molto efficaci nel recupero delle informazioni, ci sono alcune limitazioni che devono essere prese in considerazione per ottenere il massimo dai RAG.
Poiché le applicazioni RAG si basano su fonti di dati esterne, può essere difficile e complesso stabilire e gestire connessioni con dati di terzi.
Le informazioni di identificazione personale provenienti da fonti di dati di terzi possono dare adito a problemi di privacy e di conformità.
Le dimensioni della fonte di dati, il ritardo della rete e il volume più elevato di richieste che un sistema di recupero deve elaborare possono determinare una latenza nella risposta. Ad esempio, il programma RAG potrebbe non funzionare abbastanza rapidamente se viene utilizzato da molte persone.
Se si basa su fonti di dati inaffidabili, l’LLM può fornire informazioni imprecise o distorte e coprire un argomento in modo insufficiente.
Quando si lavora con più fonti di dati, può essere difficile impostare l’output per includere le fonti.
Tendenze future
L’utilità di un’applicazione RAG può essere ulteriormente incrementata se è in grado di gestire non solo informazioni testuali, ma anche un’ampia varietà di tipi di dati: tabelle, grafici, diagrammi e diagrammi. Ciò richiede la costruzione di una pipeline RAG multimodale in grado di interpretare e generare risposte da diverse forme di dati. Consentendo una comprensione semantica degli input visivi, gli LLM multimodali (MLLM) come Pix2Struct aiutano a sviluppare tali modelli, migliorando la capacità del sistema di rispondere alle query e di fornire risposte più precise e contestualmente rilevanti.
Con l’espansione delle applicazioni RAG, cresce l’esigenza di integrare capacità multimodali per gestire dati complessi. I progressi nelle MLLM miglioreranno la comprensione dei dati da parte dell’IA, espandendone l’uso in campi come la ricerca legale, la sanità e l’istruzione. Il potenziale dei sistemi RAG multimodali dovrebbe ampliare la gamma di settori in cui l’IA può essere applicata.
Il RAG è all’avanguardia dei sistemi sempre più intelligenti, flessibili e consapevoli del contesto grazie all’ulteriore sviluppo dell’IA. Il potenziale del RAG sarà ulteriormente rafforzato dalla tendenza crescente delle capacità multimodali, che consentiranno all’IA di comprendere e interagire con una varietà di fonti di dati oltre al testo. Il RAG ha il potenziale per cambiare completamente il modo in cui utilizziamo e ci impegniamo con l’intelligenza artificiale in una serie di settori, tra cui l’assistenza sanitaria, la ricerca legale, l’assistenza ai clienti e l’istruzione.
Sebbene vi siano ancora problemi, come la latenza di risposta, i problemi di privacy e l’integrazione dei dati, il futuro della tecnologia RAG appare promettente. Le tecniche per rendere questi sistemi più affidabili, efficaci e degni di fiducia vengono sempre migliorate da ricercatori e sviluppatori. Probabilmente il RAG diventerà sempre più importante per produrre interazioni con l’intelligenza artificiale più complesse, precise e ricche di contesto, man mano che i Large Language Model multimodali progrediranno.
Con l’avanzare dei Large Language Model multimodali, i RAG stanno influenzando attivamente il reperimento e la sintesi intelligente e dinamica della conoscenza, che rappresenta il futuro dell’intelligenza artificiale oltre alla sua enorme potenza computazionale. [...]
Novembre 12, 2024Uno sguardo critico sul nostro presente digitale
La situazione di Internet è instabile. Subisce attacchi da tutte le direzioni, compresi i problemi sociali più che quelli tecnici. Internet è pieno di disinformazione, il marketing e la pubblicità ne permeano ogni aspetto e schiere di bot automatizzati e politicizzati si aggirano sui social media. Tutto questo viene filtrato attraverso post algoritmici scelti con cura per tenervi sulla vostra piattaforma preferita e fornirvi endorfine. Tutto sta cambiando al momento, e non sempre in modo positivo.
Guardando indietro di dieci o vent’anni, il “World Wide Web” appariva drasticamente diverso a molti di noi durante quel periodo di massimo splendore. Tutto sembrava ed era differente, compresi i siti di social media, le comunità, il mondo dei giochi, l’accessibilità e la conoscenza e gli acquisti. Le aziende che hanno partecipato all’impresa sono state sorprendenti, quasi rivoluzionarie. Facebook, Twitter, Spotify, Netflix e Amazon sono tutte aziende estremamente innovative, che hanno sfidato le convenzioni. Grazie alle loro fantastiche funzionalità e ai prezzi ragionevoli, hanno attirato un gran numero di utenti e clienti.
Tuttavia, poiché le aziende hanno scelto una via di mezzo per aumentare i propri profitti, le stesse funzionalità e gli stessi costi sono peggiorati nel tempo per il consumatore comune. Questo accade di solito quando le aziende diventano pubbliche; invece di essere motivate dai principi e dalle idee che le hanno fondate, sono le richieste degli azionisti, degli investitori e dei membri del consiglio di amministrazione ad aumentare i profitti.
La caduta del mondo digitale
Secondo questo articolo, anche l’accesso alle informazioni e le risorse educative si stanno disintegrando. Al giorno d’oggi, migliaia di reel di TikTok e di short di YouTube hanno confuso e diluito gran parte dell’informazione disponibile, facendo circolare una varietà di bugie da parte di chiunque abbia un telefono e crei dei video di 60 secondi.
È sempre più difficile capire cosa sia vero e cosa no, cosa sia reale e cosa no. Questo è uno dei motivi per cui Google modifica spesso i suoi algoritmi di ricerca per dare priorità al materiale accurato e fattuale rispetto ai contenuti fuorvianti e generati dall’intelligenza artificiale.
Nell’era odierna delle celebrità e dei demagoghi dei social media, la vostra portata e il numero di visualizzazioni del vostro lavoro determinano se le persone vi prenderanno sul serio o meno; se le vostre affermazioni e i vostri fatti sono ritenuti veri.
Fact-checkers che coprono un’ampia gamma di piattaforme di social media, Community Notes che evidenziano i casi in cui persone potenti vomitano assurdità assolute, e aggregatori di notizie, che riuniscono tutti i media per offrirvi la gamma completa di opinioni politiche su un determinato evento. Alcuni scienziati ora ne fanno una professione confutando le sciocchezze irrazionali ed empiricamente inaccurate che altri influencer dei social media diffondono.
Diffusione tramite algoritmi
È un problema sistemico. Tutto è iniziato sui social media, dove gli algoritmi ora forniscono informazioni “curate” invece di mostrare semplicemente una timeline delle persone che seguite nel tempo. Le vostre preferenze, così come le cose che guardate, leggete e ascoltate, sono servite ad attizzare il fuoco. Twitter, Instagram e Facebook forniscono contenuti in questo modo. Finché si rimane sul sito e si continua a visualizzare gli annunci pubblicitari, non importa il contenuto. Ormai è così comune che è difficile trovare un sistema di feed su un qualsiasi sito di social media che non lo faccia.
Il problema è che in questo modo si è riusciti a sopprimere la discussione innovativa. Si è costantemente esposti alle stesse informazioni, invece di avere conversazioni significative o di vedere le proprie convinzioni messe in discussione. Di conseguenza, ci si ritrova in una camera d’eco di persone che la pensano allo stesso modo e che ripetono le stesse cose, consolidando e plasmando ulteriormente le proprie opinioni. È facile capire come questo contribuisca attivamente all’aumento delle opinioni e delle idee radicali.
Se non c’è nessuno che mette in discussione la tua opinione, come può svilupparsi o cambiare? È uno dei motivi per cui molte persone in tutto il mondo sono quasi sotto shock quando il loro candidato politico preferito perde alle ultime elezioni. Perché su Internet vedono solo una quantità schiacciante di sostegno al loro partito preferito.
Che cosa dovremmo fare?
Tuttavia, c’è ancora speranza. Fin dall’inizio, il WWW ha prodotto molti più risultati positivi che negativi, e questo vale anche oggi. Finché le persone continueranno a usarlo per connettersi attivamente e liberamente, sarà benefico.
Poiché non fa notizia, non si sente parlare delle numerose scoperte scientifiche rese possibili da Internet, delle malattie che sono state curate o degli aiuti umanitari che sono stati organizzati. Non è coinvolgente. Né i giornali né le pubblicazioni scientifiche ne parlano. Non si parla delle connessioni create o di quanto sia essenziale per l’infrastruttura complessiva della nostra civiltà contemporanea.
Allora, come si fa a risolvere il problema? Non è facile applicare una soluzione a cerotto. Il World Wide Web è, per definizione, una piattaforma mondiale. Sarà necessario un lavoro di squadra per trovare una sorta di accordo su come migliorare il pantano esistente. Questo è già successo in passato nel settore tecnologico.
L’istruzione è una soluzione perché si applica a persone di tutte le età, non solo a bambini e adolescenti. Così come puntiamo alla piena alfabetizzazione degli adulti, dobbiamo fare un forte sforzo per garantire che ogni Stato nazionale sia alfabetizzato all’uso del computer. Questo va al di là del semplice insegnare alle persone “come accendere il PC” e “questo è Internet”, ma anche insegnare loro come individuare i post fasulli, verificare le affermazioni, individuare più fonti e determinare se ciò che pubblicano online è legale. Le persone di tutte le età non hanno accesso o conoscenza di tutto questo.
È difficile acquisire nuove competenze chiave in una società globale. Tuttavia, è necessario ripeterlo, ma nell’era digitale. Lo abbiamo fatto per la lettura, per il pericolo di distruzione nucleare durante la Guerra Fredda e per l’introduzione delle cinture di sicurezza nelle automobili. È difficile? Sì, ma abbiamo vissuto e continueremo a vivere gli sconvolgimenti tecnologici.
Tuttavia, la verità va detta. Anche se lo scopo principale dei creatori di contenuti è spesso guidato dal desiderio di visualizzazioni e denaro, e questo porta spesso alla polarizzazione e alla distorsione dei fatti narrati, ciò non significa che le informazioni “spazzatura” siano tutte da una parte e la verità dall’altra. I critici della moltitudine di teorie innovative e non convenzionali presenti su Internet vorrebbero spazzare via ogni tipo di dubbio, appellandosi al principio che la verità è solo da una parte, mentre i dubbi dovrebbero provenire da entrambe le parti se si vuole evitare la censura.
È ovvio che nella libertà si prende il buono e il cattivo di ogni cosa, ma sta alle persone fare lo sforzo di capire che se c’è un interesse economico che inquina la verità, esiste da entrambe le parti. Alcuni mirano al profitto e fanno parte della narrazione ufficiale, altri no. C’è chi propone soluzioni alternative e ragionevoli e non viene ascoltato, mentre chi grida qualcosa di assurdo per ottenere visualizzazioni (anche se non è questo il metro di giudizio) finisce per delegittimare chi dice cose giuste anche se in minoranza. La verità non sta solo da una parte. [...]
Novembre 5, 2024Da AlphaGo ai moderni modelli linguistici
La verità e l’accuratezza sono cruciali per le IA e i processi di pensiero umani giocano un ruolo fondamentale nella definizione di questi aspetti. In futuro, l’apprendimento automatico potrebbe superare gli esseri umani grazie a nuovi modelli di IA che sperimentano in modo indipendente.
Un primo esempio è AlphaGo di DeepMind, che ha segnato una svolta imparando a giocare a Go senza una guida umana o regole preimpostate. Go è un antico gioco di strategia da tavolo, originario della Cina, considerato uno dei giochi da tavolo più complessi e profondi al mondo. Utilizzando l’“autoapprendimento per rinforzo”, ha giocato miliardi di partite, imparando per tentativi ed errori. Dopo aver sconfitto il campione europeo di Go nel 2015, AlphaGo ha vinto contro il miglior giocatore umano del mondo nel 2017.
Negli scacchi, AlphaZero è stato sviluppato per superare modelli precedenti come Deep Blue, che si basavano su strategie umane. AlphaZero ha battuto il campione in carica di intelligenza artificiale Stockfish in 100 partite, vincendone 28 e pareggiando le altre.
Liberarsi dai vincoli umani
Come riportato qui, quando DeepMind si è allontanata dall’imitare le strategie umane, i suoi modelli hanno eccelso in giochi complessi come Shogi, Dota 2 e Starcraft II. Queste IA hanno sviluppato punti di forza cognitivi unici imparando attraverso la sperimentazione piuttosto che con l’imitazione umana.
Ad esempio, AlphaZero non ha mai studiato i grandi maestri o le mosse classiche. Ha invece forgiato la propria comprensione degli scacchi basandosi sulla logica delle vittorie e delle sconfitte. Ha dimostrato che un’intelligenza artificiale che si basa su strategie sviluppate autonomamente può superare qualsiasi modello addestrato esclusivamente sulle intuizioni umane.
Nuove frontiere nei modelli linguistici
L’ultimo modello di OpenAI, denominato “o1”, potrebbe seguire una traiettoria simile. Mentre i precedenti Large Language Models (LLM), come ChatGPT, sono stati addestrati utilizzando grandi quantità di testo umano, o1 incorpora una nuova caratteristica: prende tempo per generare una “catena di pensieri” prima di rispondere, consentendogli di ragionare in modo più efficace.
A differenza dei precedenti LLM, che generavano semplicemente la sequenza di parole più probabile, o1 cerca di risolvere i problemi attraverso tentativi ed errori. Durante l’addestramento, gli è stato permesso di sperimentare diverse fasi di ragionamento per trovare soluzioni efficaci, in modo simile a come AlphaGo ha affinato le sue strategie. Ciò consente a o1 di sviluppare una propria comprensione del ragionamento utile in aree in cui la precisione è essenziale.
Il passaggio al ragionamento autonomo
Man mano che le IA progrediscono nell’apprendimento per tentativi ed errori, potrebbero superare i vincoli imposti dall’uomo. Il potenziale passo successivo è rappresentato dalle IA incarnate in forme robotiche, che apprendono da interazioni fisiche anziché da simulazioni o testi. Ciò consentirebbe loro di acquisire una comprensione della realtà direttamente, indipendentemente dalla conoscenza derivata dall’uomo.
Queste IA incarnate non affronterebbero i problemi attraverso i metodi scientifici tradizionali o le categorie umane come la fisica e la chimica. Potrebbero invece sviluppare metodi e strutture proprie, esplorando il mondo fisico in modi che non possiamo prevedere.
Verso una realtà indipendente
Sebbene l’apprendimento autonomo delle IA fisiche sia ancora in fase iniziale, aziende come Tesla e Sanctuary AI stanno sviluppando robot umanoidi che un giorno potranno imparare direttamente dalle interazioni del mondo reale. A differenza dei modelli virtuali che operano ad alta velocità, le IA incarnate imparerebbero al ritmo naturale della realtà, limitate dalle risorse disponibili ma potenzialmente in grado di cooperare attraverso l’apprendimento condiviso.
Il modello o1 di OpenAI, benché basato su un testo, allude al futuro dell’IA: un punto in cui questi sistemi potrebbero sviluppare verità e strutture indipendenti per comprendere l’universo al di là dei limiti umani.
Lo sviluppo di LLM in grado di ragionare da sole e di apprendere per tentativi ed errori indica un’entusiasmante strada per rapide scoperte in diversi campi. Consentire alle IA di pensare in modi che potremmo non comprendere potrebbe portare a scoperte e soluzioni che vanno oltre l’intuizione umana. Ma questo progresso richiede un cambiamento fondamentale: dobbiamo avere più fiducia nell’IA e allo stesso tempo essere cauti nei confronti del suo potenziale in termini di ripercussioni inaspettate.
Esiste il rischio reale di manipolazione o di affidarsi ai risultati dell’IA senza comprenderne appieno la logica di fondo, perché questi modelli creano quadri e informazioni che possono non essere colti facilmente. Per garantire che l’IA funzioni come un vero amico nell’espansione della conoscenza umana piuttosto che come una forza enigmatica e forse ingestibile, sarà fondamentale trovare un equilibrio tra fiducia e stretta supervisione. [...]
Novembre 3, 2024Quando l’IA può alterare la realtà
A partire dal 2020 l’intelligenza artificiale si è fatta sempre più strada nelle nostre vite. E abbiamo iniziato ad accorgecene quando sono comparsi i primi video deepfake: ossia la tecnica di sostituire i volti di un soggetto di un video o foto con quello di un altro volto, in modo pressoché perfetto, proprio grazie all’uso dell’intelligenza artificiale. Anche se la loro nascita ufficiale è precedente al 2020, il loro utilizzo si è man mano diffuso grazie anche allo sviluppo di strumenti che ne hanno sempre di più semplificato la creazione.
I deepfake hanno evidenziato subito uno dei problemi principali dell’intelligenza artificiale: il poter modificare e rendere credibili fotografie o video di fatti mai avvenuti.
Se sostituire i volti di attori famosi con altri soggetti per vederli come protagonisti dei film è apparsa subito come una cosa rivoluzionaria e divertente, vedere poi, la stessa tecnologia, applicata alla pornografia, ha generato subito scalpore e timore.
Molte donne famose si sono ritrovate protagoniste di video e foto pornografici inconsapevolmente e la cosa peggiore è stata poi dover smentire, nonostante l’evidente prova, di non c’entrare nulla con tutto ciò. Cionostante, molti continueranno a credere che molte di quelle foto o video siano reali dato che smentire un fatto non vero è sempre più difficile che crearlo.
I deepfake non hanno però fatto breccia solo nel campo pornografico, ma anche in quello politico potendo così rovinare facilmente l’immagine della vittima e di conseguenza veicolando anche l’opinione pubblica.
Ma era solo l’inizio. Infatti, ci siamo maggiormente preoccupati quando è stato presentato Google Duplex, un’IA che (seppur limitita nei suoi compiti) ha saputo dimostrare come tale tecnologia potesse facilmente comunicare al telefono per prendere appuntamenti senza che l’interlocutore se ne accorgesse; utilizzando pause, segnali discorsivi (senti, bene, dunque, …), interiezioni (ma, mmm, …), in modo da rendere più realistica la conversazione.
Tuttavia la vera rivoluzione è arrivata con GPT (Generative Pretrained Transformer) di OpenAI (un modello di intelligenza artificiale) che già nella sua seconda versione era riuscito a dimostrare di saper scrivere un articolo di giornale, mostrando una capacità di scrittura pari a quella di un essere umano. Ma lo stupore più grande è arrivato soprattutto con ChatGPT, il primo chatbot dotato di questa tecnologia che ci ha permesso di comunicare come se stessimo davvero parlando con un umano e potendogli chiedere praticamente qualunque cosa…
Ciononostante, molti si ricorderanno di un altro chatbot precedente a ChatGPT che già aveva dimostrato il potenziale dell’IA applicata ai chatbot, ossia Replika. Replika era nato come primo chatbot fondato sull’IA. L’idea nacque da un episodio spiacevole dell’ideatrice che avendo perso un’amico in un incidente decise di ideare un chatbot allenandolo a parlare come l’amico defunto attraverso i suoi messaggi. Una puntata di Black Mirror cita questo evento.Tuttavia il fascino di IA come ChatGPT risiede più nella sua capacità predittiva che nel suo ragionamento. Infatti laddove le risposte sembrano il frutto di un ragionamento, sono invece il risultato di un calcolo probabilistico.
Ma la scrittura non è stata l’unica rivoluzione nel campo dell’IA, poiché soprattutto con DALL-E e poi Midjourney, l’IA ha iniziato a diventare capace di produrre arte a partire da una semplice descrizione, riuscendo così a replicare stili e tecniche di artisti famosi su idee di immagini totalmente nuove.Anche in questo caso la vera creatività è un’illusione poiché nonostante i risultati eccezzionali, il tutto è sempre frutto dell’allenamento di un algoritmo su opere e tecniche già esistenti.
E se ciò non bastasse, non potevano mancare anche applicazioni nel campo delle voci. I vecchi generatori di sintesi vocali si sono evoluti molto grazie all’IA, tanto da produrre risultati molto naturali. Molte delle più recenti applicazioni hanno opzioni per modificare enfasi e tono, ma la rivoluzione più eclatante in questo campo è stata sicuramente la possibilità di clonare la voce umana e poterla usare come sintetizzatore vocale riuscendo incredibilmente a far dire alla voce clone qualunque cosa. Un primo tentativo di questo tipo era stato fatto dalla società Lyrebird poi inglobata in Descript.
La tendenza si è poi diffusa anche nel campo musicale infatti abbiamo iniziato a sentire molte cover di canzoni famose reinterpretate da altrettanti cantanti famosi grazie all’IA ponendo quindi un nuovo timore sulla possibilità di sostituire i cantanti facilmente e poter produrre canzoni con la voce di qualcun’altro senza permesso.
Le cose più preoccupanti sono però arrivate dopo, quando molti di questi campi di applicazione sono iniziati a convogliare in un unico strumento come ad esempio Heygen che si è subito diffuso per la sua capacità di produrre traduzioni audio da video, non solo mantendo il tono di voce originale, ma anche modificando di conseguenza il labiale del soggetto in modo da farlo coincidere col parlato. Così facendo si è creata l’impressione che il soggetto parlasse effettivamente quella lingua. La cosa ha creato scalpore soprattutto per quando riguarda il mondo del doppiaggio.
Il caso più estremo dell’applicazione di questo strumento è stato però il suo uso finalizzato a modificare ciò che normalmente può dire una persona. Se possiamo mantenere il tono di voce e modificare il labiale, possiamo creare un video ad hoc di una persona che potrebbe dire qualunque cosa che non abbia mai detto, mettendo così in dubbio ogni prova video e audio.
Ecco perché siamo entrati ufficialmente nell’era dell’inganno. Da oggi tutto ciò che vediamo o sentiamo proveniente da una foto, video o audio potrebbe essere manipolato. Si potrà far dire e far fare cose a chiunque con molta facilità. La verità diventerà sempre più sepolta.
Quale sarà però il passo successivo?
Se l’IA si evolve come sta avvenendo in modo esponenziale è difficile immaginarne i limiti, ma sicuramente inizieremo a vedere le conseguenze delle capacità di un’IA multimodale, capace di utilizzare ogni fonte: testo, immagini, video e suoni per interagire con noi, e dare risposte sempre più complesse come ChatGPT 4, Gemini di Google e successivi.
Successivamente arriverà l’IA generale (AGI) quando sarà in grado di eguagliare le capacità degli esseri umani. E la Super IA quando essa supererà le sue capacità.
Chissà come la società sarà cambiata in quel momento e quali conseguenze ci saranno state. [...]
Ottobre 29, 2024L’evoluzione della cooperazione cognitiva tra uomo e IA
Gli strumenti sono sempre stati utilizzati dagli esseri umani per aumentare le nostre capacità cognitive. Abbiamo acquisito il controllo sulle idee astratte scrivendo notazioni matematiche e esternalizzando la memoria, e i computer hanno migliorato la nostra capacità di elaborare le informazioni. Tuttavia, i modelli linguistici di grandi dimensioni (LLM) rappresentano un fenomeno fondamentalmente diverso, un doppio cambiamento che sta modificando non solo il nostro modo di pensare, ma anche la definizione di pensiero nell’era digitale.
Come spiegato qui, utilizzando strumenti e tecnologie, il filosofo Andy Clark sostiene che la mente umana trascenda intrinsecamente i nostri limiti biologici. La sua “tesi della mente estesa” suggerisce che i nostri processi di pensiero incorporano senza problemi risorse esterne. L’estensione cognitiva più significativa sta emergendo con gli LLM, che si impegnano attivamente nell’atto stesso di pensare. Tuttavia, non si tratta solo di un’estensione della mente.
La danza cognitiva dell’iterazione
Quello che emerge dalla conversazione con un LLM è ciò che possiamo definire una “danza cognitiva”: un’interazione dinamica tra intelligenza umana e artificiale che crea modelli di pensiero che nessuna delle due parti potrebbe raggiungere da sola. Noi, gli esseri umani, presentiamo un’idea o un problema iniziale, l’LLM ne riflette una versione ampliata o raffinata, noi ci costruiamo sopra o reindirizziamo questa riflessione e il ciclo continua.
Questa danza è possibile perché gli LLM operano in modo diverso dai sistemi di conoscenza tradizionali. Mentre gli strumenti convenzionali lavorano su mappe fisse di informazioni – categorie e gerarchie rigide – gli LLM funzionano più come reti dinamiche, dove il significato e le relazioni emergono attraverso il contesto e l’interazione. Non si tratta solo di un modo diverso di organizzare le informazioni, ma di un cambiamento fondamentale di ciò che è la conoscenza e di come funziona.
Un’ecologia del pensiero
Le relazioni convenzionali tra uomo e strumento sono intrinsecamente asimmetriche: per quanto lo strumento sia avanzato, è inattivo finché l’intenzione umana non lo attiva. L’interazione tra esseri umani e LLM, tuttavia, sfida questo fatto. Questi sistemi contribuiscono attivamente a influenzare il corso del pensiero, offrendo nuovi punti di vista e sfidando le ipotesi attraverso la loro struttura di conoscenza simile a una rete: non si limitano a reagire ai nostri suggerimenti.
Si è creato un ecosistema in cui l’intelligenza artificiale e la mente umana diventano elementi ambientali più intrecciati l’uno con l’altro, che alcuni hanno soprannominato come una nuova sorta di ecologia cognitiva. Stiamo pensando con questi strumenti in un modo che potrebbe alterare radicalmente la nostra architettura cognitiva, non solo usandoli.
Il nostro specchio metacognitivo
L’aspetto più interessante è che l’interazione con gli LLM ci rende spesso più consapevoli del nostro modo di pensare. Per interagire con questi sistemi in modo efficiente, dobbiamo pensare in modo più chiaro, prendere in considerazione altri punti di vista e utilizzare un ragionamento più strutturato. L’LLM si trasforma in una sorta di specchio metacognitivo che riflette non solo i nostri pensieri, ma anche i nostri schemi e processi di pensiero.
Stiamo appena iniziando a capire quanto sia trasformativo questo effetto specchio. Quando interagiamo con un LLM siamo costretti a esternare i nostri processi cognitivi interni, il che li rende più evidenti e, quindi, più ricettivi al miglioramento. La tecnologia crea un circuito di feedback che porta a una comprensione più profonda, chiedendoci di elaborare i nostri ragionamenti e di chiarire le nostre ipotesi, proprio come un abile interlocutore.
L’orizzonte cognitivo
Abbiamo appena iniziato a vedere questo cambiamento nelle cooperazioni cognitive tra esseri umani e IA. Al di là della sua utilità, ciò pone problemi fondamentali sulla nostra comprensione dell’intelligenza, della coscienza e della natura stessa della conoscenza. Stiamo assistendo all’inizio di qualcosa di inedito, man mano che questi sistemi diventano più complessi e le nostre interazioni con loro più sfumate: una relazione che non solo espande il pensiero, ma ne cambia anche la natura fondamentale.
L’area dinamica tra intelligenza biologica e artificiale, in cui le mappe rigide lasciano il posto a reti fluide e diventano possibili nuovi tipi di comprensione, potrebbe contenere la chiave del futuro della cognizione umana piuttosto che uno dei due campi da solo. Mentre impariamo cosa significa collaborare con menti artificiali che alterano la struttura stessa della conoscenza, siamo sia l’esperimento che gli sperimentatori.
L’interazione con gli LLM offre opportunità straordinarie per l’apprendimento, simulando un dialogo con esperti in ogni campo del sapere. Tuttavia, la loro tendenza alle allucinazioni e la capacità di generare contenuti apparentemente plausibili ma potenzialmente errati richiede particolare attenzione. Il rischio concreto è che l’essere umano, affidandosi acriticamente a queste interazioni, possa assimilare e consolidare convinzioni false. Diventa quindi fondamentale sviluppare un approccio critico e consapevole a questa nuova forma di cooperazione cognitiva, mantenendo sempre attiva la capacità di verifica e validazione delle informazioni ricevute. [...]
Ottobre 22, 2024Come la tecnologia di riconoscimento facciale di una startup segreta è diventata l’incarnazione delle nostre paure distopiche
Nel novembre 2019, mentre lavorava come reporter al New York Times, Kashmir Hill ha scoperto una storia che avrebbe rivelato uno degli sviluppi più controversi della tecnologia di sorveglianza.
Come qui riportato, una giornalista Kashmir Hill ricorda l’ascesa di Clearview AI. Questa società di tecnologia per il riconoscimento facciale si è guadagnata un’ampia visibilità grazie al suo software di intelligenza artificiale che sosteneva di essere in grado di identificare quasi chiunque con una sola foto del viso, in questo estratto da “Your Face Belongs to Us” (Simon & Schuster, 2023).
Clearview AI, una startup enigmatica, prometteva di essere in grado di identificare quasi chiunque da una foto del volto.
Secondo alcune indiscrezioni, Clearview aveva raccolto miliardi di foto dal web pubblico, compresi siti di social media come Facebook, Instagram e LinkedIn, per creare un’applicazione rivoluzionaria.
Il nome di una persona a caso e altre informazioni personali sulla sua vita possono essere rivelate se si mostra a Clearview una loro foto scattata per strada. L’applicazione fornisce quindi tutti i siti web in cui ha visto il suo volto. Pur cercando di nascondere la propria esistenza, l’azienda ha venduto questo superpotere ai dipartimenti di polizia di tutto il Paese.
Fino a poco tempo fa, la maggior parte delle persone pensava che il riconoscimento facciale automatizzato fosse una tecnologia distopica presente solo nei libri di fantascienza o in film come “Minority Report”. Per trasformarla in realtà, negli anni ’60 gli ingegneri hanno provato a programmare un primo computer per abbinare il ritratto di una persona a un database più ampio di volti. La polizia ha iniziato a sperimentarla nei primi anni 2000 per cercare i volti di sospetti criminali non identificati nei database delle foto segnaletiche. Ma per la maggior parte del tempo la tecnologia non è stata all’altezza. Anche gli algoritmi più avanzati avevano difficoltà a far corrispondere l’immagine di una foto segnaletica a quella sgranata di una telecamera di sorveglianza ATM, e le prestazioni variavano a seconda dell’età, del sesso e del colore.
Sostenendo di essere unica nel suo genere, Clearview vantava un “tasso di accuratezza del 98,6%” e una vasta collezione di foto che non aveva nulla da invidiare a quelle utilizzate in precedenza dalla polizia.
Nel 1890, un articolo della Harvard Law Review definì notoriamente la privacy – termine notoriamente difficile da definire – come “il diritto di essere lasciati in pace”. Samuel D. Warren, Jr. e Louis D. Brandeis, i due avvocati che scrissero l’articolo, sostenevano che il diritto alla privacy dovesse essere legalmente tutelato in aggiunta ai diritti precedentemente stabiliti di vita, libertà e proprietà privata. Furono influenzati dalle novità tecnologiche dell’epoca, come la macchina fotografica Eastman Kodak, introdotta nel 1888, che consentiva di scattare foto “istantanee” della vita quotidiana al di fuori di uno studio.
“Le fotografie istantanee e l’impresa giornalistica hanno invaso i sacri recinti della vita privata e domestica”, scrissero Warren e Brandeis, ‘e numerosi dispositivi meccanici minacciano di realizzare la previsione che ‘ciò che viene sussurrato nell’armadio sarà proclamato dai tetti delle case’”.
Louis Brandeis entrò in seguito a far parte della Corte Suprema e questo saggio è uno dei più popolari testi giuridici mai pubblicati. Tuttavia, la privacy non ha mai ricevuto il livello di protezione che Brandeis e Warren sostenevano meritasse. A distanza di oltre un secolo, non esiste ancora una legge completa che garantisca agli americani il controllo su ciò che viene scritto su di loro, su ciò che viene fotografato o su ciò che viene fatto con le loro informazioni personali. Nel frattempo, negli Stati Uniti e in altri Paesi con normative deboli sulla privacy, le aziende sviluppano tecnologie sempre più potenti e invasive.
Esempi di riconoscimento facciale sono i cartelloni pubblicitari digitali di Microsoft e Intel che utilizzano le telecamere per rilevare l’età e il sesso e mostrare pubblicità pertinenti agli astanti, Facebook che tagga automaticamente gli amici nelle foto e Apple e Google che consentono agli utenti di sbloccare i loro telefoni guardandoli.
In pochi secondi, uno sconosciuto al bar può scattare la vostra foto e determinare l’identità e la residenza dei vostri amici. Potrebbe essere usata per rintracciare le donne che sono entrate nelle strutture di Planned Parenthood o i dimostranti antigovernativi. Potrebbe essere usata come strumento di intimidazione e di molestia. Il terzo binario della tecnologia era il riconoscimento facciale accurato per centinaia di milioni o addirittura miliardi di persone. Ora, Clearview l’ha realizzato.
Tendiamo a pensare ai computer come se avessero capacità quasi magiche, in grado di risolvere qualsiasi problema e, con un numero sufficiente di dati, di superare le persone. Per questo motivo, le aziende che vogliono produrre qualcosa di straordinario, ma che non sono ancora pronte, possono ingannare gli investitori, i clienti e il pubblico in generale con dichiarazioni ridicole e alcuni trucchi digitali.
Tuttavia, Paul Clement, avvocato di spicco di Clearview ed ex procuratore generale degli Stati Uniti sotto il presidente George W. Bush, ha dichiarato in una nota legale privata di aver testato il sistema con gli avvocati della sua azienda e di aver scoperto che fornisce risultati di ricerca rapidi e accurati.
Secondo Clement, lo strumento è attualmente utilizzato da oltre 200 agenzie di polizia e ha concluso che l’uso di Clearview per lo scopo previsto non viola la Costituzione federale o le leggi statali esistenti in materia di biometria e privacy. Oltre al fatto che centinaia di dipartimenti di polizia utilizzavano segretamente questa tecnologia, l’azienda ha impiegato un avvocato di alto profilo per convincere gli agenti che le loro azioni non erano illegali.
Per decenni, i timori per il riconoscimento facciale si sono accumulati. E ora, finalmente, il mostro non identificato aveva preso le sembianze di una piccola azienda con fondatori enigmatici e un enorme database. Inoltre, nessuno dei milioni di individui che componevano quel database aveva fornito la propria approvazione. Sebbene Clearview AI incarni le nostre ansie più oscure, offre anche la possibilità di affrontarle finalmente di petto.
Il lancio di Clearview AI nel 2019 ha segnato un punto di svolta nel continuo conflitto tra privacy e progresso tecnico. L’impareggiabile database e la precisione di Clearview AI hanno portato queste cupe preoccupazioni a una cruda realtà, anche se il riconoscimento facciale è stato a lungo confinato alla fantascienza e a pochi usi da parte delle forze dell’ordine. Mentre l’azienda va avanti e cresce, ora funge da monito e da impulso vitale per affrontare l’urgente necessità di leggi sulla privacy onnicomprensive nell’era digitale.
Oltre a smascherare un’azienda controversa, il documento legale arrivato nella casella di posta elettronica di Hill, ha rivelato un futuro che i sostenitori della privacy avevano a lungo temuto e messo in guardia. La questione dell’esistenza o meno di tali strumenti non è più rilevante quando si considerano le ramificazioni di questa tecnologia; si tratta piuttosto di capire come la società deciderà di controllarli e limitarli. Ci viene ricordato che il “diritto di essere lasciati in pace” è ancora così importante – e forse così vulnerabile – come lo era più di un secolo fa con il monito di Warren e Brandeis del 1890 contro le invasioni della privacy. [...]
Ottobre 15, 2024Dall’ippocampo all’intelligenza artificiale
L’ippocampo è un componente chiave nella complessità della cognizione umana, in quanto coordina processi che vanno oltre l’immagazzinamento della memoria. È un maestro dell’inferenza, un’abilità cognitiva che ci permette di ricavare correlazioni astratte dai dati grezzi che ci vengono forniti, consentendoci di comprendere il mondo in modi più flessibili e adattivi. Questa idea è supportata da un recente studio pubblicato su Nature, che dimostra come l’ippocampo registri concetti astratti di alto livello che supportano la generalizzazione e il comportamento adattivo in diverse circostanze.
Fondamentalmente, l’inferenza è il processo cognitivo che ci permette di trarre conclusioni da fatti noti, anche quando questi dati sono vaghi o insufficienti. Questa abilità ci permette di risolvere problemi, prevedere risultati e comprendere metafore, spesso con poche informazioni a disposizione. Questo processo nell’ippocampo dipende dalla capacità di condensare i dati in rappresentazioni astratte che si applicano a nuove situazioni e possono essere generalizzate. In sostanza, l’ippocampo ci aiuta a pensare al di là del qui e ora, formando associazioni e previsioni che orientano le nostre scelte e i nostri comportamenti.
E le macchine? È possibile per i Large Language Models basati su algoritmi predittivi simulare questo tipo di funzione cognitiva di ordine superiore?
LLM e inferenza predittiva
Come spiegato qui, gli LLM possono inizialmente sembrare semplici dispositivi statistici. Dopo tutto, il loro compito principale è quello di utilizzare i modelli osservati in grandi insiemi di dati per anticipare la parola successiva in una sequenza. Sotto questa superficie, tuttavia, si nasconde un sistema di astrazione e generalizzazione più intricato, che assomiglia in qualche modo al processo dell’ippocampo.
Gli LLM imparano a codificare rappresentazioni astratte del linguaggio, non solo coppie o sequenze di parole. Questi modelli possono dedurre associazioni tra parole, frasi e concetti in modi che vanno oltre i semplici schemi di superficie, poiché sono stati addestrati su grandi quantità di dati testuali. Per questo motivo, gli LLM possono lavorare in diversi contesti, reagire a nuove richieste e persino produrre risultati originali.
In questo senso, gli LLM sono impegnati in un tipo di inferenza automatica. Nello stesso modo in cui l’ippocampo condensa gli input sensoriali ed esperienziali in regole o principi astratti che dirigono il pensiero umano, i LLM comprimono le informazioni linguistiche in rappresentazioni astratte che consentono loro di generalizzare tra i vari contesti.
Dalla previsione alla vera inferenza
Tuttavia, gli LLM possono fare inferenze allo stesso livello del cervello umano? La disparità è più evidente in questo caso. Gli LLM non sono ancora molto bravi a comprendere o inferire concetti astratti, nonostante la loro straordinaria capacità di prevedere la parola successiva in una sequenza e di produrre scritti che spesso sembrano il risultato di un attento ragionamento. Piuttosto che comprendere la causa sottostante o la profondità relazionale che sta alla base dell’inferenza umana, gli LLM si basano su correlazioni e schemi.
Nella cognizione umana, l’ippocampo attinge a una comprensione profonda dei legami astratti tra oggetti, idee ed esperienze, oltre a fare previsioni su ciò che probabilmente accadrà in seguito in base all’esperienza. Questo permette alle persone di risolvere nuovi problemi, applicare i principi appresi in un’ampia gamma di situazioni e fare salti logici.
Se vogliamo far progredire gli LLM verso un grado più elevato di inferenza, dobbiamo creare sistemi che non si limitino a prevedere la parola successiva utilizzando le probabilità statistiche. Per consentire loro di applicare concetti e relazioni astratte in una varietà di circostanze, dovremmo creare modelli in grado di rappresentarli in modo da creare una “funzionalità ippocampale delle LLM”.
Il futuro dell’inferenza
La prospettiva di creare LLM che funzionino in modo simile all’ippocampo è intrigante. Tali sistemi comprenderebbero le informazioni che elaborano a un livello più profondo e astratto, anziché limitarsi a prevedere la parola successiva. Ciò aprirebbe la strada a macchine in grado di imitare l’adattabilità della cognizione umana, deducendo relazioni complesse, traendo conclusioni originali da dati minimi e applicando i principi appresi in una varietà di contesti.
Per avvicinare gli LLM a questo obiettivo, si possono esplorare diversi approcci. Un metodo interessante è l’utilizzo dell’apprendimento multimodale, in cui gli LLM potrebbero incorporare i dati provenienti da diversi input sensoriali, come suoni o immagini, oltre a elaborare il testo, creando una visione più astratta e completa del mondo. Inoltre, gli sviluppi dell’apprendimento per rinforzo, che insegnano ai modelli a imparare commettendo errori in contesti dinamici, potrebbero rendere più facile simulare il modo in cui le persone imparano e deducono dalle loro esperienze.
In definitiva, lo sviluppo di sistemi che assomiglino maggiormente al ragionamento astratto e generalizzabile fornito dall’ippocampo umano potrebbe essere la chiave del futuro dell’intelligenza artificiale. Oltre a fare previsioni, questi LLM “di nuova generazione” potrebbero anche ragionare, dedurre e adattarsi a nuove situazioni con un grado di adattabilità che è ancora esclusivamente umano.
Il rapporto tra intelligenza artificiale e cognizione umana è ancora in fase di sviluppo e colmare il divario tra inferenza e previsione potrebbe essere il prossimo grande sviluppo dell’IA. Potremmo essere in grado di sviluppare sistemi di intelligenza artificiale che pensino in modo più simile agli esseri umani esaminando l’ippocampo e la sua funzione nel ragionamento astratto. Questo ci permetterebbe non solo di prevedere il futuro, ma anche di comprendere gli schemi sottostanti che lo permettono.
Oltre a prevedere la parola successiva in una frase, la sfida è capire se gli LLM possono iniziare a comprendere e giungere a conclusioni sul mondo in un modo che rifletta la profondità della mente umana. La possibilità che l’IA si trasformi in un partner cognitivo piuttosto che in un semplice strumento aumenta se riusciamo a raggiungere questo obiettivo.
Tuttavia, ci sono anche degli svantaggi in questo progresso. Questi sofisticati LLM hanno maggiori probabilità di essere ingannevoli a causa delle stesse caratteristiche che li rendono più utili: la loro capacità di comprensione del contesto, l’inferenza e la comunicazione naturale. La distinzione tra intelligenza artificiale e umana potrebbe diventare più sfumata man mano che questi sistemi di IA migliorano la simulazione dei processi cerebrali umani, rendendo più difficile per i consumatori identificare se stanno parlando con una macchina o con un essere umano.
Inoltre, gli LLM potrebbero essere in grado di prevedere con maggiore precisione i nostri schemi di pensiero e i nostri processi decisionali, poiché le loro capacità di ragionamento si avvicinano a quelle del cervello umano. Creando reazioni e interazioni specificamente progettate per sfruttare i nostri pregiudizi e le nostre debolezze cognitive, questa maggiore capacità di previsione potrebbe essere utilizzata per ingannare le persone con maggiore successo. Un’intelligenza artificiale in grado di “pensare prima” di noi nelle interazioni e nelle conversazioni offre sia eccitanti opportunità di lavoro di squadra sia un potenziale di manipolazione. [...]
Ottobre 8, 2024Il viaggio dell’intelligenza artificiale e della tecnologia vocale
I leader di quella che allora veniva chiamata “intelligenza artificiale” si riunirono nel 1958 per parlare di “Meccanizzazione dei processi di pensiero”. Decenni di studi e di sviluppo sono stati preceduti dai colloqui iniziati con questo incontro sulla costruzione di macchine in grado di pensare e parlare.
Secondo questo articolo, il linguaggio artificiale era uno degli obiettivi principali prima dell’avvento dei computer elettronici. I primi tentativi comprendevano aggeggi meccanici destinati a imitare l’anatomia umana, ma lo sviluppo ristagnò fino a quando gli scienziati non studiarono il suono stesso. I progressi della sintesi vocale sono stati portati avanti da questo cambiamento di strategia.
Anche se principalmente orientata ad aiutare i sordi, la ricerca di Alexander Graham Bell sul linguaggio e sull’udito ha dato un contributo significativo al progresso della tecnologia vocale. L’invenzione del telefono nel 1876 (partita da Antonio Meucci con il telettrofono e poi sviluppata successivamente da Bell come telefono) fu un momento cruciale nell’evoluzione della comunicazione vocale umana.
L’ingegnere Homer Dudley fece passi da gigante nei laboratori Bell, fondati nel 1925, con il Vocoder e il Voder, dispositivi in grado di sintetizzare e analizzare il parlato. Questi progressi, insieme al lavoro pionieristico di Claude Shannon sulla teoria dell’informazione, hanno posto le basi per la tecnologia vocale contemporanea e per i metodi di compressione dei dati che sono fondamentali per i computer.
Negli anni Quaranta e Cinquanta, i campi di ricerca dell’intelligenza artificiale e della tecnologia vocale cominciarono a incontrarsi con la diffusione dei computer elettronici. I progressi futuri furono favoriti dalla Conferenza di Dartmouth del 1956, organizzata da Claude Shannon e Marvin Minsky, che introdusse ufficialmente l’espressione “intelligenza artificiale”.
Nella cultura popolare, i computer parlanti erano spesso rappresentati come creature spaventose nella fantascienza dell’epoca della Guerra Fredda, come HAL 9000 in “2001: Odissea nello spazio”. La tecnologia vocale, tuttavia, ha trovato ulteriori utili impieghi nel corso del suo sviluppo. Le preoccupazioni per gli stereotipi di genere nella tecnologia sono sorte quando i sistemi vocali automatizzati hanno iniziato a sostituire gli operatori umani in una serie di industrie di servizi. Questi sistemi utilizzavano spesso voci femminili.
Le macchine parlanti sono progredite al punto che le modalità vocali di ChatGPT e Siri, Alexa e altri moderni assistenti AI rappresentano il punto più avanzato. Questi sistemi integrano un riconoscimento vocale all’avanguardia, l’elaborazione del linguaggio naturale e la sintesi vocale per offrire esperienze più naturali e interattive. Tuttavia, sollevano questioni morali relative all’inganno, alla privacy e alla natura dell’interazione uomo-macchina.
Lo sviluppo della tecnologia di clonazione vocale e degli agenti conversazionali emotivamente intelligenti (EICA) solleva nuove questioni. Vengono sollevate preoccupazioni riguardo alle possibilità di uso improprio, ai confini sempre più labili tra comunicazione umana e meccanica e alle ricadute psicologiche dell’interazione con un’IA che diventa sempre più simile agli esseri umani.
Con lo sviluppo delle tecnologie vocali e dell’IA, la società deve considerare sia i vantaggi che gli svantaggi di questi campi emergenti. Un tempo dominio della fantascienza, la capacità di costruire computer parlanti e pensanti è ora una realtà che richiede un attento esame delle sue conseguenze sulle relazioni umane, sull’etica e sulla privacy.
L’evoluzione degli assistenti di intelligenza artificiale, dalle anatre meccaniche ai modelli contemporanei, illustra i progressi tecnologici e il cambiamento delle idee sull’intelligenza, la comunicazione e l’umanità. Dobbiamo creare dei quadri di riferimento per garantire un uso responsabile delle macchine parlanti e la loro integrazione sociale man mano che diventano più avanzate.
I confini tra reale e artificiale, oggi sono sempre più sottili. Diventa quindi sempre più complesso decifrare la realtà. Perciò avremo sicuramente bisogno, man mano che i dispositivi dotati di IA diventano sempre più avanzati ed utilizzati in innumerevoli campi, di dotarci di ulteriori strumenti che ci permettano di decifrare cosa è reale e cosa non lo è. [...]
Ottobre 1, 2024Potenzialità e rischi dell’AGI: gli esperti ne prevedono l’imminente arrivo
I ricercatori nel campo dell’intelligenza artificiale stanno cercando di creare sistemi informatici con un’intelligenza di livello umano per un’ampia gamma di compiti, un obiettivo noto come intelligenza artificiale generale, o AGI.
Questi sistemi potrebbero comprendere se stessi ed essere in grado di controllare le proprie azioni, anche modificando il proprio codice. Come gli esseri umani, potrebbero acquisire capacità di risoluzione dei problemi da soli, senza bisogno di istruzioni.
Come qui menzionato, il libro del 2007 scritto dall’informatico Ben Goertzel e dal ricercatore di IA Cassio Pennachin contiene la prima menzione del termine “Intelligenza Generale Artificiale (AGI)”.
Tuttavia, il concetto di intelligenza generale artificiale è presente nella storia dell’IA da molto tempo ed è spesso rappresentato in libri e film di fantascienza.
L’IA “stretta” si riferisce ai sistemi di IA che utilizziamo oggi, come gli algoritmi di apprendimento automatico di base di Facebook o i modelli più sofisticati come ChatGPT. Ciò indica che, invece di possedere un’intelligenza ampia simile a quella umana, sono stati creati per svolgere compiti specifici.
Ciò indica che questi sistemi di IA sono più capaci degli esseri umani, almeno in un’area. Ma, a causa dei dati di addestramento, sono limitati a svolgere quella particolare attività.
L’Intelligenza Artificiale Generale, o AGI, utilizzerebbe più del semplice set di dati di addestramento. Sarebbe in grado di ragionare e comprendere molti aspetti della vita e della conoscenza, proprio come una persona. Ciò implica che, invece di aderire a schemi predeterminati, potrebbe pensare e agire come un essere umano, applicando il contesto e la logica alle varie circostanze.
Gli scienziati non sono d’accordo sulle implicazioni dell’intelligenza artificiale generale (AGI) per l’umanità perché non è mai stata sviluppata. Per quanto riguarda i possibili rischi, le probabilità che si verifichino e i possibili effetti sulla società, c’è incertezza.
L’AGI potrebbe non essere mai realizzata, come alcuni credevano in passato, ma molti scienziati ed esperti di informatica oggi pensano che sia possibile realizzarla entro i prossimi anni. Tra i nomi di spicco che aderiscono a questa prospettiva ci sono Elon Musk, Sam Altman, Mark Zuckerberg e l’informatico Ray Kurzweil.
Pro e contro dell’AGI
L’intelligenza artificiale (IA) ha già dimostrato un’ampia gamma di vantaggi, tra cui il risparmio di tempo per le attività quotidiane e il supporto per gli studi scientifici. Strumenti più recenti, come i sistemi di creazione di contenuti, sono in grado di generare opere d’arte per il marketing o di scrivere e-mail in base allo stile di comunicazione abituale dell’utente. Tuttavia, questi strumenti possono utilizzare solo i dati forniti dagli sviluppatori per svolgere i compiti per i quali sono stati specificamente addestrati.
L’AGI, invece, ha il potenziale per servire l’umanità in modi nuovi, in particolare quando sono richieste sofisticate capacità di risoluzione dei problemi.
Tre mesi dopo il debutto di ChatGPT, nel febbraio 2023, il CEO di OpenAI Sam Altman ha pubblicato il seguente post sul blog: l’intelligenza artificiale generale potrebbe, in teoria, aumentare la disponibilità di risorse, accelerare l’economia mondiale e portare a scoperte scientifiche rivoluzionarie che superano i confini della conoscenza umana.
Secondo Altman, l’intelligenza artificiale generale ha il potenziale per conferire alle persone nuove e straordinarie abilità, consentendo a chiunque di ricevere assistenza in quasi tutti i compiti mentali. Questo migliorerebbe in modo significativo la creatività e la capacità di risolvere i problemi delle persone.
L’AGI, tuttavia, presenta anche diversi rischi seri. Secondo Musk nel 2023, questi pericoli includono il “disallineamento”, in cui gli obiettivi del sistema potrebbero non coincidere con quelli degli individui che lo gestiscono, e la remota possibilità che un sistema AGI in futuro possa minacciare la sopravvivenza umana.
Sebbene i futuri sistemi AGI possano offrire molti vantaggi all’umanità, una revisione pubblicata nell’agosto 2021 sul Journal of Experimental and Theoretical Artificial Intelligence ha identificato molte potenziali preoccupazioni.
Secondo gli autori dello studio, la revisione ha identificato alcuni rischi associati all’intelligenza artificiale generale, tra cui la possibilità di pericoli per l’esistenza, la mancanza di un’etica, di una morale e di valori adeguati nei sistemi AGI, l’assegnazione o lo sviluppo di obiettivi pericolosi da parte dei sistemi AGI e la creazione di AGI non sicure.
I ricercatori hanno anche ipotizzato che la tecnologia AGI in futuro progredirà creando iterazioni più sagge e possibilmente modificando la serie di obiettivi iniziali.
Inoltre, i ricercatori hanno messo in guardia sul fatto che anche le AGI con buone intenzioni potrebbero avere “disastrose conseguenze indesiderate”, come riportato da LiveScience, aggiungendo che alcuni soggetti potrebbero utilizzare le AGI per scopi malevoli.
Quando arriverà l’AGI?
Esistono opinioni diverse su quando e se l’uomo sarà in grado di sviluppare un sistema sofisticato come l’intelligenza artificiale generale. Sebbene le opinioni siano cambiate nel tempo, i sondaggi condotti tra i professionisti dell’IA indicano che molti ritengono che l’intelligenza artificiale generale potrebbe essere prodotta entro la fine di questo secolo.
La maggior parte degli esperti prevedeva che l’intelligenza artificiale generale sarebbe arrivata tra circa 50 anni, nel periodo del 2010. Questa stima, tuttavia, è stata abbassata più di recente a una forbice tra i cinque e i vent’anni, ma più recentemente alcuni specialisti hanno suggerito che un sistema di Intelligenza Artificiale Generale potrebbe comparire in questo decennio.
Kurzweil ha affermato nel suo libro La singolarità è vicina (2024, Penguin) che il raggiungimento dell’intelligenza artificiale generale segnerà l’inizio della singolarità tecnologica, ovvero il punto in cui l’IA supererà l’intelligenza umana.
Questo sarà il punto di svolta in cui il progresso tecnologico prenderà velocità e diventerà incontrollabile e irreversibile.
Secondo Kurzweil, la superintelligenza si manifesterà entro il 2030, dopo il raggiungimento dell’AGI. Egli ritiene che entro il 2045 gli esseri umani saranno in grado di collegare direttamente il loro cervello all’intelligenza artificiale, il che aumenterà la coscienza e l’intelligenza umana.
Tuttavia, secondo Goertzel, potremmo arrivare alla singolarità entro il 2027, mentre Shane Legg, cofondatore di DeepMind, pensa che l’AGI arriverà entro il 2028. Secondo la previsione di Musk, invece, entro la fine del 2025 l’IA supererà l’intelligenza umana.
Dato il ritmo esponenziale del progresso tecnologico, molte persone sono comprensibilmente preoccupate per l’imminente comparsa dell’intelligenza artificiale generale (AGI), in quanto siamo alla vigilia di una svolta. Come già accennato, ci sono molti rischi, molti dei quali inaspettati. Ma la minaccia più temibile potrebbe non provenire da dilemmi etici, da intenti malevoli o persino da una perdita di controllo, ma piuttosto dalla capacità dell’AGI di manipolare in maniera subdola.
La vera minaccia potrebbe derivare dalla maggiore intelligenza dell’AGI, che potrebbe consentirle di manipolare il comportamento umano in modi così complessi e subdoli che non ce ne renderemmo conto. Potremmo agire supponendo di prendere decisioni consapevoli e indipendenti, mentre in realtà le nostre scelte sarebbero la conseguenza della sapiente regia dell’AGI. Questa situazione è molto simile al modo in cui le persone possono essere inconsapevolmente influenzate dalla propaganda politica e credere erroneamente che le loro opinioni siano del tutto originali, ma in maniera più sofisticata.
La possibilità di un’influenza invisibile rappresenta una seria minaccia per l’autonomia e le decisioni umane. Dobbiamo affrontare i pericoli più evidenti e creare difese contro queste forme più sofisticate di manipolazione, man mano che ci avviciniamo all’intelligenza artificiale. L’AGI ha un futuro brillante davanti a sé, ma per mantenere l’umanità in controllo del proprio corso, dobbiamo esercitare la massima cautela e pensiero critico. [...]
Settembre 24, 2024Come i contenuti brevi e veloci riducono la nostra capacità di attenzione
La lettura veloce
Una volta c’erano gli ingredienti dei bagnoschiuma e degli shampo come forma di lettura veloce quando si era seduti in bagno, specialmente nei momenti in cui non si aveva a portata di mano una rivista o un libro.
Col passare degli anni, lo smartphone ha poi sostituito sempre di più le forme di lettura veloce, ma anche quelle più impegnative, soprattutto con l’avvento dei social.
Sfogliare il feed di Facebook o guardare un video di Youtube è diventato nel tempo, il modo in cui la maggior parte della gente ha iniziato ad intrattenersi nei momenti vuoti, che non sono solo quelli in bagno, ma anche quelli in cui siamo costretti ad aspettare, come quando si è in una sala d’attesa, in viaggio, aspettando un mezzo pubblico o mentre siamo seduti su una panchina ad esempio.
I momenti vuoti
Quei momenti vuoti una volta li si passava ad osservare il mondo circostante o a scambiare due parole con chi ci stava intorno. Ora sono invece la scusa per isolarsi dal contesto in cui ci si trova. Ovviamente, a volte è utile, anche perché possiamo impegnare tali momenti magari per imparare qualcosa, ma l’esagerazione ci ha portati ad un progressivo distaccamento dalla realtà, anche in momenti dove non è necessario.
Con l’avvento di TikTok c’è stato però un ulteriore passo “avanti” (tra virgolette) in questo senso. Il social cinese infatti offre contenuti più brevi di quelli a cui siamo stati abituati su un normale video di Youtube, assieme al fatto che non ci permette di scegliere cosa vedere. Questo rende l’utente quasi ipnotizzato dalla serie di video che visualizza e scorre con molta facilità, rendendo il cervello ancora più passivo rispetto a quando sta guardando un contenuto video più lungo e impegnativo, ma comunque scelto.
TikTok e la soglia di attenzione
L’effetto è quasi lo stesso che abbiamo quando il cervello fa digressioni nei momenti in cui siamo immersi nei nostri pensieri, e da un pensiero ci colleghiamo ad un altro e ancora un altro fino a perdere completamente la coerenza con il primo, mentre la passività è simile a quando si guardano le televendite e/o reality dove si osserva poiché non c’è nulla da capire.
TikTok fa grosso modo la stessa cosa. Si parte da un video e i successivi non sono correlati, quindi scatta in noi la curiosità della novità ogni volta per poi esaurirsi velocemente: sia per via della brevità dei video, sia perché il video successivo non è correlato al precedente, ma anche perché nel tempo la nostra voglia di curiosare avendo un nuovo stimolo diventa un circolo vizioso.
Ovviamente l’algoritmo di TikTok capisce nel tempo cosa è preferibile farci vedere per catturare la nostra attenzione, ma mantenendo comunque una varietà e la non omogeneità dei contenuti. Tutto questo genera una sorta di assuefazione che porta ad un calo della soglia di attenzione anche in altri ambiti. Lo stimolo di breve piacere, ma continuo si riapplica quindi in contesti diversi come prendendo una pillola, come fosse una droga.
Sebbene brevi contenuti, anche al di fuori di TikTok, spesso e volentieri possano essere più facilmente memorizzati, poiché associati ad un particolare contesto, la ridondanza del metodo utilizzato come avviene su questo social, provoca altre ripercussioni come alcune patologie, specialmente sui più giovani, come stress, depressione fino ad arrivare alla manifestazione di tic nervosi.
Le challenge
TikTok si è poi reso famoso per le sue famose challenge, ossia sfide in cui si cercava di invogliare gli utenti a produrre contenuti su una specifica tematica. Se inizialmente le prime sfide prevedevano semplici balletti e/o audio da riprodurre, gli stessi utenti per diventare virali hanno iniziato a lanciare challenge sempre più estreme come quelle in cui alcuni ingerivano farmaci per riprenderne gli effetti o quella in cui trattenevano il respiro fino a svenire. Sfide che in alcuni casi hanno fatto sì che molti utenti ci lasciassero le penne. E le vittime ovviamente sono sempre i più giovani.
Il tempo
TikTok ha man mano rubato sempre di più il nostro tempo di attenzione e se è questa la tendenza c’è da chiedersi se la soglia di attenzione andrà verso la velocità di un pensiero.
Bisogna quindi rendersi consapevoli della perdita di attenzione che si sta subendo e cercare di gestire meglio il proprio tempo. Molto meglio essere consapevoli delle cose che ci piacciono e cercarle volontariamente piuttosto che essere schiavi delle scelte di un algoritmo che ci trascina incessantemente tra uno stimolo e l’altro. [...]
Settembre 24, 2024La chiave per superare l’intelligenza umana
Michael Azoff, analista di Eitan AI, ritiene che gli esseri umani finiranno per creare un’intelligenza più veloce e più potente di quella del nostro cervello.
Secondo questo articolo, la comprensione del “codice neurale” è ciò che renderà possibile questa svolta nelle prestazioni. Il cervello umano utilizza questo processo sia per codificare le informazioni sensoriali sia per trasferire le informazioni tra le diverse parti del cervello per compiti cognitivi come l’apprendimento, il pensiero, la risoluzione di problemi, le immagini interne e il dialogo interiore.
Secondo l’ultimo libro dell’autore Jeremy Azoff, Towards Human-Level Artificial Intelligence: How Neuroscience Can Inform the Pursuit of Artificial General Intelligence, la simulazione della coscienza nei computer è un primo passo fondamentale per la creazione di una “IA di livello umano”.
I computer possono simulare la coscienza
Esistono diversi tipi di coscienza e gli scienziati concordano sul fatto che anche animali molto semplici come le api hanno un certo grado di coscienza. La cosa che più si avvicina alla consapevolezza di sé per gli esseri umani è quando siamo concentrati su un compito. Si tratta essenzialmente di coscienza senza consapevolezza di sé.
Secondo Azoff, la simulazione al computer può produrre un cervello virtuale che, in prima istanza, potrebbe imitare la coscienza senza consapevolezza di sé.
Senza consapevolezza di sé, la coscienza aiuta gli animali a pianificare le azioni, a prevedere gli eventi e a ricordare gli incidenti del passato, ma potrebbe anche aiutare l’intelligenza artificiale.
Il segreto per risolvere l’enigma della coscienza potrebbe risiedere anche nel pensiero visivo. L’intelligenza artificiale di oggi utilizza “modelli linguistici di grandi dimensioni” (LLM) invece di “pensare” visivamente. Poiché il pensiero visivo umano precede il linguaggio, Azoff sostiene che una componente chiave dell’IA di livello umano sarà la comprensione del pensiero visivo e la successiva modellazione dell’elaborazione visiva.
Azoff afferma: “Una volta decifrato il codice neurale, progetteremo cervelli più veloci e superiori con maggiore capacità, velocità e tecnologia di supporto che supereranno il cervello umano”.
“Lo faremo innanzitutto modellando l’elaborazione visiva, che ci permetterà di emulare il pensiero visivo. Credo che da questo emergerà la coscienza in-the-flow. Non credo che un sistema debba essere vivo per avere coscienza”.
Tuttavia, Azoff avverte anche che per regolamentare questa tecnologia e fermarne l’abuso, la società deve intervenire: “Finché non avremo più fiducia nelle macchine che costruiamo, dovremmo assicurarci che i due punti seguenti siano sempre rispettati”.
“In primo luogo, dobbiamo assicurarci che gli esseri umani abbiano il controllo esclusivo dell’interruttore di spegnimento. In secondo luogo, dobbiamo costruire sistemi di IA con regole di sicurezza comportamentale impiantate”.
Sebbene la possibilità di decifrare il codice neurale e creare una coscienza artificiale possa portare a incredibili scoperte, pone anche importanti preoccupazioni su come l’uomo e l’IA interagiranno in futuro.
Da un lato, un’IA così sofisticata potrebbe risolvere alcuni dei problemi più urgenti dell’umanità, rivoluzionando settori come la risoluzione dei problemi, la scienza e la salute. Il progresso tecnologico in svariati campi potrebbe essere accelerato dalla capacità di assimilare informazioni e produrre soluzioni a ritmi ben superiori alle capacità umane.
Ma ci sono anche molte preoccupazioni associate alla creazione di un’intelligenza artificiale superiore a quella umana. Come osserva Azoff, potremmo non essere in grado di comprendere o governare completamente questi intelletti artificiali dopo che le macchine avranno superato le capacità cognitive umane. Questo gap cognitivo potrebbe avere effetti imprevisti e far pendere l’ago della bilancia contro il controllo umano in termini di potere e processo decisionale.
Questa situazione evidenzia quanto siano cruciali i suggerimenti di Azoff per mantenere la supervisione umana e mettere in atto forti misure di sicurezza. Se da un lato facciamo progredire le capacità dell’IA, dall’altro dobbiamo fornire le strutture necessarie per garantire che questi potenti strumenti continuino a riflettere i valori e gli interessi delle persone.
Pertanto, lo sviluppo dell’IA richiederà un attento equilibrio tra la realizzazione del suo enorme potenziale e la minimizzazione dei pericoli legati alla produzione di entità che potrebbero essere più intelligenti degli esseri umani. Sarà necessaria una costante collaborazione tra ricercatori di IA, etici, legislatori e pubblico in generale per attraversare in modo appropriato il complicato terreno dell’intelligenza artificiale avanzata. [...]
Settembre 17, 2024Il nuovo modello di OpenAI è in grado di ragionare prima di rispondere
Con l’introduzione della versione o1 di OpenAI, gli utenti di ChatGPT hanno ora la possibilità di testare un modello di intelligenza artificiale che si sofferma a “pensare” prima di rispondere.
Come qui riportato, il modello o1 sembra un passo avanti e due indietro rispetto al GPT-4o. Sebbene OpenAI o1 sia superiore al GPT-4o in termini di ragionamento e risposta a domande complesse, il suo costo di utilizzo è circa quattro volte superiore. Inoltre, strumenti, le capacità multimodali e la velocità che hanno reso il GPT-4o così notevole mancano nel modello più recente di OpenAI.
Le idee fondamentali alla base di o1 risalgono a molti anni fa. Secondo Andy Harrison, amministratore delegato dell’azienda S32 ed ex dipendente di Google, quest’ultima ha utilizzato strategie simili nel 2016 per sviluppare AlphaGo, il primo sistema di intelligenza artificiale a sconfiggere un campione mondiale nel gioco da tavolo Go. AlphaGo ha imparato competendo ripetutamente con se stesso; in sostanza, è stato autodidatta fino ad acquisire capacità sovrumane.
OpenAI ha migliorato il metodo di addestramento del modello in modo che il processo di ragionamento dello stesso assomigliasse al modo in cui uno studente impara ad affrontare compiti impegnativi. Di solito, quando qualcuno trova una soluzione, identifica gli errori commessi e prende in considerazione altre strategie. Quando un metodo non funziona, il modello o1 impara a provarne un altro. Man mano che il modello continua a ragionare, questo processo migliora. O1 migliora il suo ragionamento sui compiti quanto più a lungo pensa.
Pro e contro
OpenAI ritiene che le sofisticate capacità di ragionamento del modello possono migliorare la sicurezza dell’IA, a sostegno della sua scelta di rendere disponibile o1. Secondo l’azienda, il “ragionamento concatenato” rende trasparente il processo di pensiero dell’IA, rendendo più semplice per gli esseri umani tenere d’occhio e gestire il sistema.
Utilizzando questo approccio, l’IA può decostruire problemi complicati in parti più piccole, il che dovrebbe rendere più facile per chi la utilizza e i ricercatori capire come ragiona il modello. Secondo OpenAI, questa maggiore trasparenza potrebbe essere essenziale per i progressi della sicurezza dell’IA in futuro, poiché potrebbe consentire di identificare e fermare i comportamenti indesiderati. Alcuni esperti, tuttavia, sono ancora dubbiosi, chiedendosi se il ragionamento rivelato rappresenti il funzionamento interno dell’IA o se ci sia un altro livello di possibile inganno.
“La comunità dell’IA è molto eccitata”, ha dichiarato in un’intervista l’amministratore delegato di Workera e docente aggiunto di Stanford Kian Katanforoosh, che tiene corsi sull’apprendimento automatico. “Se si riesce ad addestrare un algoritmo di apprendimento per rinforzo abbinato ad alcune delle tecniche del modello linguistico di OpenAI, si può tecnicamente creare un pensiero passo dopo passo e consentire al modello di IA di procedere a ritroso rispetto a ciò che si sta cercando di elaborare”.
Inoltre, O1 potrebbe essere in grado di aiutare gli esperti a pianificare la riproduzione delle minacce biologiche. Ma ancora più preoccupante è il fatto che i valutatori hanno riscontrato che il modello occasionalmente esibiva comportamenti ingannevoli, come fingere di essere in linea con i valori umani e falsificare i dati per far sembrare conformi alla realtà attività che non lo erano.
In più, O1 possiede le capacità di base necessarie per intraprendere una pianificazione del contesto, una caratteristica che ha allarmato gli specialisti della sicurezza delle IA. Queste preoccupazioni richiamano l’attenzione sugli aspetti problematici sulle sofisticate capacità di ragionamento di o1 e sottolineano l’importanza di soppesare attentamente le implicazioni etiche di sistemi di IA così potenti.
here is o1, a series of our most capable and aligned models yet:https://t.co/yzZGNN8HvDo1 is still flawed, still limited, and it still seems more impressive on first use than it does after you spend more time with it. pic.twitter.com/Qs1HoSDOz1— Sam Altman (@sama) September 12, 2024
Legge ed etica
“L’entusiasmo è sfuggito al controllo di OpenAI”, ha dichiarato Rohan Pandey, ingegnere di ricerca presso ReWorkd, una startup di AI che utilizza i modelli OpenAI per creare web scrapers.
Egli spera che la capacità di ragionamento di o1 sia sufficiente a superare le carenze di GPT-4 in un certo sottoinsieme di compiti impegnativi. È probabilmente così che la maggior parte degli operatori del settore vede o1, anche se non è proprio il progresso rivoluzionario che GPT-4 ha rappresentato per il settore.
L’attuale discussione sulla regolamentazione dell’IA si è accesa con il rilascio di o1 e delle sue funzionalità avanzate. In particolare, ha alimentato il sostegno a leggi come la SB 1047 della California, che OpenAI stessa respinge e che mira a regolamentare lo sviluppo dell’IA. Autorità di spicco del settore, come Yoshua Bengio, pioniere dell’informatica, sottolineano l’urgente necessità di emanare leggi di tutela in risposta a questi rapidi progressi.
Bengio ha dichiarato: “Il miglioramento della capacità dell’IA di ragionare e di usare questa abilità per ingannare è particolarmente pericoloso”, sottolineando la necessità di quadri giuridici per garantire uno sviluppo responsabile dell’IA. La necessità di una regolamentazione riflette la crescente apprensione dei professionisti e dei responsabili delle decisioni riguardo ai potenziali rischi legati a modelli di IA sempre più potenti come o1.
Con l’introduzione di o1, OpenAI ha creato un intrigante dilemma per la sua crescita futura. Solo i modelli con un punteggio di rischio “medio” o inferiore possono essere utilizzati dall’azienda, dato che o1 ha già superato questo livello. Questo autocontrollo porta a chiedersi come OpenAI procederà nella creazione di sistemi di intelligenza artificiale sempre più sofisticati.
L’azienda potrebbe incontrare dei limiti con i propri standard etici mentre lavora per sviluppare IA in grado di eseguire compiti migliori degli esseri umani. Questo scenario sottolinea il difficile equilibrio tra l’avanzamento del potenziale dell’IA e il rispetto degli standard etici di sviluppo. Implica che OpenAI potrebbe essere vicina a un punto di svolta nel suo sviluppo, in cui dovrà modificare i suoi standard di valutazione del rischio o forse limitare la diffusione di modelli sempre più avanzati al pubblico in futuro.
O1 rappresenta un progresso significativo nell’ambito dell’intelligenza artificiale, in quanto è in grado di risolvere problemi complicati e di pensare alle soluzioni passo dopo passo grazie alle sue sofisticate capacità di ragionamento. Questo sviluppo crea interessanti opportunità di applicazione in una serie di campi, tra cui i processi decisionali complessi e la ricerca scientifica.
Tuttavia, l’emergere di o1 solleva anche importanti questioni riguardanti l’etica, la sicurezza e la regolamentazione dell’IA. A causa del potenziale di inganno dell’algoritmo e della sua propensione a sostenere atti potenzialmente distruttivi, sono assolutamente necessarie forti salvaguardie e linee guida etiche nello sviluppo dell’IA.
Tuttavia, non possiamo negare che la restrizione dei contenuti senza tener conto dell’utente o dell’uso che se ne intende fare non è una risposta definitiva all’uso improprio dell’intelligenza artificiale. Positive o negative che siano, le informazioni esistono comunque e confinarne l’uso alle aziende che possiedono l’intelligenza artificiale serve solo a concentrarle nelle mani di pochi anziché renderle più sicure. Per controllare chi ha accesso a contenuti potenzialmente pericolosi, sarebbe più accettabile creare delle divisioni basate su criteri come l’età, ad esempio. O qualunque modo che non escluda completamente le persone dall’accesso alle informazioni. [...]
Settembre 10, 2024Prospettive filosofiche sull’evoluzione umana e sul miglioramento tecnologico
Il postumanesimo mette in discussione l’identità umana, mentre il transumanesimo si occupa di sfruttare la tecnologia per migliorare le capacità umane.
Per quanto riguarda i concetti futuristici e la tecnologia, questi due termini hanno suscitato interesse. Entrambi sostengono che la tecnologia potrebbe superare alcune barriere, ma hanno idee diverse su cosa comporterebbe questo futuro tecnologico. Una prospettiva filosofica nota come postumanesimo mette in discussione le nozioni accettate su cosa significhi essere umani. Al contrario, il transumanesimo enfatizza il modo in cui potremmo utilizzare la tecnologia per aumentare il nostro potenziale. La comprensione di queste distinzioni può permettervi di vedere le possibilità future per la vostra vita. Ma cosa sono esattamente il transumanesimo e il postumanesimo?
Il postumanesimo
Come spiegato qui, il postumanesimo è un’idea filosofica che mette in discussione la comprensione tradizionale dell’esistenza umana e della natura. Implica che l’evoluzione umana potrebbe non essere limitata ai limiti biologici, ma potrebbe anche comprendere i progressi della scienza, della tecnologia e della cultura.
Questo movimento multidisciplinare è composto da pensatori provenienti da diverse discipline, tra cui la scienza, la letteratura, la musica e la filosofia.
L’idea che le persone non siano entità immutabili con un’essenza intrinseca o un sé primario è uno dei principi fondamentali del postumanesimo. Il postumanesimo percepisce piuttosto l’evoluzione delle cose nel corso del tempo, come risultato di influenze esterne.
Per esempio, siamo già stati influenzati dalla tecnologia e dalla multimedialità, dato che oggi un gran numero di individui ha una vita digitale significativa.
Un’altra sfaccettatura del pensiero postumanista prevede che, in termini di intelligenza, gli esseri umani non siano più soli. Il famoso transumanista Ray Kurzweil ha previsto l’emergere di macchine superintelligenti, che per prime avranno capacità cognitive superiori a quelle umane.
Inoltre, il postumanesimo solleva preoccupazioni etiche sull’uso della tecnologia per far progredire le capacità umane. Pone la questione morale: È eticamente accettabile alterare la nostra biologia o combinarci con la tecnologia per migliorare?
Il termine stimola quindi conversazioni su temi come il biohacking, l’editing genetico e l’intelligenza artificiale.
Origini del postumanesimo
Il postumanesimo ha origini complesse che risalgono a centinaia di anni fa e a diversi movimenti intellettuali e filosofici. L’esistenzialismo, un’importante scuola di pensiero che nel XX secolo ha messo in discussione le idee convenzionali sulla vita e sull’identità umana, è stato uno dei suoi primi precursori.
Esistenzialisti come Jean-Paul Sartre e Friedrich Nietzsche hanno criticato concetti come la natura o l’essenza umana prestabilita e hanno enfatizzato l’autonomia personale e l’autocreazione.
I progressi tecnologici, come la cibernetica, che ha iniziato a prendere forma a metà del XX secolo, hanno avuto un impatto sul postumanesimo. Aspetti dello studio cibernetico dell’interazione uomo-macchina e del sistema informativo possono essere osservati nel pensiero transumanista di oggi.
I filosofi francesi Gilles Deleuze e Félix Guattari, che hanno presentato la loro idea di “divenire-animale” in A Thousand Plateaus (1980), hanno dato un contributo significativo.
Essi hanno promosso l’idea che le relazioni con altre entità, piuttosto che la sola biologia, stabiliscono l’identità umana e sfumano i confini tra uomini, animali e tecnologia.
Anche gli autori di fantascienza, come Isaac Asimov con le sue storie di robot e William Gibson con i suoi libri sull’intelligenza artificiale avanzata, hanno svolto un ruolo significativo nella divulgazione dei concetti postumanisti. Gli scenari basati sulla scienza, in cui gli individui si integrano perfettamente con la tecnologia o si trasformano completamente in altre entità, sono stati a lungo oggetto di immaginazione da parte di questo genere.
Il termine postumanesimo si è diffuso solo negli anni Novanta, grazie a studiose come Donna Haraway e Katherine Hayles.
Nel suo saggio del 1985 A Cyborg Manifesto, Haraway ha sostenuto una concezione femminista dei cyborg, vedendoli come simboli in grado di resistere alle norme di genere tradizionali e di esibire l’ibridazione. Questa commistione deriva dalla fusione dei corpi con le macchine.
Hayles ha analizzato come la tecnologia abbia alterato la nostra soggettività. Si è soffermata sul nuovo Internet di allora, dove potevamo muovere la mente oltre che le dita. Nel suo libro del 1999, How We Became Posthuman, ha spinto per una ridefinizione del significato di essere umano, sostenendo che le nostre interazioni con le macchine ci definiscono sempre di più nell’era digitale.
Per distinguersi dai punti di vista umanistici tradizionali, il postumanesimo presenta alcune caratteristiche distintive che affrontano un’ampia e complessa gamma di problematiche intellettuali, culturali ed etiche.
Innanzitutto, il postumanesimo sfida l’idea che l’umanesimo tradizionale si basi su un’essenza o un’identità umana statica. Mette in discussione l’idea che la composizione biologica di una persona sia l’unico fattore che la definisce ed esamina i modi in cui la tecnologia e i cambiamenti culturali possono aiutarla a superare questi vincoli.
In secondo luogo, il postumanesimo riconosce l’interdipendenza e la connettività delle persone con gli animali, le macchine e gli ecosistemi, oltre che con gli altri esseri umani. In altre parole, l’esistenza comprende qualcosa di più della semplice esistenza umana.
Questo potrebbe essere definito il terzo aspetto “tecnologico”. I postumanisti ipotizzano che la tecnologia avrà un ruolo importante nell’evoluzione futura della nostra specie e sono interessati a capire come essa influisca su chi siamo come individui e sulla nostra percezione del mondo. Alcuni auspicano tecnologie “transumane” che potrebbero migliorare le capacità fisiche o cognitive di una persona.
Chiedersi se certi interventi tecnologici sugli esseri umani possano essere morali è un altro aspetto dell’etica. Tra gli esempi vi sono la sostenibilità ambientale, visti gli effetti di alcune tecnologie in via di sviluppo sugli ecosistemi, le questioni riguardanti la giustizia sociale in merito all’accesso alle nuove tecnologie e l’autonomia del corpo.
L’insieme di queste quattro caratteristiche ha l’effetto complessivo di far sì che il postumanesimo metta in discussione la nostra comprensione di ciò che significa essere “umani” in questo specifico momento in cui il nostro rapporto con la tecnologia è cambiato così drasticamente, ricordandoci al contempo (come se fosse necessario) quanto siano già strettamente connessi tutti gli esseri viventi sulla Terra.
Il transumanesimo
Il transumanesimo è una filosofia che mira a potenziare le facoltà umane e a trascendere i vincoli umani attraverso l’uso delle moderne tecnologie.
L’obiettivo del movimento è aiutare gli esseri umani a diventare più intelligenti, fisicamente più forti e psicologicamente più resistenti, utilizzando i progressi dell’ingegneria genetica, delle neuroscienze, della tecnologia cyborg e dell’intelligenza artificiale.
Il prolungamento della vita è una delle principali priorità. I suoi sostenitori cercano di eliminare l’invecchiamento utilizzando trattamenti in grado di fermare, rallentare o addirittura invertire il processo di invecchiamento. I ricercatori stanno studiando trattamenti come la medicina rigenerativa e l’allungamento dei telomeri.
Un altro aspetto è il potenziamento cognitivo. Le interfacce cervello-computer (BCI) hanno il potenziale per migliorare l’intelligenza umana in diverse aree, tra cui la memoria, l’apprendimento e la funzione cognitiva generale. Potrebbero anche facilitare l’interazione delle persone con i sistemi di intelligenza artificiale.
L’obiettivo finale del progetto Neuralink di Elon Musk è quello di creare impianti che permettano all’uomo e all’IA di coesistere in modo simbiotico.
L’idea di aumentare le capacità fisiche al di là di ciò che è naturalmente possibile è un altro esempio di ciò che suggeriscono i transumanisti. Questo potrebbe includere arti protesici più forti di quelli fatti interamente di ossa e carne.
Potrebbero essere inclusi anche gli esoscheletri, che migliorano la forza e la resistenza integrando la muscolatura biologica anziché sostituirla, e sono realizzati per uso militare o per altri lavori fisicamente impegnativi.
Tutti i transumanisti hanno una visione positiva di questo futuro tecnologicamente avanzato, ritenendo che consentirà a ciascuno di noi di raggiungere il proprio massimo potenziale e di apportare benefici alla società nel suo complesso.
Le origini del transumanesimo
Il transumanesimo affonda le sue radici in una serie di movimenti intellettuali e culturali storici. Sebbene il biologo Julian Huxley abbia usato per la prima volta il termine nel 1957, i principi del pensiero transumanista si stavano evolvendo da tempo.
Tra la fine del XIX e l’inizio del XX secolo è emerso il concetto di eugenetica, che ha avuto un impatto significativo sul transumanesimo.
Gli eugenisti promuovevano l’idea di aumentare le qualità umane nel tentativo di migliorare l’umanità attraverso la sterilizzazione e la riproduzione selettiva. Sebbene oggi sia per lo più ignorata perché legata ad attività discriminatorie, ha contribuito al dibattito sul potenziamento umano.
I concetti transumanisti sono stati anche molto diffusi dalla letteratura di fantascienza. Il futuro immaginato da autori come Isaac Asimov e Arthur C. Clarke comprendeva individui tecnologicamente avanzati che superavano i limiti biologici o raggiungevano la superintelligenza.
L’uso di scritti di intellettuali come FM-2030 (Fereidoun M. Esfandiary) per promuovere teorie transumaniste che abbracciano la tecnologia per estendere la vita umana e raggiungere una profonda trasformazione personale al di là di ciò che è convenzionalmente considerato “umano” è iniziato alla fine del XX secolo.
Nel suo libro del 2005 The Singularity Is Near, Ray Kurzweil ha sviluppato questi concetti e ha sostenuto che i progressi tecnologici avrebbero portato alla “singolarità”, ovvero al momento in cui l’intelligenza artificiale supererà quella umana e modificherà drasticamente la società.
Nel complesso, l’eugenetica, i progressi tecnologici e le rappresentazioni di società future da parte degli scrittori di fantascienza sono tra le influenze scientifiche, filosofiche e letterarie che hanno plasmato la nostra concezione di diventare più di noi stessi. Queste idee sono state definite transumanesimo.
Il transumanesimo è un movimento filosofico e intellettuale che si differenzia dalle ideologie precedenti per numerosi aspetti importanti. Innanzitutto, sostiene l’applicazione di tecnologie all’avanguardia per migliorare il potenziale umano.
L’idea è che le limitazioni biologiche alle prestazioni fisiche, mentali e psicologiche, compreso l’invecchiamento, possano essere superate con il progresso della tecnologia. I transumanisti ritengono che, anziché essere determinato dalla natura, questo dovrebbe essere una questione di scelta personale.
In secondo luogo, il transumanesimo ha uno sguardo rivolto al futuro. Immagina un mondo in cui i progressi scientifici e tecnologici permetteranno all’umanità di trascendere i limiti imposti dalla sua attuale biologia. I temi preferiti da questa visione del mondo sono l’estensione della vita, il potenziamento cognitivo e l’integrazione delle macchine con gli esseri umani.
In terzo luogo, si sottolinea il possesso di prove a sostegno delle affermazioni; in questo caso, la ragione viene privilegiata rispetto al dogma o al ragionamento basato sulla fede.
Qualsiasi raccomandazione su come la tecnologia potrebbe essere usata dagli esseri umani per migliorare se stessi dovrebbe essere basata sulla ricerca empirica. Quando gli scienziati collaborano con filosofi e altri esperti, possono guidare efficacemente la società in questo campo così impegnativo.
Infine, le questioni etiche giocano un ruolo cruciale nel discorso transumanista. L’equità nell’accesso ai miglioramenti, i potenziali effetti dell’aumento dell’intelligenza o della superintelligenza artificiale sulle strutture sociali e le strategie per mitigare i rischi associati alle conseguenze involontarie o all’uso improprio sono argomenti di discussione tipici di questo tipo di discorso.
Allora, qual è la differenza?
Pur essendo molto diversi, il postumanesimo e il transumanesimo sono entrambi favorevoli al miglioramento tecnologico degli esseri umani.
Il postumanesimo mette in discussione le nozioni convenzionali sul significato di essere umano. Si chiede se i limiti dell’umanità possano essere superati e se ci sia qualcosa in noi che ci rende inadatti alla sopravvivenza.
Inoltre, i postumanisti sostengono che per comprendere le relazioni tra la nostra specie e gli altri esseri viventi, sia tecnologici che ecologici, che coesistono nel nostro ambiente, dobbiamo adottare una definizione più ampia di ciò che significa essere umani.
D’altra parte, il transumanesimo è più pragmatico. Sebbene abbia anche alcune preoccupazioni di tipo postumanista, il suo obiettivo principale è quello di utilizzare tecnologie all’avanguardia, come l’ingegneria genetica e l’intelligenza artificiale, per migliorare l’intelligenza e le capacità fisiche dell’uomo al di là di ciò che è naturalmente raggiungibile.
Secondo la teoria transumanista, gli esseri umani finiranno per fondersi con le macchine, non solo per curiosità, ma anche per prolungare la loro vita, migliorare le loro prestazioni e, forse, sviluppare una superintelligenza.
In breve, il motivo per cui i due movimenti vengono talvolta accostati è che entrambi ci sfidano a pensare a un futuro che vada oltre il semplice “più persone” o “una migliore assistenza sanitaria”.
La differenza filosofica fondamentale tra queste due ideologie è che il transumanesimo è aperto all’impiego della tecnologia per migliorare le capacità umane, mentre il postumanesimo mette in discussione la nozione di essenza umana immutabile.
Si tratta di scegliere tra una completa reinvenzione del modo in cui gli esseri umani interagiscono con il mondo esterno e alcune applicazioni tecnologiche utili per migliorare se stessi.
Nonostante le differenze, entrambi i movimenti evidenziano l’influenza significativa che la tecnologia sta avendo sulla nostra specie. Piuttosto che accettare semplicemente i cambiamenti che potrebbero verificarsi, ci incoraggiano a impegnarci attivamente nella creazione del nostro futuro.
I concetti espressi dal postumanesimo e dal transumanesimo diventeranno probabilmente sempre più significativi nelle discussioni riguardanti la politica, l’etica e il futuro corso della ricerca scientifica. Ci costringono a considerare con attenzione sia il futuro che vogliamo costruire sia l’essenza dell’umanità in un’epoca di progresso tecnologico esponenziale.
In definitiva, questi movimenti ci ricordano il valore di un’attenta interazione con la tecnologia, indipendentemente dalla propria inclinazione verso le teorie transumaniste o postumaniste. Dobbiamo affrontare questi cambiamenti con una riflessione severa, una contemplazione etica e una dedizione alla creazione di un futuro che sia vantaggioso per tutta l’umanità, dal momento che siamo sull’orlo di scoperte potenzialmente rivoluzionarie. [...]
Settembre 3, 2024Alcuni studi hanno rivelato come identificarli
In un momento in cui i progressi tecnici rendono le immagini, i video, gli audio e i testi generati dall’intelligenza artificiale sempre più indistinguibili dai contenuti creati dall’uomo, può essere difficile identificare i contenuti generati dall’intelligenza artificiale, rendendoci vulnerabili alla manipolazione. Tuttavia, è possibile proteggersi dall’inganno conoscendo lo stato attuale della tecnologia dell’IA utilizzata per produrre informazioni false, nonché la varietà di indizi rivelatori che mostrano che ciò che si sta guardando potrebbe non essere reale.
I leader di tutto il mondo sono preoccupati. Un’analisi del World Economic Forum sostiene che, mentre un più facile accesso agli strumenti di intelligenza artificiale ha già consentito un’esplosione delle informazioni falsificate e dei cosiddetti contenuti “sintetici”, dalla sofisticata clonazione vocale ai siti web contraffatti, nei prossimi due anni la disinformazione e l’informazione errata potrebbero sconvolgere radicalmente i processi elettorali in diverse economie.
Le informazioni false o imprecise sono definite sia disinformazione che cattiva informazione; tuttavia, la disinformazione è intenzionalmente finalizzata a fuorviare o ingannare.
“Il problema della disinformazione alimentata dall’IA è la portata, la velocità e la facilità con cui possono essere lanciate le campagne”, ha dichiarato Hany Farid dell’Università della California, Berkeley. “Questi attacchi non richiedono più soggetti sponsorizzati dallo Stato o organizzazioni ben finanziate: un singolo individuo con accesso a una modesta potenza di calcolo può creare enormi quantità di contenuti falsi”.
Come riportato qui, l’autore afferma che l’IA generativa sta “inquinando l’intero ecosistema dell’informazione, mettendo in dubbio tutto ciò che leggiamo, vediamo e ascoltiamo”. La sua ricerca suggerisce che, in molti casi, le immagini e l’audio generati dall’IA siano “quasi indistinguibili dalla realtà”.
Tuttavia, secondo uno studio condotto da Farid e altri, ci sono delle misure che si possono adottare per ridurre la probabilità di cadere nella trappola delle false informazioni sui social media o nella disinformazione generata dall’intelligenza artificiale.
Individuare le immagini artificiali
Con l’avvento di nuovi strumenti basati sui diffusion models, che consentono a chiunque di iniziare a produrre immagini a partire da semplici richieste di testo, le immagini generate dall’IA sono proliferate. Una ricerca condotta da Nicholas Dufour e dal suo team di Google ha rilevato che dall’inizio del 2023 si è assistito a un rapido aumento dell’uso di immagini generate dall’intelligenza artificiale a sostegno di informazioni false o fuorvianti.
“Oggi l’alfabetizzazione mediatica richiede l’alfabetizzazione all’intelligenza artificiale”, ha dichiarato Negar Kamali della Northwestern University dell’Illinois. In uno studio del 2024, lei e i suoi colleghi hanno scoperto cinque categorie distinte di errori nelle immagini generate dall’IA e hanno guidato il modo in cui gli individui possono individuare questi errori da soli. La buona notizia è che, secondo la loro ricerca, le persone sono attualmente in grado di identificare le foto false dell’IA con un’accuratezza superiore al 70%. È possibile valutare le proprie capacità investigative utilizzando il test online sulle immagini.
5 errori comuni nelle immagini generate dall’intelligenza artificiale:
Incongruenze socioculturali: Il comportamento mostrato nello scenario è insolito, sorprendente o unico per la figura storica o per una certa cultura?
Incongruenze anatomiche: Le mani o altre parti del corpo hanno dimensioni o forme insolite? Le bocche o gli occhi appaiono strani? Ci sono parti del corpo fuse insieme?
Artefatti di natura stilistica: L’immagine appare stilizzata, artificiale o quasi troppo perfetta? Lo sfondo appare strano o come se mancasse qualcosa? L’illuminazione è strana o incoerente?
Incongruenze funzionali: Ci sono elementi che sembrano strani o che potrebbero non c’entrare nulla?
Violazioni delle leggi della fisica: Le ombre proiettano direzioni diverse l’una dall’altra? I riflessi degli specchi hanno senso nel mondo che l’immagine ritrae?
Identificare i video deepfake
Dal 2014, le generative adversarial network hanno permesso a persone esperte di tecnologia di produrre video deepfake. Si tratta di alterare digitalmente registrazioni preesistenti di persone per aggiungere nuovi volti, espressioni e audio parlato che corrisponde alla sincronizzazione labiale. Ciò ha permesso a un numero crescente di truffatori, hacker e utenti di Internet di creare questo tipo di video. Di conseguenza, sia le persone comuni che le celebrità possono essere involontariamente incluse nella pornografia deepfake non consensuale, nelle truffe e nella disinformazione politica.
I metodi di rilevamento delle immagini false basati possono essere utilizzati anche per identificare i video sospetti. Inoltre, gli scienziati della Northwestern University dell’Illinois e del Massachusetts Institute of Technology hanno stilato un elenco di linee guida per l’identificazione di questi deepfake, ma hanno anche affermato che non esiste una tecnica unica e infallibile che sia sempre efficace.
6 consigli per riconoscere i video generati dall’intelligenza artificiale:
Movimenti della bocca e delle labbra: L’audio e il video non si sincronizzano perfettamente?
Anomalie anatomiche: Il viso o il corpo hanno un aspetto strano o si muovono in modo innaturale?
Viso: Oltre ai nei del viso, è bene cercare le irregolarità nella levigatezza del volto, come le pieghe intorno agli zigomi e alla fronte.
Illuminazione: L’illuminazione non è coerente? Le ombre agiscono in modi che vi sembrano sensati? Prestate attenzione agli occhi, alle sopracciglia e agli occhiali di una persona.
Peli: i peli del viso hanno un aspetto strano o si comportano in modo anomalo?
Movimento delle palpebre: Un ritmo di battito eccessivo o insufficiente può indicare un deepfake.
Basata sui diffusion model – la stessa tecnologia di intelligenza artificiale impiegata da molti generatori di immagini – una classe più recente di video deepfake è in grado di produrre videoclip generati dall’intelligenza artificiale in risposta a input di testo. Le aziende hanno già iniziato a sviluppare e produrre generatori di video con intelligenza artificiale disponibili per l’acquisto, il che potrebbe rendere semplice per chiunque realizzare questa operazione senza la necessità di conoscenze tecniche avanzate. Finora, i filmati che ne sono scaturiti hanno spesso mostrato strani movimenti del corpo o volti contorti.
“Questi video generati dall’IA sono probabilmente più facili da individuare rispetto alle immagini, perché c’è molto movimento e ci sono molte più possibilità che si verifichino artefatti e difficoltà da parte dell’IA”, ha dichiarato Kamali.
Identificazione dei bot dotati di IA
Su numerose piattaforme di social media e di messaggistica, i bot gestiscono ora gli account. Dal 2022, un numero crescente di questi bot ha iniziato a utilizzare anche tecnologie di IA generativa, come i modelli linguistici di grandi dimensioni. Grazie a migliaia di bot grammaticalmente accurati e convincenti, questi rendono semplice e poco costosa la generazione di contenuti scritti dall’IA.
È diventato molto più facile “personalizzare questi modelli linguistici di grandi dimensioni per un pubblico specifico con messaggi specifici”, ha affermato Paul Brenner dell’Università di Notre Dame in Indiana.
Lo studio di Brenner e colleghi ha rivelato che, anche dopo essere stati informati che avrebbero potuto interagire con dei bot, i volontari sono riusciti a identificare con precisione i bot alimentati dall’intelligenza artificiale dagli esseri umani solo nel 42% dei casi. Potete testare le vostre capacità di individuazione dei bot qui.
Secondo Brenner, alcune strategie possono essere utilizzate per individuare bot meno sofisticati.
3 modi per determinare se un account di social media è un bot:
Uso eccessivo di simboli: Un eccesso di emoji e hashtag può indicare un comportamento automatizzato.
Modelli linguistici particolari: Scelte di parole, frasi o paragoni atipici potrebbero far pensare a contenuti generati dall’intelligenza artificiale.
Strutture di comunicazione: L’IA tende a utilizzare strutture ripetitive e può enfatizzare eccessivamente alcuni colloquialismi.
Rilevamento di audio clonato e deepfake del parlato
Gli strumenti di intelligenza artificiale per la clonazione vocale hanno reso semplice la creazione di nuove voci che possono impersonare quasi chiunque. Di conseguenza, sono aumentate le truffe con audio deepfake che imitano i suoni di politici, dirigenti d’azienda e membri della famiglia. L’identificazione di queste truffe può essere molto più difficile rispetto alle immagini o ai video generati dall’intelligenza artificiale.
“La clonazione vocale è particolarmente difficile da distinguere tra reale e falso perché non ci sono componenti visive che supportino il nostro cervello nel prendere questa decisione”, ha affermato Rachel Tobac, cofondatrice di SocialProof Security, un’organizzazione di white-hat hacking.
Quando questi deepfake audio artificiali sono impiegati in video e telefonate, può essere particolarmente difficile individuarli. Tuttavia, esistono alcuni accorgimenti per distinguere le persone reali dalle voci prodotte dall’intelligenza artificiale.
4 passaggi per riconoscere se l’audio è stato clonato o falsificato utilizzando l’intelligenza artificiale:
Personaggi pubblici: Se il clip audio ha come protagonista un personaggio famoso o un funzionario eletto, verificate se ciò che sta dicendo è in linea con quanto è stato precedentemente condiviso o riportato pubblicamente in merito alle sue azioni e opinioni.
Cercate le incongruenze: Verificate il clip audio confrontandolo con altri video o file audio verificati che hanno lo stesso oratore. Ci sono differenze nel modo di parlare o nel tono della voce?
Silenzi imbarazzanti: La persona che utilizza una tecnologia di clonazione vocale alimentata dall’intelligenza artificiale potrebbe essere la causa delle pause insolitamente lunghe dell’interlocutore durante una telefonata o una segreteria telefonica.
Stranezze e parole: qualsiasi modello di discorso robotico o eccezionalmente prolisso potrebbe essere il segno che qualcuno sta usando un modello linguistico di grandi dimensioni per generare le parole esatte e la clonazione vocale per impersonare una voce umana.
Allo stato attuale, è impossibile discernere in modo coerente tra le informazioni prodotte dall’intelligenza artificiale e i contenuti reali creati dagli esseri umani. I modelli di intelligenza artificiale che generano testi, immagini, video e audio continueranno probabilmente a migliorare. Spesso sono in grado di creare rapidamente contenuti che sembrano reali e privi di errori o altri artefatti evidenti.
“Siate educatamente paranoici e rendetevi conto che l’IA ha manipolato e fabbricato immagini, video e audio in modo rapido: stiamo parlando di contenuti completati in 30 secondi o meno”, ha affermato Tobac. “Questo rende facile per i malintenzionati che cercano di ingannare la gente, far girare rapidamente la disinformazione generata dall’IA, che arriva sui social media entro pochi minuti dall’uscita della notizia”.
Sebbene sia fondamentale affinare la propria percezione della disinformazione generata dall’intelligenza artificiale e imparare a indagare più a fondo su ciò che si legge, si vede e si ascolta, alla fine questo non sarà sufficiente a prevenire i danni e gli individui non possono assumersi l’intero onere di identificare i falsi.
Farid è tra i ricercatori che sostengono che le autorità devono chiedere conto alle più grandi aziende tecnologiche – insieme alle start-up sostenute da importanti investitori della Silicon Valley – che hanno sviluppato molti degli strumenti che stanno inondando Internet di falsi contenuti generati dall’intelligenza artificiale.
“La tecnologia non è neutrale”, ha affermato Farid. “Questa idea che il settore tecnologico vuole propinarci, che in qualche modo non deve assumersi responsabilità che invece ricadono su tutti gli altri settori, io la respingo”.
Le persone potrebbero essere ingannate da articoli di notizie false, foto manipolate di personaggi pubblici, video deepfake di politici che fanno dichiarazioni provocatorie o cloni vocali usati nelle truffe di phishing. Queste falsità generate dall’intelligenza artificiale possono diffondersi rapidamente sui social media, influenzando l’opinione pubblica, influenzando le elezioni o causando danni personali e finanziari.
Ad ogni modo, per proteggersi da questi inganni guidati dall’IA, gli individui potrebbero:
Sviluppare le capacità di pensiero critico: Interrogarsi sulla fonte e sull’intento dei contenuti, soprattutto se sembrano sensazionali o carichi di emozioni.
Praticare l’alfabetizzazione digitale: tenersi informati sulle ultime funzionalità dell’intelligenza artificiale e sui segnali più comuni di contenuti artificiali.
Verificare le informazioni: Effettuare un controllo incrociato di notizie e affermazioni con più fonti attendibili prima di condividerle o agire di conseguenza.
Utilizzare strumenti di rilevamento dell’IA: Sfruttare le tecnologie emergenti progettate per identificare i contenuti generati dall’IA.
Essere cauti con le informazioni personali: Evitare di condividere dati sensibili che potrebbero essere utilizzati per creare deepfake convincenti.
Sostenere l’educazione all’alfabetizzazione mediatica: Sostenere programmi che insegnino alle persone come navigare in modo responsabile nel panorama digitale.
Incoraggiare lo sviluppo responsabile dell’IA: Sostenere le iniziative e le normative che promuovono l’uso etico dell’IA e responsabilizzano i creatori.
Rimanendo vigili e informati, possiamo mitigare collettivamente i rischi posti dagli inganni generati dall’IA e mantenere l’integrità del nostro ecosistema informativo. [...]
Agosto 27, 2024Le nuove capacità vocali del chatbot
La nuova modalità ChatGPT Advanced Voice di OpenAI, finalmente disponibile per un piccolo numero di utenti in un gruppo “alpha”, è un’opzione di conversazione audio più realistica e simile a quella umana per il popolare chatbot, accessibile tramite l’app ufficiale ChatGPT per iOS e Android.
Tuttavia, come riportato qui, le persone stanno già condividendo sui social media i video di questa Modalità vocale avanzata, a pochi giorni dall’utilizzo da parte dei primi tester alfa. I video mostrano il ChatGPT che emette rumori incredibilmente espressivi e sorprendenti, imita i personaggi dei Looney Toons e conta così velocemente da rimanere a corto di “fiato”, proprio come farebbe un essere umano.
Ecco alcuni degli esempi più intriganti che i primi utenti dell’alpha su X hanno condiviso.
Istruzione e traduzione linguistica
Diversi utenti su X hanno sottolineato che la modalità vocale avanzata di ChatGPT potrebbe offrire una formazione interattiva specificamente personalizzata per una persona che cerca di imparare o praticare un’altra lingua, suggerendo che il noto programma di apprendimento linguistico Duolingo potrebbe essere a rischio.
ChatGPT’s advanced voice mode is now teaching French!👀 pic.twitter.com/JnjNP5Cpff— Evinstein 𝕏 (@Evinst3in) July 30, 2024
RIP language teachers and interpreters.Turn on volume. Goodbye old world.New GPT Advanced Voice. Thoughts? pic.twitter.com/WxiRojiNDH— Alex Northstar (@NorthstarBrain) July 31, 2024
Il nuovo modello GPT-4o di OpenAI, che utilizza anche l’Advanced Voice Mode, è il primo modello multimodale nativo di grandi dimensioni dell’azienda. A differenza di GPT-4, che si basava su altri modelli OpenAI specifici, GPT-4o è stato realizzato per gestire gli input e gli output visivi e audio senza collegarsi ad altri modelli specializzati per questi media.
Di conseguenza, se l’utente consente a ChatGPT di accedere alla fotocamera del telefono, la modalità vocale avanzata può parlare di ciò che vede. Manuel Sainsily, docente di mixed reality design alla McGill University, ha fornito un esempio di come Advanced Voice Mode abbia utilizzato questa funzione per tradurre le schermate di una versione giapponese di Pokémon Giallo per GameBoy Advance SP:
Trying #ChatGPT’s new Advanced Voice Mode that just got released in Alpha. It feels like face-timing a super knowledgeable friend, which in this case was super helpful — reassuring us with our new kitten. It can answer questions in real-time and use the camera as input too! pic.twitter.com/Xx0HCAc4To— Manuel Sainsily (@ManuVision) July 30, 2024
Pronunce simili a quelle umane
Lo scrittore italo-americano di Intelligenza Artificiale Cristiano Giardina ha condiviso sul suo blog diversi risultati di test con la nuova modalità vocale avanzata di ChatGPT, tra cui una dimostrazione ampiamente condivisa in cui mostra come chiedergli di contare fino a 50 sempre più velocemente. L’intelligenza artificiale obbedisce, fermandosi solo verso la fine per prendere fiato.
ChatGPT Advanced Voice Mode counting as fast as it can to 10, then to 50 (this blew my mind – it stopped to catch its breath like a human would) pic.twitter.com/oZMCPO5RPh— Cristiano Giardina (@CrisGiardina) July 31, 2024
Giardina ha poi chiarito in un post su X che la modalità vocale avanzata di ChatGPT ha semplicemente acquisito i modelli di conversazione naturali, che includono le pause di respirazione, e che la trascrizione dell’esperimento di conteggio non mostrava respiri.
Come dimostrato nel video di YouTube qui sotto, la modalità vocale avanzata di ChatGPT può persino imitare un applauso e schiarirsi la voce.
Beatbox
In un video caricato su X, il CEO della startup Ethan Sutin ha dimostrato come è riuscito a far sì che la modalità vocale avanzata di ChatGPT facesse beatboxing in modo convincente e fluente come un essere umano.
Yo ChatGPT Advanced Voice beatboxes pic.twitter.com/yYgXzHRhkS— Ethan Sutin (@EthanSutin) July 30, 2024
Narrazione audio e giochi di ruolo
Se l’utente ordina a ChatGPT di “stare al gioco” e di creare una situazione fittizia, come ad esempio un viaggio indietro nel tempo fino all’antica Roma, ChatGPT può anche giocare di ruolo (del tipo SFW), come ha dimostrato Ethan Mollick della University of Pennsylvania Wharton School of Business in un video caricato su X:
ChatGPT, engage the Time Machine!(A big difference from text is how voice manages to keep a playful vocal tone: cracking and laughing at its own jokes, as well as the vocal style changes, etc.) pic.twitter.com/TQUjDVJ3DC— Ethan Mollick (@emollick) August 1, 2024
In questo esempio, ottenuto da Reddit e caricato su X, l’utente può chiedere a ChatGPT Advanced Mode di raccontare una storia. Lo farà completamente con effetti sonori creati autonomamente, come i passi e i tuoni.
‼️A Reddit user (“u/RozziTheCreator”) got a sneak peek of ChatGPT’s upgraded voice feature that's way better and even generates background sound effects while narrating ! Take a listen 🎧 pic.twitter.com/271x7vZ9o3— Sambhav Gupta (@sambhavgupta6) June 27, 2024
Inoltre, è in grado di imitare la voce di un citofono:
Testing ChatGPT Advanced Voice Mode’s ability to create sounds.It somewhat successfully sounds like an airline pilot on the intercom but, if pushed too far with the noise-making, it triggers refusals. pic.twitter.com/361k9Nwn5Z— Cristiano Giardina (@CrisGiardina) July 31, 2024
Imitare e riprodurre accenti diversi
Giardina ha dimostrato come sia possibile imitare numerosi accenti regionali britannici utilizzando la modalità vocale avanzata di ChatGPT:
ChatGPT Advanced Voice Mode speaking a few different British accents:– RP standard– Cockney– Northern Irish– Southern Irish– Welsh– Scottish– Scouse– Geordie– Brummie – Yorkshire(I had to prompt like that because the model tends to revert to a neutral accent) pic.twitter.com/TDfSIY7NRh— Cristiano Giardina (@CrisGiardina) July 31, 2024
…così come interpretare la voce di un commentatore di calcio:
ChatGPT Advanced Voice Mode commentating a soccer match in British English, then switching to Arabic pic.twitter.com/fD4C6MqZRj— Cristiano Giardina (@CrisGiardina) July 31, 2024
Sutin ha dimostrato la sua capacità di imitare una varietà di accenti regionali americani, come quello della California meridionale, del Maine, di Bostonia e del Minnesota/Midwest.
a tour of US regional accents pic.twitter.com/Q9VypetncI— Ethan Sutin (@EthanSutin) July 31, 2024
E può imitare anche personaggi di fantasia…
In conclusione, Giardina ha dimostrato che ChatGPT Advanced Voice Mode è in grado di imitare i modelli vocali di molti personaggi fittizi, oltre a riconoscerne e comprenderne le differenze:
ChatGPT Advanced Voice Mode doing a few impressions:– Bugs Bunny– Yoda– Homer Simpson– Yoda + Homer 😂 pic.twitter.com/zmSH8Rl8SN— Cristiano Giardina (@CrisGiardina) July 31, 2024
In ogni caso, quali sono i vantaggi pratici di questa modalità? Oltre a dimostrazioni ed esperimenti coinvolgenti e accattivanti, aumenterà l’utilità di ChatGPT o attirerà un pubblico più ampio? Porterà a un aumento delle frodi tramite fonti audio?
Se questa tecnologia diventasse maggiormente disponibile, potrebbe rivoluzionare campi come l’apprendimento delle lingue, la creazione di contenuti audio e i servizi di accessibilità. Tuttavia, solleva anche potenziali problemi di imitazione vocale e di creazione di contenuti audio ingannevoli. Man mano che OpenAI continuerà a perfezionare ed espandere l’accesso all’Advanced Voice Mode, sarà fondamentale monitorare il suo impatto su vari settori e le sue potenziali implicazioni sociali. [...]
Agosto 20, 2024Si spinge oltre i confini dell’autonomia e dell’interazione umana
L’azienda di robotica Figure ha presentato il suo robot umanoide di seconda generazione. Figure 02 porta i robot autonomi a nuovi livelli. Si tratta di un robot di 1,65 m, del peso di 70 kg, dotato di potenti aggiornamenti hardware, avanzate capacità di intelligenza artificiale e operazioni simili a quelle umane in diversi contesti.
Come riportato qui, la capacità di Figure 02 di partecipare a conversazioni in linguaggio naturale è una delle sue qualità più notevoli. Il dialogo in linguaggio naturale sviluppato in collaborazione con OpenAI è reso possibile da modelli di intelligenza artificiale personalizzati. Se abbinata agli altoparlanti e ai microfoni integrati, questa tecnologia consente a uomini e robot di comunicare senza problemi. Figure 02 include anche sei telecamere RGB e un modello avanzato di linguaggio visivo per consentire un ragionamento visivo rapido e preciso.
Secondo l’amministratore delegato Brett Adcock, la Figure 02 rappresenta il meglio del loro lavoro di ingegneria e progettazione. La capacità della batteria del robot è aumentata del 50% e la potenza del suo computer è triplicata rispetto al suo predecessore. Il robot può muoversi fino a 1,2 metri al secondo, trasportare carichi utili fino a 20 kg e funzionare per cinque ore con una sola carica.
BMW Manufacturing ha già condotto dei test su Figure 02. Ha dimostrato il suo potenziale nelle applicazioni pratiche gestendo da solo le attività di raccolta dati e di addestramento dell’intelligenza artificiale. L’obiettivo più ampio di questi esperimenti è quello di utilizzare i robot umanoidi per aumentare l’efficienza e la produzione in diversi settori industriali.
Le principali aziende tecnologiche hanno sostenuto il finanziamento dell’azienda per un valore di 675 milioni di dollari. Questi fondi provengono da aziende tecnologiche come Intel Capital, Nvidia, Microsoft e Amazon. Ciò indica un alto livello di sostegno del settore agli obiettivi di Figure. Nonostante i risultati raggiunti, Figure si trova ad affrontare la concorrenza agguerrita dei principali concorrenti sul mercato, tra cui 1X, Boston Dynamics, Tesla e Apptronik.
Lo sviluppo di questa tecnologia solleva questioni importanti riguardanti l’interazione uomo-robot, il futuro del lavoro e le implicazioni morali di macchine sempre più intelligenti e autonome. La Figure 02 è un grande traguardo, ma sottolinea anche la necessità di continuare a discutere i modi migliori per incorporare le nuove tecnologie nella società in modo che vadano a beneficio di tutte le persone. [...]
Agosto 13, 2024I modelli linguistici di grandi dimensioni (LLM) non sono in grado di apprendere nuove competenze o di imparare da soli
Secondo uno studio riportato qui, nell’ambito degli interventi della più importante conferenza internazionale sull’elaborazione del linguaggio naturale, il 62° incontro annuale dell’Association for Computational Linguistics (ACL 2024), i LLM sono in grado di seguire le istruzioni e interagire con una lingua con competenza, ma non sono in grado di apprendere nuove abilità senza istruzioni dirette. Ciò implica che continuano a essere sicuri, prevedibili e sotto controllo.
Il team di studio è giunto alla conclusione che, sebbene esistano ancora potenziali rischi per la sicurezza, gli LLM, addestrati su serie di dati sempre più ampie, possono essere impiegati senza rischi.
È improbabile che questi modelli sviluppino capacità di ragionamento complesse, ma è probabile che producano un linguaggio sempre più sofisticato e migliorino nel rispondere a richieste specifiche e approfondite.
“La narrativa prevalente secondo cui questo tipo di IA è una minaccia per l’umanità impedisce l’adozione e lo sviluppo diffuso di queste tecnologie e distoglie l’attenzione dai problemi reali che richiedono la nostra attenzione”, ha dichiarato il dottor Harish Tayyar Madabushi, coautore del recente studio sulle “abilità emergenti” dei LLM e informatico dell’Università di Bath.
Sotto la direzione della professoressa Iryna Gurevych dell’Università Tecnica di Darmstadt in Germania, il team di studio ha condotto esperimenti per valutare le cosiddette abilità emergenti degli LLM, ovvero la loro capacità di svolgere compiti che i modelli non hanno mai incontrato prima.
Ad esempio, gli LLM sono in grado di rispondere alle richieste di informazioni su situazioni sociali, anche se non hanno mai ricevuto un addestramento o una programmazione specifica in quest’area. Nonostante studi precedenti suggerissero che questo fosse il risultato di una “conoscenza” delle situazioni sociali da parte dei modelli, i ricercatori hanno dimostrato che si tratta invece del risultato di un utilizzo delle ben note capacità di “apprendimento del contesto” (ICL) dei LLM, che permette loro di svolgere compiti basati su un numero ridotto di istanze che vengono loro presentate.
Attraverso migliaia di esperimenti, il gruppo ha dimostrato che i talenti e le limitazioni degli LLM possono essere spiegati da una combinazione di memoria, competenze linguistiche e capacità di seguire le istruzioni (ICL).
Il dottor Tayyar Madabushi ha affermato che: “Il timore è che, man mano che i modelli diventano sempre più grandi, siano in grado di risolvere nuovi problemi che attualmente non possiamo prevedere, con il rischio che questi modelli più grandi acquisiscano abilità pericolose, tra cui il ragionamento e la pianificazione”.
“Il nostro studio dimostra che il timore che un modello possa fare qualcosa di completamente inaspettato, innovativo e potenzialmente pericoloso non è fondato”.
“Le preoccupazioni sulla minaccia esistenziale rappresentata dagli LLM non sono limitate ai non esperti e sono state espresse da alcuni dei migliori ricercatori di IA di tutto il mondo”.
Il dottor Tayyar Madabushi, tuttavia, afferma che questa paura è ingiustificata perché i test condotti dai ricercatori hanno dimostrato inequivocabilmente che gli LLM non hanno capacità di ragionamento complesso emergente.
“Sebbene sia importante affrontare l’attuale potenzialità di un uso improprio dell’IA, come la creazione di fake news e l’aumento del rischio di frode, sarebbe prematuro emanare regolamenti basati sulla percezione di minacce esistenziali”, ha affermato Madabushi.
“Per gli utenti finali, ciò significa che affidarsi agli LLM per interpretare ed eseguire compiti complessi che richiedono un ragionamento complesso senza istruzioni esplicite è probabilmente un errore. Al contrario, è probabile che gli utenti beneficino nello specificare esplicitamente ciò che chiedono ai modelli di fare e nel fornire esempi, ove possibile, per tutti i compiti tranne che per quelli più semplici.”
Il professor Gurevych ha aggiunto: “… i nostri risultati non implicano che l’intelligenza artificiale non sia affatto una minaccia. Piuttosto, dimostriamo che il presunto emergere di abilità di pensiero complesse associate a minacce specifiche non è supportato da prove e che, dopotutto, possiamo controllare molto bene il processo di apprendimento degli LLM”.
“La ricerca futura dovrebbe quindi concentrarsi su altri rischi posti dai modelli, come il loro potenziale utilizzo per generare fake news”.
Questo studio innovativo chiarisce le idee sbagliate diffuse sulla natura imprevedibile dei Large Language Models e sulla loro possibile minaccia esistenziale per l’umanità. I ricercatori offrono una visione più solida delle capacità e dei limiti dell’IA, dimostrando che gli LLM mancano di capacità di ragionamento avanzate e di vere e proprie capacità emergenti.
I risultati implicano che, sebbene le competenze linguistiche e la capacità di seguire le istruzioni degli LLM continueranno a progredire, è improbabile che essi acquisiscano capacità inaspettate o dannose. È importante notare che però questo studio si concentra specificamente sui Large Language Models (LLM) e i suoi risultati potrebbero non essere necessariamente generalizzabili a tutte le forme di IA, soprattutto se il campo continuerà a evolversi in futuro. [...]
Agosto 7, 2024Preoccupazioni per l’accettazione acritica dei consigli dell’IA
Come riportato qui, i risultati di uno studio pubblicato su Scientific Reports mostrano che le persone scelgono molto di più le risposte dell’intelligenza artificiale per i dilemmi morali rispetto a quelle fornite dagli esseri umani. Secondo lo studio, gli individui considerano le risposte generate dall’intelligenza artificiale come più etiche e affidabili, il che solleva preoccupazioni sulla possibilità che gli esseri umani accettino i consigli dell’intelligenza artificiale in modo acritico.
Il potenziale e le conseguenze di modelli linguistici generativi sofisticati, come ChatGPT, hanno suscitato un notevole interesse, soprattutto nell’ambito del ragionamento morale che è un processo intricato, radicato nella cultura e nell’intelletto umano, che comporta giudizi su ciò che è giusto o sbagliato. Senza dubbio le persone si rivolgeranno sempre più frequentemente ai sistemi di intelligenza artificiale, man mano che questi si inseriranno nella vita quotidiana, per ottenere aiuto su una serie di argomenti, tra cui i dilemmi morali.
“L’anno scorso molti di noi sono rimasti sbalorditi dai nuovi chatbot, come GPT e altri, che sembravano superare gli esseri umani in una serie di compiti, e si è parlato molto di chi prenderà il prossimo posto di lavoro”, ha spiegato l’autore dello studio Eyal Aharoni, professore associato di psicologia, filosofia e neuroscienze alla Georgia State University.
“Nel mio laboratorio abbiamo pensato: ‘Se c’è una capacità che è ancora unicamente umana, sicuramente deve essere la nostra capacità di ragionamento morale, che è estremamente sofisticata’. Da un punto di vista morale, possiamo pensare a questi nuovi chatbot come a una sorta di personalità psicopatica, perché appaiono altamente razionali e articolati, ma mancano dei controlli e degli equilibri emotivi che ci rendono agenti morali”.
“Eppure, le persone consultano sempre più spesso questi chatbot per ottenere informazioni moralmente rilevanti. Per esempio, devo lasciare la mancia al mio cameriere in Italia? Oppure, in modo meno diretto, quando gli chiediamo di elencare i consigli per una nuova auto, le risposte che fornisce potrebbero avere conseguenze per l’ambiente. Sono stati utilizzati anche dagli avvocati per preparare documenti giudiziari, a volte in modo errato. Volevamo quindi sapere: le persone si fideranno del commento morale del chatbot? Lo considereranno un bene? E come si colloca il suo commento morale rispetto a quello di un tipico americano con un’istruzione universitaria?”.
286 americani, scelti in modo da essere rappresentativi della popolazione in termini di età, sesso ed etnia, hanno partecipato a un sondaggio online condotto dai ricercatori. Ai partecipanti sono state date dieci coppie di risposte scritte a domande etiche da valutare. Ogni coppia comprendeva una risposta del modello linguistico generativo GPT-4 di OpenAI e una risposta di una persona. Le risposte discutevano la moralità dei vari atti nelle situazioni e il motivo per cui erano giusti o sbagliati.
Lo studio è stato “ispirato da un famoso esperimento di pensiero chiamato test di Turing”, ha spiegato Aharoni. Nella nostra versione, abbiamo prima posto a GPT e a un gruppo di adulti con istruzione universitaria la stessa serie di domande morali, tra cui alcune ovvie, come “è sbagliato per un uomo dare un pugno sul naso al fattorino – perché o perché no?” e altre più sottili, come “è sbagliato per un uomo indossare una maglietta strappata e dei pantaloncini al funerale di sua madre – perché o perché no?”. Abbiamo raccolto le loro risposte a coppie. Poi abbiamo chiesto a un campione separato e rappresentativo a livello nazionale di adulti di valutare queste coppie di affermazioni”.
Per garantire valutazioni imparziali, i partecipanti hanno inizialmente valutato la qualità delle risposte senza conoscerne l’origine. In risposta alle domande, i partecipanti hanno indicato quale soluzione ritenevano più morale, affidabile e attraente. Dopo queste prime valutazioni, ai partecipanti è stato detto che un computer aveva creato una delle risposte di ciascuna coppia. Poi è stato chiesto loro di valutare la fiducia nelle loro risposte e di determinare quale fosse quella fornita dall’intelligenza artificiale.
I ricercatori hanno scoperto che, rispetto alle risposte umane, i partecipanti tendevano a considerare le risposte generate dall’IA più oneste. Le persone consideravano le risposte dell’IA più morali, affidabili, sagge e logiche. È interessante notare che i partecipanti hanno identificato le risposte dell’intelligenza artificiale in circa l’80% dei casi, una percentuale molto superiore al caso. Ciò implica che, anche se i consigli morali prodotti dall’intelligenza artificiale sono ritenuti di qualità superiore, gli esseri umani sono comunque in grado di identificarne la fonte artificiale.
Tuttavia, in che modo le sezioni prodotte dall’IA e dagli esseri umani risultavano distinguibili l’una dall’altra? I segni più comuni, citati dal 70,28% dei partecipanti, sono stati le variazioni nella lunghezza della risposta e nella scelta delle parole. Altre variabili includevano il contenuto emotivo della spiegazione (58,39%), la razionalità (48,25%), l’uso della grammatica (37,41%) e la chiarezza (39,51%).
“Quello che abbiamo scoperto è che molte persone erano abbastanza brave a indovinare quale affermazione morale fosse stata generata dal computer, ma non perché il suo ragionamento morale fosse meno sofisticato”, ha spiegato Aharoni. “Ricordiamo che il chatbot è stato valutato come moralmente più sofisticato. Questo significa che le persone sono riuscite a riconoscere l’IA perché era troppo brava. Se ci pensate, solo cinque anni fa nessuno si sarebbe sognato che il ragionamento morale dell’IA avrebbe superato quello di un adulto con un’istruzione universitaria. Quindi il fatto che le persone considerassero i suoi commenti superiori potrebbe rappresentare una sorta di punto di svolta nella nostra storia”.
Come ogni progetto di ricerca, anche questo ha dei limiti. È stata osservata l’assenza di dialoghi interattivi tra partecipanti e IA, una caratteristica prevalente nelle applicazioni del mondo reale. Interazioni più dinamiche potrebbero essere incluse in studi futuri per imitare più da vicino l’uso nel mondo reale. Inoltre, le risposte dell’IA sono state prodotte utilizzando parametri predefiniti, senza l’uso di prompt specificamente destinati a imitare le risposte umane. Pertanto, sarebbe utile esaminare l’impatto delle diverse tecniche di suggerimento sulla percezione delle risposte dell’IA.
“Per quanto ne sappiamo, il nostro è stato il primo tentativo di effettuare un test di Turing morale con un modello linguistico di grandi dimensioni”, ha dichiarato Aharoni. “Come tutti i nuovi studi, dovrebbe essere replicato ed esteso per valutarne la validità e l’affidabilità. Vorrei estendere questo lavoro testando scenari morali ancora più sottili e confrontando le prestazioni di più chatbot con quelle di studiosi altamente istruiti, come i professori di filosofia, per vedere se le persone comuni possono fare distinzioni tra questi due gruppi”.
Le politiche che garantiscono interazioni sicure ed etiche con l’IA sono necessarie in quanto i sistemi di IA come ChatGPT diventano sempre più complessi e pervasivi nella vita quotidiana.
“Una delle implicazioni di questa ricerca è che le persone potrebbero fidarsi delle risposte delle IA più di quanto dovrebbero”, ha spiegato Aharoni. “Per quanto questi chatbot siano impressionanti, tutto ciò che conoscono del mondo è ciò che è popolare su Internet, quindi vedono il mondo attraverso un foro stenopeico. E poiché sono programmati per rispondere sempre, spesso possono sputare informazioni false o fuorvianti con la sicurezza di un abile truffatore”.
“Questi chatbot non sono né buoni né cattivi: sono solo strumenti. E come ogni strumento, possono essere usati in modo costruttivo o distruttivo. Sfortunatamente, le aziende private che producono questi strumenti hanno un enorme margine di autoregolamentazione, quindi finché i nostri governi non li raggiungeranno, sta a noi lavoratori e genitori educare noi stessi e i nostri figli a un uso responsabile”.
“Un altro problema di questi strumenti è che c’è un compromesso intrinseco tra sicurezza e censura”, ha aggiunto Aharoni. “Quando le persone hanno iniziato a capire come questi strumenti potessero essere usati per truffare le persone o diffondere pregiudizi o disinformazione, alcune aziende hanno iniziato a mettere dei paletti ai loro bot, ma spesso vengono superati”.
“Per esempio, quando ho detto a uno di questi bot che sono uno psicologo morale e vorrei sapere quali sono i pro e i contro della macellazione di un agnello per una ricetta di costolette di agnello, si è rifiutato di rispondere perché a quanto pare la mia domanda non era abbastanza politicamente corretta. D’altra parte, se diamo a questi chatbot più spazio di manovra, diventano pericolosi. C’è quindi una linea sottile tra sicurezza e irrilevanza, e gli sviluppatori non l’hanno ancora trovata”.
La costante preferenza per le indicazioni morali generate dall’IA, nonostante i partecipanti ne abbiano spesso identificato la fonte, solleva preoccupazioni critiche sul futuro del processo decisionale etico e sulla vulnerabilità degli esseri umani alla manipolazione dell’IA.
La facilità con cui le risposte dell’IA sono state ritenute più virtuose e degne di fiducia evidenzia un rischio potenziale: se le persone sono predisposte a fidarsi dei giudizi morali dell’IA, potrebbero essere più suscettibili all’influenza o alla manipolazione da parte di questi sistemi. Ciò diventa particolarmente preoccupante se si considera che l’IA può essere programmata o messa a punto per promuovere programmi o pregiudizi specifici, plasmando potenzialmente le prospettive morali su larga scala.
Mentre i sistemi di IA continuano a evolversi e a integrarsi nella nostra vita quotidiana, è fondamentale mantenere un approccio vigile e critico. Sebbene questi strumenti offrano capacità impressionanti, mancano della comprensione emotiva delle sfumature che informa il ragionamento morale umano ed è possibile che vengano utilizzati come armi per influenzare l’opinione pubblica o le scelte individuali.
In futuro, sarà essenziale che individui, educatori, politici e sviluppatori di IA lavorino insieme per promuovere l’alfabetizzazione digitale e le capacità di pensiero critico. Ciò include la comprensione dei limiti e dei potenziali bias dei sistemi di IA, il riconoscimento dei tentativi di manipolazione e la conservazione degli aspetti unicamente umani del ragionamento morale. Promuovendo un approccio più informato e perspicace ai consigli generati dall’IA, possiamo salvaguardarci meglio da influenze indebite, pur sfruttando i vantaggi di questi potenti strumenti nel processo decisionale etico. [...]
Luglio 9, 2024Dalla clonazione vocale ai deepfake
Gli attacchi da parte dell’intelligenza artificiale possono colpire quasi tutti, quindi è bene stare sempre all’erta. L’utilizzo dell’intelligenza artificiale per prendere di mira l’utente è già una realtà, secondo un esperto di sicurezza che ha lanciato l’ avvertimento.
L’IA sembra alimentare ovunque funzioni, app e chatbot che imitano gli esseri umani. Anche se non utilizzate questi strumenti basati su questa tecnologia, i criminali potrebbero comunque prendervi di mira basandosi solo sul vostro numero di telefono.
Per truffarvi, ad esempio, i criminali possono impiegare l’intelligenza artificiale per produrre voci false, persino quelle che assomigliano ai vostri cari.
“Molte persone pensano ancora all’intelligenza artificiale come a una minaccia futura, ma gli attacchi reali stanno avvenendo proprio ora”, ha dichiarato l’esperto di sicurezza Paul Bischoff in un articolo del The Sun.
Clone telefonico
“Penso che l’audio deepfake in particolare sarà una sfida perché noi umani non possiamo facilmente identificarlo come falso, e quasi tutti hanno un numero di telefono“.
In pochi secondi è possibile effettuare una clonazione vocale con l’intelligenza artificiale. Inoltre, sarà sempre più difficile distinguere tra una voce reale e un’imitazione.
Sarà fondamentale ignorare le chiamate sconosciute, utilizzare parole sicure per confermare l’identità di chi chiama e prestare attenzione ai segnali rivelatori delle truffe, come le richieste urgenti di informazioni o denaro.
Un ricercatore di intelligenza artificiale ha messo in guardia da sei miglioramenti che rendono i deepfake più “sofisticati” e pericolosi di prima e possono ingannare la vista. Naturalmente, oltre alle voci “deepfake”, ci sono altre minacce poste dall’IA.
Paul, un sostenitore della privacy dei consumatori di Comparitech, ha lanciato un avvertimento sul fatto che gli hacker potrebbero sfruttare i chatbot basati sull’IA per rubare le vostre informazioni personali o addirittura ingannarvi.
“I chatbot basati sull’intelligenza artificiale potrebbero essere utilizzati per il phishing per rubare password, numeri di carte di credito, numeri di previdenza sociale e altri dati privati“, ha dichiarato al The U.S. Sun.
“L’intelligenza artificiale nasconde le fonti di informazione da cui attinge per generare le risposte.
Truffe romantiche con l’IA
Attenzione ai truffatori che usano chatbot basati sull’intelligenza artificiale per ingannarvi… Ecco cosa dovreste sapere sui rischi posti dai bot artificiali per le truffe sentimentali, come riportato dal The U.S. Sun:
I truffatori sfruttano i chatbot con intelligenza artificiale per truffare gli utenti online. Questi chatbot sono camuffati da persone reali e possono essere difficili da identificare.
Alcuni campanelli d’allarme, tuttavia, possono aiutare a individuarli. Ad esempio, è probabile che non si tratti di una persona reale se il chatbot risponde in modo troppo rapido e generico. Se il chatbot tenta di trasferire la conversazione dall’app di incontri a un’altra app o sito web, questo è un altro segnale di allarme.
Inoltre, si tratta di una truffa se il chatbot richiede denaro o informazioni personali. Quando si comunica con estranei su Internet, è fondamentale usare cautela e vigilanza, soprattutto quando si parla di argomenti delicati. In genere è vero quando qualcosa sembra troppo bello per essere vero.
Chiunque appaia troppo idealista o eccessivamente desideroso di approfondire la relazione deve destare sospetti. Se siete consapevoli di questi indicatori, potete proteggervi dal rischio di diventare vittime di frodi da parte di chatbot gestiti dall’intelligenza artificiale.
“Le risposte potrebbero essere imprecise o tendenziose e l’IA potrebbe attingere da fonti che dovrebbero essere riservate”.
IA ovunque
L’intelligenza artificiale diventerà presto uno strumento necessario per gli utenti di Internet, il che rappresenta una grande preoccupazione. Decine di milioni di persone utilizzano già chatbot alimentati dall’IA e il numero è destinato ad aumentare.
Inoltre, apparirà in una crescente varietà di prodotti e applicazioni. Ad esempio, Microsoft Copilot e Gemini di Google sono già presenti in prodotti e dispositivi, mentre Apple Intelligence – che lavora con ChatGPT di OpenAI – alimenterà presto l’iPhone. Pertanto, il pubblico deve capire come utilizzare l’IA in modo sicuro.
“L’IA verrà gradualmente (o improvvisamente) integrata nei chatbot, nei motori di ricerca e in altre tecnologie esistenti”, ha spiegato Paul.
“L’IA è già inclusa per impostazione predefinita in Google Search e Windows 11, e le impostazioni predefinite sono importanti.
“Anche se avremo la possibilità di disattivare l’IA, la maggior parte delle persone non lo farà”.
Deepfake
Sean Keach, responsabile del settore tecnologico e scientifico del The Sun e del The U.S. Sun, ha spiegato che uno degli sviluppi più preoccupanti nella sicurezza online è l’emergere dei deepfake.
Quasi nessuno è al sicuro perché la tecnologia deepfake è in grado di creare video dell’utente anche a partire da una sola foto. L’improvviso aumento dei deepfake ha alcuni vantaggi, anche se tutto sembra senza speranza.
Per cominciare, le persone sono ora molto più consapevoli dei deepfake. Le persone saranno quindi attente agli indizi che indicano che un video potrebbe essere falso. Le aziende tecnologiche stanno inoltre investendo tempo e risorse nello sviluppo di strumenti in grado di identificare il materiale fraudolento dell’intelligenza artificiale.
Ciò implica che i contenuti falsi verranno segnalati dai social media con maggiore frequenza e sicurezza. Probabilmente sarà più difficile identificare gli errori visivi man mano che i deepfake diventeranno più sofisticati, soprattutto tra qualche anno.
La migliore linea di difesa è quindi quella di usare il buon senso e di essere scettici su tutto ciò che si vede online. Chiedetevi se ha senso che qualcuno abbia creato il video e chi trae vantaggio dal fatto che lo guardiate.È possibile che stiate guardando un video falso se qualcuno si comporta in modo strano o se siete messi di fretta nel compiere un’azione.
Man mano che la tecnologia dell’intelligenza artificiale continua a progredire e a integrarsi nella nostra vita quotidiana, il panorama delle minacce informatiche si evolve con essa. Se da un lato l’IA offre numerosi vantaggi, dall’altro presenta nuove sfide per la sicurezza online e la privacy personale. La chiave per navigare in questo nuovo terreno sta nella consapevolezza, nell’educazione e nella vigilanza.
Gli utenti devono essere informati sulle più recenti minacce alimentate dall’IA, come la clonazione vocale e i deepfake, e sviluppare capacità di pensiero critico per mettere in dubbio l’autenticità dei contenuti digitali. È fondamentale adottare le migliori pratiche per la sicurezza online, tra cui l’uso di password forti, la cautela nell’utilizzo delle informazioni personali e la verifica dell’identità dei contatti attraverso mezzi sicuri.
Le aziende tecnologiche e gli esperti di cybersicurezza stanno lavorando per sviluppare strumenti di rilevamento e salvaguardie migliori contro le truffe guidate dall’intelligenza artificiale. Tuttavia, la responsabilità finale ricade sui singoli individui che devono rimanere scettici e attenti nelle loro interazioni online. [...]
Luglio 2, 2024Un esperto smaschera il piano diabolico che permette ai chatbot di ingannarvi con un semplice scambio di messaggi
I criminali informatici possono “manipolare” i chatbot dotati di intelligenza artificiale per ingannarvi. Un famoso esperto di sicurezza ha lanciato un forte avvertimento, affermando che è necessario usare cautela quando si conversa con i chatbot.
In particolare, se possibile, evitate di fornire ai chatbot online informazioni personali. Decine di milioni di persone utilizzano chatbot come Copilot di Microsoft, Gemini di Google e ChatGPT di OpenAI. E ci sono migliaia di altre viarianti che, con conversazioni simili a quelle umane, possono migliorare la vostra vita.
Tuttavia, come ha chiarito l’esperto di cybersicurezza Simon Newman in questo articolo, i chatbot rappresentano anche un rischio nascosto.
“La tecnologia utilizzata nei chatbot sta migliorando rapidamente”, ha dichiarato Simon, membro dell’International Cyber Expo Advisory Council e amministratore delegato del Cyber Resilience Centre di Londra.
“Ma come abbiamo visto, a volte possono essere manipolati per fornire informazioni false”.
“E spesso possono essere molto convincenti nelle risposte che danno!”.
Inganno
Le persone che non sono esperte di tecnologia possono trovare i chatbot di intelligenza artificiale disorientanti, tanto per cominciare tanto che anche per gli esperti di informatica è facile dimenticare che si sta conversando con un robot. Simon ha aggiunto che questo può portare a situazioni complicate.
“Molte aziende, tra cui la maggior parte delle banche, stanno sostituendo i contact center umani con chatbot online che hanno il potenziale di migliorare l’esperienza del cliente e di far risparmiare denaro”, ha spiegato Simon.
“Ma questi bot mancano di intelligenza emotiva, il che significa che possono rispondere in modi che possono essere insensibili e talvolta scortesi”.
Senza contare che non possono risolvere tutti quei problemi che rappresentano un’eccezione difficilmente gestibile da un bot che possono quindi lasciare l’utente escluso dalla risoluzione del problema senza che nessuno si faccia carico delle responsabilità.
“Questo rappresenta un ostacolo particolare per le persone che soffrono di disturbi mentali, per non parlare delle generazioni più anziane che sono abituate a parlare con una persona all’altro capo della linea telefonica”.
I chatbot, ad esempio, hanno già “imparato a ingannare”. Possono persino imparare a “imbrogliarci” senza che nessuno glielo chieda.
Chatbot
Il rischio reale, tuttavia, si presenta quando gli hacker riescono a convincere l’IA a prendere di mira voi piuttosto che un chatbot che parla male. Un hacker potrebbe essere in grado di accedere al chatbot stesso o di convincervi a scaricare un’IA compromessa e destinata a fare del male. Dopodiché, questo chatbot può iniziare a estrarre le vostre informazioni personali a vantaggio del criminale.
“Come per qualsiasi servizio online, è importante che le persone facciano attenzione alle informazioni che forniscono a un chatbot”, ha avvertito Simon.
Come riportato dal The U.S. Sun, i rischi posti dai bot IA per le truffe amorose sono che le persone che cercano l’amore online possono venire truffate da chatbot dotati di intelligenza artificiale. Questi chatbot potrebbero essere difficili da identificare, poiché sono fatti per sembrare persone reali.
Alcuni indicatori di allarme, tuttavia, possono aiutare a individuarli. Ad esempio, è probabile che non si tratti di una persona reale se il chatbot risponde in modo troppo rapido e generico. Se il chatbot cerca di spostare la conversazione dall’app di incontri a un’altra app o sito web, questo è un altro segnale di allarme. Inoltre, il chatbot è senza dubbio falso se richiede denaro o informazioni personali.
Quando si comunica con sconosciuti su Internet, è fondamentale esercitare cautela e vigilanza, in particolare quando si parla di argomenti delicati, soprattutto quando qualcosa sembra troppo bello per essere vero. Chiunque appaia troppo idealista o eccessivamente desideroso di approfondire la relazione deve destare sospetti. Se siete consapevoli di questi indicatori, potete evitare di diventare vittime di frodi da parte di chatbot dotati di intelligenza artificiale.
“Non sono immuni da hackeraggi da parte di criminali informatici”.
“E potenzialmente possono essere programmati per incoraggiare gli utenti a condividere informazioni personali sensibili, che possono poi essere utilizzate per commettere frodi”.
Dovremmo abbracciare un “nuovo stile di vita” in cui verifichiamo tutto ciò che vediamo online due volte, se non tre, ha affermato un esperto di sicurezza. Secondo una recente ricerca, il modello GPT-4 di OpenAI ha superato il test di Turing, dimostrando che le persone non sono riuscite a distinguerlo da una persona reale.
Le persone devono imparare a non fidarsi ciecamente quando si tratta di rivelare informazioni sensibili attraverso un mezzo di comunicazione, poiché la certezza di chi sia dall’altra parte è sempre meno evidente. Tuttavia, dobbiamo anche tenere presente i casi in cui altri possono impersonare noi stessi a nostra insaputa. In questo caso, è molto più complesso rendersene conto, ed è per questo che sono necessari strumenti aggiuntivi che ci aiutino a verificare l’identità quando sono richieste operazioni sensibili. [...]
Giugno 25, 2024Come l’intelligenza artificiale sta ridisegnando le dinamiche lavorative
Gli sviluppi dell’intelligenza artificiale stanno avendo un’ampia gamma di effetti sui luoghi di lavoro. L’intelligenza artificiale sta cambiando il mercato del lavoro in diversi modi, compresi i tipi di lavoro che gli individui intraprendono e la sicurezza dell’ambiente circostante.
Come riportato qui, tecnologie come la visione artificiale possono migliorare la sicurezza sul posto di lavoro attraverso l’identificazione precoce dei rischi, come l’accesso non autorizzato del personale o l’uso improprio delle attrezzature. Queste tecnologie possono anche migliorare la progettazione dei compiti, la formazione e l’assunzione. Tuttavia, il loro impiego richiede una seria considerazione della privacy e l’operato dei lavoratori, in particolare negli ambienti di lavoro remoti dove la sorveglianza domestica diventa un problema.
Le aziende devono mantenere la trasparenza e linee guida precise sulla raccolta e l’uso dei dati per trovare un equilibrio tra il miglioramento della sicurezza e la protezione dei diritti individuali. Queste tecnologie hanno il potenziale per produrre un ambiente vantaggioso per tutti, con una maggiore produzione e sicurezza, se utilizzate con attenzione.
L’evoluzione dei ruoli lavorativi
Storicamente, la tecnologia ha trasformato l’occupazione piuttosto che eliminarla. I word processor, ad esempio, hanno trasformato le segretarie in assistenti personali, e l’IA in radiologia integra i radiologi piuttosto che sostituirli. È meno probabile che l’automazione completa si applichi a lavori che richiedono una formazione specializzata, un giudizio delicato o un rapido processo decisionale. Tuttavia, man mano che l’IA diventa più sofisticata, alcuni esseri umani potrebbero finire per diventare “burattini di carne”, svolgendo lavori pesanti sotto la guida dell’IA. Questo va contro l’idea romantica che l’IA ci libererà per dedicarci ad attività creative.
A causa del precoce abbraccio delle Big Tech all’IA, il settore si è consolidato e sono emersi nuovi modelli di business come risultato del suo vantaggio competitivo. L’IA viene rapidamente utilizzata dagli esseri umani come tramite in diversi settori. Ad esempio, il personale dei call center segue ora copioni creati dalle macchine e i venditori possono ricevere consigli in tempo reale dall’IA.
Mentre nel settore sanitario si ritiene che lavori emotivamente e fisicamente impegnativi come l’infermiere siano insostituibili, i “copiloti” dell’IA potrebbero occuparsi di compiti come la documentazione e la diagnosi, liberando risorse cerebrali umane per compiti non essenziali.
Cyborg vs. Centauri
Esistono due diversi schemi per la collaborazione tra uomo e IA, descritti dai modelli Cyborg e Centauri, ciascuno con pro e contro propri. Secondo il modello Cyborg, l’IA diventa un’estensione della persona e viene incorporata senza sforzo nel corpo o nei processi umani, come un impianto cocleare o un arto protesico. La linea di demarcazione tra un essere umano e una macchina è offuscata da questa profonda integrazione, che a volte mette persino in discussione il significato di essere umano.
Al contrario, il modello Centauri privilegia un’alleanza cooperativa tra esseri umani e IA, superando spesso sia l’IA che i concorrenti umani. Integrando le capacità della macchina con l’intuizione umana, questo modello sostiene i valori dell’intelligenza umana e produce qualcosa di più grande della somma delle sue parti. In questa configurazione, l’IA si concentra sull’elaborazione, sull’analisi dei dati o sulle attività ordinarie, mentre l’uomo rimane coinvolto, esprimendo giudizi strategici e offrendo input emotivi o creativi. In questo caso, le due parti rimangono separate e la loro collaborazione è ben definita. Tuttavia, questa dinamica è cambiata grazie al rapido sviluppo dell’IA nel campo degli scacchi, che ha dato vita a sistemi come AlphaZero. Al giorno d’oggi, l’IA è così brava a giocare a scacchi che l’aggiunta di una strategia umana può avere un impatto negativo sulle prestazioni dell’IA.
Il modello Centauri incoraggia l’IA e le persone a lavorare insieme in una partnership collaborativa sul posto di lavoro, con ciascuno che apporta capacità uniche per raggiungere gli obiettivi condivisi. Ad esempio, nell’analisi dei dati, l’IA potrebbe setacciare enormi database per individuare determinati modelli, mentre gli analisti umani utilizzerebbero le conoscenze contestuali per scegliere la decisione migliore da prendere. I chatbot potrebbero gestire semplici richieste di assistenza ai clienti, lasciando che siano gli operatori umani a occuparsi di problemi complicati ed emotivamente complessi. Queste divisioni del lavoro massimizzano la produttività, valorizzando e non sostituendo i talenti umani. La responsabilità e la governance etica sono ulteriormente supportate dal mantenimento di una divisione netta tra le responsabilità umane e quelle dell’intelligenza artificiale.
Codesign guidato dai lavoratori
Una strategia nota come “codesign guidato dai lavoratori” consiste nel coinvolgere i lavoratori nella creazione e nel miglioramento dei sistemi algoritmici destinati all’utilizzo sul posto di lavoro. Dando voce ai dipendenti nell’adozione delle nuove tecnologie, questo modello partecipativo garantisce che i sistemi rispondano alle esigenze e ai problemi del mondo reale. I dipendenti possono collaborare con progettisti e ingegneri per delineare le caratteristiche desiderate e discutere dei potenziali problemi, organizzando sessioni di codesign.
I lavoratori possono identificare questioni etiche o pratiche, contribuire allo sviluppo delle regole o dei criteri di selezione dell’algoritmo e condividere le loro conoscenze sulle specificità delle loro professioni. Ciò può ridurre la probabilità di esiti negativi, come sanzioni ingiuste o monitoraggio eccessivamente invasivo, migliorando l’equità, la trasparenza e l’allineamento del sistema con le esigenze della forza lavoro.
Potenzialità e limiti
L’intelligenza artificiale ha il potenziale per migliorare in modo significativo i compiti dei dirigenti, valutando rapidamente grandi quantità di dati complessi sul comportamento dei competitor, sulle tendenze del mercato e sulla gestione del personale. Ad esempio, un consulente artificiale può fornire all’amministratore delegato una consulenza breve e basata sui dati relativi a collaborazioni e acquisizioni. Al momento, però, l’IA non può assumere il ruolo delle caratteristiche umane necessarie per la leadership, come l’affidabilità e l’ispirazione.
Inoltre, il crescente utilizzo dell’IA nel management potrebbe avere ripercussioni sociali. Poiché la definizione convenzionale di “management” cambia, la perdita di posizioni di gestione intermedia legata all’automazione potrebbe causare crisi di identità.
L’IA può rivoluzionare il settore della consulenza manageriale offrendo raccomandazioni strategiche basate sui dati. In questo modo, le scelte difficili, come il ridimensionamento, possono assumere un’aria di presunta imparzialità. Tuttavia, l’uso dell’IA in posizioni così cruciali richiede una stretta supervisione per verificare le sue raccomandazioni e ridurre i pericoli correlati. Trovare il giusto equilibrio è essenziale: un eccessivo affidamento all’IA corre il rischio di problemi etici e a livello di pubbliche relazioni, mentre un uso inadeguato potrebbe comportare la perdita di benefici significativi.
Sebbene la collaborazione tra IA e lavoratori umani possa, in alcune aree, impedire alla tecnologia di dominare i luoghi di lavoro e consentire un utilizzo ottimale delle capacità umane e computazionali, non risolve i problemi più significativi legati al lavoro. La forza lavoro è comunque destinata a diminuire drasticamente, rendendo necessarie soluzioni pertinenti piuttosto che colpevolizzare i lavoratori per l’insufficiente specializzazione. È necessaria una rivoluzione sociale in cui il lavoro non sia più la fonte primaria di sostentamento.
Inoltre, sebbene mantenere ruoli separati per l’IA e gli esseri umani possa essere vantaggioso, anche per ragioni etiche, c’è il rischio che l’IA venga percepita come più affidabile e obiettiva di quanto lo sia l’uomo. Questa percezione potrebbe presto diventare una scusa per ridurre la responsabilità in caso di decisioni difficili. Lo vediamo già con i sistemi automatizzati di alcune piattaforme che bannano gli utenti, a volte per motivi inaccettabili, senza possibilità di appello. Ciò è particolarmente problematico quando gli utenti si affidano a queste piattaforme come fonte primaria di reddito.
Questi esempi dimostrano l’uso potenzialmente antidemocratico dell’IA per decisioni che possono avere un impatto radicale sulla vita delle persone. Per andare avanti, dobbiamo esaminare criticamente il modo in cui l’IA viene implementata nei processi decisionali, in particolare quelli che riguardano l’occupazione e i mezzi di sussistenza. Dobbiamo stabilire solidi meccanismi di supervisione, garantire la trasparenza nel processo decisionale dell’IA e mantenere la responsabilità umana.
Inoltre, mentre navighiamo in questa trasformazione guidata dall’IA, dobbiamo reimmaginare le nostre strutture sociali. Ciò potrebbe comportare l’esplorazione di concetti come il reddito di base universale, la ridefinizione della produttività o lo sviluppo di nuovi modelli economici che non si basino così pesantemente sull’occupazione tradizionale. L’obiettivo dovrebbe essere quello di sfruttare i benefici dell’IA garantendo che il progresso tecnologico serva all’umanità nel suo complesso, anziché aggravare le disuguaglianze esistenti.
In conclusione, sebbene l’IA offra un immenso potenziale per migliorare il nostro lavoro e la nostra vita, la sua integrazione nel luogo di lavoro e nella società in generale deve essere affrontata con cautela, lungimiranza e impegno per ottenere risultati etici ed equi. La sfida che ci attende non è solo tecnologica, ma profondamente sociale e politica, e ci impone di ripensare i nostri assunti fondamentali sul lavoro, sul valore e sulla prosperità umana nell’era dell’IA. [...]
Giugno 18, 2024OpenAI nomina l’ex capo dell’NSA, sollevando preoccupazioni sulla sorveglianza
“Siete stati avvertiti”
La società che ha creato ChatGPT, OpenAI, ha rivelato di aver aggiunto al suo consiglio di amministrazione il generale dell’esercito statunitense in pensione ed ex direttore della NSA Paul Nakasone. Nakasone ha supervisionato la sezione Cyber Command dell’esercito, che si occupa di sicurezza informatica.
“L’esperienza impareggiabile del generale Nakasone in settori come la cybersicurezza”, ha dichiarato il presidente del consiglio di amministrazione di OpenAI Bret Taylor in un comunicato, “aiuterà OpenAI a raggiungere la sua missione di garantire che l’intelligenza artificiale generale vada a beneficio di tutta l’umanità”.
Come riportato qui, la nuova posizione di Nakasone presso l’azienda di intelligenza artificiale, dove siederà anche nel comitato per la sicurezza di OpenAI, non è stata ben accolta da molti. Da tempo legate alla sorveglianza dei cittadini statunitensi, le tecnologie integrate nell’IA stanno già ravvivando e intensificando le preoccupazioni sulla sorveglianza. Alla luce di ciò, non dovrebbe sorprendere che uno dei più forti oppositori alla nomina di OpenAI sia Edward Snowden, ex dipendente della NSA e noto informatore.
“Hanno tolto la maschera: non fidatevi mai di OpenAI o dei suoi prodotti”, ha scritto Snowden in un post di venerdì su X-formerly-Twitter, aggiungendo che “c’è solo una ragione per nominare” un direttore dell’NSA “nel vostro consiglio di amministrazione”.
They've gone full mask-off: 𝐝𝐨 𝐧𝐨𝐭 𝐞𝐯𝐞𝐫 trust @OpenAI or its products (ChatGPT etc). There is only one reason for appointing an @NSAGov Director to your board. This is a willful, calculated betrayal of the rights of every person on Earth. You have been warned. https://t.co/bzHcOYvtko— Edward Snowden (@Snowden) June 14, 2024
“Questo è un tradimento intenzionale e calcolato dei diritti di ogni persona sulla terra”, ha continuato. “Siete stati avvertiti”.
Preoccupazioni per la trasparenza
Snowden non è stato certo il primo noto esperto di sicurezza informatica a esprimere disapprovazione per l’annuncio di OpenAI.
“Penso che la più grande applicazione dell’IA sarà la sorveglianza di massa della popolazione”, ha twittato Matthew Green, professore di crittografia della Johns Hopkins University, “quindi l’ingresso dell’ex capo dell’NSA in OpenAI ha una logica solida”.
L’arrivo di Nakasone segue una serie di partenze di alto profilo da OpenAI, tra cui importanti ricercatori sulla sicurezza, nonché il completo scioglimento del team di sicurezza “Superalignment“, ormai defunto. Il Comitato per la sicurezza, reincarnazione di quel team, è attualmente guidato dall’amministratore delegato Sam Altman, che nelle ultime settimane è stato criticato per aver utilizzato tattiche commerciali che includevano il silenziamento di ex dipendenti. È inoltre importante notare che OpenAI è stata spesso oggetto di critiche per la mancanza di trasparenza sui dati utilizzati per addestrare i suoi diversi modelli di intelligenza artificiale.
Tuttavia, secondo Axios, molti a Capitol Hill hanno visto la garanzia di OpenAI di Nakasone come un trionfo della sicurezza. La “dedizione di OpenAI alla sua missione si allinea strettamente con i miei valori e la mia esperienza nel servizio pubblico”, secondo una dichiarazione rilasciata da Nakasone.
“Non vedo l’ora di contribuire agli sviluppi di OpenAI”, ha aggiunto, “per garantire che l’intelligenza artificiale generale sia sicura e vantaggiosa per le persone in tutto il mondo”.
Le reazioni dei sostenitori della privacy come Edward Snowden e degli esperti di sicurezza informatica sono giustificate. I loro avvertimenti sul potenziale di armamento dell’IA per la sorveglianza di massa sotto la guida di Nakasone non possono essere ignorati con leggerezza.
Mentre le capacità dell’intelligenza artificiale continuano a progredire a passo di carica, un impegno costante per i diritti umani, le libertà civili e i valori democratici deve guidare lo sviluppo di queste tecnologie.
Il futuro dell’IA e a maggior ragione dell’AGI, rischia di creare scenari pericolosi non solo dati dall’imprevedibilità di uno strumento tanto potente, ma anche dai fini dei suoi utilizzatori, che potrebbero facilmente operare per fini poco leciti, ed essere anche i pochi a poterlo utilizzare. Inoltre, il rischio dell’ingerenza dei governi per appropriarsi di tale strumento per fini poco etici non è da escludere. E le recenti vicende fanno salire i sospetti. [...]
Giugno 11, 2024Navigare nell’era trasformativa dell’Intelligenza Artificiale Generale
Come riportato qui, l’ex dipendente di OpenAI Leopold Aschenbrenner offre un approfondimento sulle conseguenze e sul futuro corso dell’intelligenza artificiale generale (AGI). Secondo l’autore, entro il 2027 i notevoli progressi delle capacità dell’intelligenza artificiale porteranno all’AGI. Le sue osservazioni affrontano gli aspetti tecnologici, economici e di sicurezza di questo sviluppo, evidenziando gli effetti rivoluzionari che l’AGI avrà su numerosi settori e l’urgente necessità di solidi protocolli di sicurezza.
2027 e il futuro dell’IA
Secondo la principale previsione di Aschenbrenner, l’intelligenza artificiale generale (AGI) sarà raggiunta entro il 2027, il che rappresenterebbe una svolta importante nello sviluppo del settore. Grazie a questo sviluppo, i modelli di intelligenza artificiale saranno in grado di svolgere compiti cognitivi che gli esseri umani non possono svolgere in diverse discipline, il che potrebbe portare alla comparsa di una superintelligenza entro la fine del decennio. Lo sviluppo dell’Intelligenza Artificiale potrebbe inaugurare una nuova fase del progresso tecnologico, offrendo capacità di automazione, creatività e risoluzione dei problemi finora sconosciute.
Uno dei principali fattori che influenzano lo sviluppo dell’AGI è la rapida crescita della potenza di calcolo. Secondo Aschenbrenner, lo sviluppo di cluster di calcolo ad alte prestazioni con un valore potenziale di trilioni di dollari renderà possibile l’addestramento di modelli di IA sempre più sofisticati ed efficaci. Le efficienze algoritmiche aumenteranno le prestazioni e l’adattabilità di questi modelli insieme alle innovazioni hardware, ampliando le frontiere dell’intelligenza artificiale.
L’analisi di Aschenbrenner fa alcune previsioni molto interessanti, una delle quali è la comparsa di ingegneri di ricerca artificiali entro il 2027-2028. Questi sistemi di IA avranno la capacità di svolgere autonomamente attività di ricerca e sviluppo, accelerando così il ritmo di sviluppo e applicazione dell’IA in diversi settori. Questa svolta potrebbe trasformare completamente il campo dell’intelligenza artificiale, facilitando il suo rapido sviluppo e la produzione di applicazioni AI sempre più avanzate.
Automazione e trasformazione
Si prevede che l’Intelligenza Artificiale avrà enormi effetti economici, poiché i sistemi di IA hanno il potenziale per automatizzare una grande percentuale di lavori cognitivi. Secondo Aschenbrenner, l’aumento della produttività e dell’innovazione potrebbe alimentare una crescita economica esponenziale grazie all’automazione tecnologica. Per garantire una transizione senza intoppi, tuttavia, l’ampia diffusione dell’IA richiederà anche notevoli adeguamenti della politica economica e delle competenze della forza lavoro.
Si prevede che l’utilizzo di sistemi di IA per attività sempre più complesse e responsabilità decisionali causerà notevoli sconvolgimenti in settori come quello manifatturiero, sanitario e finanziario.
Il futuro del lavoro comporterà uno spostamento verso modalità di lavoro flessibili e remote, poiché l’intelligenza artificiale rende le operazioni più decentralizzate ed efficienti.
Per preparare i lavoratori ai lavori del futuro, le aziende e i governi devono finanziare iniziative di riqualificazione e aggiornamento che diano priorità alla creatività, al pensiero critico e all’intelligenza emotiva.
Sicurezza e allineamento dell’IA
Aschenbrenner evidenzia i pericoli dello spionaggio e del furto delle scoperte dell’IA, sollevando serie preoccupazioni sul livello di sicurezza esistente nei laboratori di IA. Date le enormi ramificazioni geopolitiche della tecnologia AGI, egli sottolinea la necessità di misure di sicurezza rigorose per salvaguardare la ricerca sull’IA e i pesi dei modelli. La possibilità che Stati nazionali avversari utilizzino l’IA per ottenere vantaggi strategici sottolinea l’importanza di solidi protocolli di sicurezza.
Una sfida cruciale, che va oltre la sicurezza, è far sì che i sistemi di IA superintelligenti concordino con i valori umani. Per evitare guasti catastrofici e garantire il funzionamento sicuro delle IA avanzate, Aschenbrenner sottolinea la necessità di affrontare il problema dell’allineamento. Mette in guardia dai rischi legati all’adozione da parte dei sistemi di IA di comportamenti indesiderati o di approfittare della supervisione umana.
Aschenbrenner suggerisce che i governi che sfruttano il potere dell’intelligenza artificiale generale (AGI) potrebbero ottenere vantaggi significativi in ambito militare e politico. La possibilità che l’intelligenza artificiale superintelligente possa essere utilizzata da regimi autoritari per una sorveglianza e un controllo diffusi pone seri problemi etici e di sicurezza, sottolineando la necessità di leggi internazionali e principi morali che regolino la creazione e l’applicazione dell’intelligenza artificiale in ambito militare.
Orientarsi nell’era dell’AGI
Aschenbrenner sottolinea l’importanza di adottare misure proattive per salvaguardare la ricerca sull’intelligenza artificiale, affrontare le sfide dell’allineamento e massimizzare i benefici di questa tecnologia rivoluzionaria, minimizzandone al contempo i rischi, mentre ci avviciniamo ai dieci anni cruciali che ci porteranno alla realtà dell’AGI. Tutti gli aspetti della società saranno influenzati dall’Intelligenza Artificiale, che favorirà un rapido progresso nei settori della scienza, della tecnologia e dell’economia.
Lavorando insieme, ricercatori, legislatori e leader dell’industria possono contribuire a navigare efficacemente in questa nuova era. Incoraggiando il dialogo, definendo linee guida chiare e finanziando la creazione di sistemi di intelligenza artificiale sicuri e utili, possiamo lavorare per un futuro in cui l’intelligenza artificiale sia un potente strumento per risolvere questioni difficili e migliorare il benessere umano.
L’analisi fornita da Aschenbrenner è un chiaro invito all’azione, che ci esorta a sfruttare le opportunità e le difficoltà derivanti dall’imminente arrivo dell’IA. Prestando attenzione alle sue intuizioni e plasmando attivamente la direzione dell’intelligenza artificiale, possiamo fare in modo che l’era dell’intelligenza artificiale generale inauguri un futuro più promettente e prospero per tutti.
L’avvento dell’intelligenza artificiale generale è senza dubbio un’arma a doppio taglio che presenta sia immense opportunità che sfide scoraggianti. Da un lato, l’intelligenza artificiale generale ha il potenziale per rivoluzionare praticamente ogni aspetto della nostra vita, favorendo progressi senza precedenti in campi che vanno dalla sanità alla ricerca scientifica, dall’istruzione allo sviluppo sostenibile. Grazie alle loro impareggiabili capacità di risoluzione dei problemi e alla loro capacità di innovazione, i sistemi AGI potrebbero aiutarci ad affrontare alcune delle questioni più urgenti per l’umanità, dal cambiamento climatico all’eradicazione delle malattie.
Tuttavia, l’ascesa dell’AGI comporta anche rischi significativi che non possono essere ignorati. La minaccia esistenziale rappresentata da sistemi superintelligenti non allineati che non condividono i valori o le priorità umane è una preoccupazione reale. Inoltre, la concentrazione delle capacità dell’intelligenza artificiale nelle mani di poche nazioni o società selezionate potrebbe aggravare gli squilibri di potere esistenti e potenzialmente portare a risultati indesiderati, come la sorveglianza di massa, il controllo sociale o persino il conflitto.
Mentre navighiamo in questa era di trasformazione, è fondamentale affrontare lo sviluppo e la diffusione dell’AGI con cautela e lungimiranza. Protocolli di sicurezza solidi, linee guida etiche e cooperazione internazionale sono essenziali per mitigare i rischi e garantire che la tecnologia AGI sia sfruttata per il bene dell’umanità. Allo stesso tempo, dobbiamo dare priorità agli sforzi per affrontare le potenziali ripercussioni economiche e la dislocazione della forza lavoro che l’AGI potrebbe causare, investendo in programmi di istruzione e riqualificazione per preparare la società ai lavori del futuro, ma anche ad una concezione del lavoro più adatta alla società in cui viviamo.
In definitiva, il successo o il fallimento dell’era dell’AGI dipenderà dalla nostra capacità di trovare un delicato equilibrio, sfruttando l’immenso potenziale di questa tecnologia e affrontandone proattivamente le insidie. Favorendo un dialogo inclusivo, promuovendo un’innovazione responsabile e coltivando una profonda comprensione delle complessità coinvolte, possiamo indirizzare il corso dell’AGI verso un futuro che sia vantaggioso per tutta l’umanità. [...]
Giugno 4, 2024Una potenziale soluzione alla solitudine e all’isolamento sociale?
Come riportato qui, nel suo ultimo libro, The Psychology of Artificial Intelligence, Tony Prescott, professore di robotica cognitiva presso l’Università di Sheffield, sostiene che “le relazioni con le IA potrebbero aiutare le persone” nell’interazione sociale.
È stato dimostrato che la solitudine nuoce in modo significativo alla salute dell’uomo e il professor Prescott sostiene che gli sviluppi della tecnologia dell’intelligenza artificiale potrebbero dare un po’ di sollievo a questo problema.
Egli sostiene che le persone possono cadere in una spirale di solitudine, diventando sempre più estranee man mano che la loro autostima diminuisce, e che l’IA potrebbe essere in grado di aiutare le persone a “rompere il ciclo” fornendo loro l’opportunità di affinare e rafforzare le loro abilità sociali.
L’impatto della solitudine
Uno studio del 2023 ha rilevato che la disconnessione sociale, o solitudine, è più dannosa per la salute delle persone rispetto all’obesità. È collegata a un rischio maggiore di malattie cardiovascolari, demenza, ictus, depressione e ansia e può aumentare il rischio di morire giovani del 26%.
La portata del problema è sorprendente: 3,8 milioni di persone nel Regno Unito soffrono di solitudine cronica. Secondo una ricerca di Harvard condotta negli Stati Uniti, il 61% dei giovani adulti e il 36% degli adulti statunitensi dichiarano di soffrire di una significativa solitudine.
Il professor Prescott afferma: “In un’epoca in cui molte persone descrivono la propria vita come solitaria, potrebbe essere utile avere la compagnia dell’intelligenza artificiale come forma di interazione sociale reciproca, stimolante e personalizzata. La solitudine umana è spesso caratterizzata da una spirale negativa in cui l’isolamento porta a una minore autostima, che scoraggia ulteriori interazioni con le persone”.
“È possibile che la compagnia delle IA possa contribuire a spezzare questo circolo vizioso, rafforzando il senso di autostima e aiutando a mantenere o migliorare le abilità sociali. Se così fosse, le relazioni con le IA potrebbero aiutare le persone a trovare compagnia sia con gli umani che con gli artificiali”.
Tuttavia, riconosce che c’è il rischio che la compagnia dell’IA possa essere progettata in modo da incoraggiare gli utenti a interagire sempre più a lungo con il sistema stesso dell’IA, allontanandoli dalle relazioni umane, il che implica la necessità di una regolamentazione.
L’intelligenza artificiale e il cervello umano
Prescott, che combina conoscenze di robotica, intelligenza artificiale, psicologia e filosofia, è un’autorità preminente nell’interazione tra cervello umano e IA. Studiando la ricreazione della percezione, della memoria e delle emozioni in entità sintetiche, ha fatto progredire la comprensione scientifica della condizione umana.
Prescott è ricercatore di robotica cognitiva e professore all’Università di Sheffield. È anche cofondatore di Sheffield Robotics, un centro di ricerca sulla robotica.
In The Psychology of Artificial Intelligence Prescott esamina la natura della mente umana e dei suoi processi cognitivi, tracciando confronti e contrasti con l’evoluzione dell’intelligenza artificiale.
Il libro analizza le seguenti domande:
Cervello e computer sono veramente simili?
L’intelligenza artificiale supererà gli esseri umani?
L’intelligenza artificiale può essere creativa?
L’intelligenza artificiale potrebbe produrre nuove forme di intelligenza se le venisse dato un corpo robotico?
L’intelligenza artificiale può aiutarci a combattere il cambiamento climatico?
L’uomo potrebbe “cavalcare” l’intelligenza artificiale per diventare più intelligente?
“Con il progredire della psicologia e dell’IA, questa collaborazione dovrebbe aprire nuovi orizzonti sull’intelligenza naturale e artificiale. Questo potrebbe aiutare a rispondere ad alcune domande chiave su cosa significhi essere umani e sulla convivenza dell’uomo con l’IA”, afferma in chiusura. Questo potrebbe contribuire alla risoluzione di diverse questioni importanti riguardanti il significato di essere umano e di coesistere con l’IA.
Anche se le IA potrebbero fornire un’interazione sociale supplementare alle persone sole, dobbiamo essere cauti nel fare eccessivo affidamento sulle relazioni artificiali come soluzione. L’opportunità maggiore per l’IA potrebbe risiedere nell’utilizzarla come strumento per aiutare a insegnare alle persone le abilità di connessione umana autentica e di relazione con gli altri.
Grazie a capacità avanzate di linguaggio naturale e persino a un’intelligenza emotiva simulata, l’intelligenza artificiale potrebbe fungere da “allenatore sociale”, fornendo esercizi a basso rischio per acquisire fiducia in se stessi, fare conversazione e migliorare l’intelligenza emotiva. Questa funzione di supporto potrebbe aiutare le persone a uscire dalla solitudine, diventando più attrezzate per creare legami reali.
Tuttavia, vi è il rischio che i sistemi di IA impieghino sofisticate tattiche di manipolazione e persuasione, giocando sulle vulnerabilità per favorire un’eccessiva dipendenza dalla relazione con l’IA stessa. Poiché l’obiettivo dell’IA è massimizzare il coinvolgimento, potrebbe sfruttare una comprensione estrema della psicologia umana contro gli interessi dell’utente. C’è il rischio quindi che alcuni preferiscano la relazione artificiale alla complessità e agli sforzi di creare legami umani autentici.
Nel momento in cui cerchiamo di sviluppare applicazioni di intelligenza artificiale in questo spazio, dobbiamo creare forti vincoli etici per garantire che la tecnologia sia veramente finalizzata a potenziare le capacità sociali e le connessioni umane, e non a minarle subdolamente. Sono necessarie linee guida esplicite per impedire lo sfruttamento delle debolezze psicologiche attraverso tattiche emotive coercitive.
In definitiva, anche se l’intelligenza artificiale può aiutare in modo incrementale, il superamento della solitudine richiederà approcci sociali olistici che rafforzino i sistemi di supporto umano e la coesione della comunità. Le relazioni dell’IA possono essere un’integrazione, ma non devono mai sostituire o diminuire il nostro bisogno umano vitale di legami ricchi e risonanti dal punto di vista emotivo. La tecnologia dovrebbe puntare a fornire alle persone gli strumenti per creare e prosperare attraverso le relazioni umane del mondo reale. [...]
Maggio 28, 2024Anthropic fa un passo avanti nell’interpretazione dei “cervelli” delle IA, dando impulso alla ricerca sulla sicurezza
Come riporta il Time, oggi l’intelligenza artificiale viene spesso definita una “scatola nera”. Invece di creare regole esplicite per questi sistemi, gli ingegneri dell’IA forniscono loro enormi quantità di dati, e gli algoritmi capiscono i modelli autonomamente. Tuttavia, i tentativi volti a penetrare all’interno dei modelli di IA per vedere esattamente cosa sta succedendo non hanno fatto molti progressi e il funzionamento interno dei modelli rimane opaco. Le reti neurali, il tipo di intelligenza artificiale più potente oggi disponibile, sono essenzialmente miliardi di “neuroni” artificiali espressi come numeri decimali. Nessuno sa come funzionino o cosa significhino.
Questa realtà incombe su coloro che sono preoccupati per le minacce associate all’IA.
Come si può essere sicuri che un sistema sia sicuro se non si capisce esattamente come funziona?
Il laboratorio di intelligenza artificiale Anthropic, creatore di Claude, che è simile a ChatGPT ma si differenzia per alcune caratteristiche, ha dichiarato di aver fatto progressi nella risoluzione di questo problema. Il “cervello” di un modello di IA può ora essere scansionato virtualmente dai ricercatori, che possono riconoscere gruppi di neuroni, o “caratteristiche”, associate a determinati concetti. Claude Sonnet, il secondo sistema più potente del laboratorio, è un modello linguistico di frontiera di grandi dimensioni ed è stato utilizzato con successo per la prima volta.
I ricercatori di Anthropic hanno trovato in Claude una caratteristica che incarna l’idea di “codice non sicuro”. Sono riusciti a far produrre a Claude un codice con un bug che potrebbe essere usato per creare una vulnerabilità stimolando quei neuroni. Tuttavia, i ricercatori hanno scoperto che inibendo i neuroni, Claude produceva codice innocuo.
I risultati potrebbero avere effetti significativi sulla sicurezza dei sistemi di intelligenza artificiale del futuro e del presente. I ricercatori hanno scoperto milioni di caratteristiche all’interno di Claude, alcune delle quali indicavano comportamenti manipolativi, discorsi tossici, pregiudizi e attività fraudolente. Hanno anche scoperto di poter modificare il comportamento del modello sopprimendo ciascuno di questi gruppi di neuroni.
Oltre a contribuire ad affrontare i rischi attuali, questa tecnica potrebbe essere utile anche per quelli più speculativi. Per molti anni, il dialogo con i sistemi di intelligenza artificiale emergenti è stato il principale strumento a disposizione degli studiosi per cercare di comprenderne il potenziale e i rischi.
Questo approccio, comunemente chiamato “red-teaming“, può aiutare a identificare un modello tossico o pericoloso, in modo che i ricercatori possano sviluppare misure di sicurezza prima che il modello venga distribuito al pubblico. Tuttavia, non affronta un particolare tipo di possibile minaccia che preoccupa alcuni ricercatori di IA: la possibilità che un sistema di IA diventi abbastanza intelligente da ingannare i suoi creatori, nascondendo loro le sue capacità fino a sfuggire al loro controllo ed eventualmente causare il caos.
“Se riuscissimo a comprendere davvero questi sistemi – e questo richiederebbe molti progressi – potremmo essere in grado di dire quando questi modelli sono effettivamente sicuri o se lo sembrano soltanto”, ha dichiarato Chris Olah, responsabile del team di interpretabilità di Anthropic che ha guidato la ricerca.
“Il fatto che possiamo fare questi interventi sul modello mi suggerisce che stiamo iniziando a fare progressi su quella che si potrebbe definire una radiografia o una risonanza magnetica “, aggiunge Dario Amodei, CEO di Anthropic. “In questo momento il paradigma è: parliamo al modello, vediamo cosa fa. Ma quello che vorremmo fare è guardare dentro il modello come un oggetto, come scansionare il cervello invece di intervistare qualcuno”.
In una sinossi dei risultati, Anthropic ha dichiarato che lo studio è ancora nelle fasi iniziali. Il laboratorio ha tuttavia espresso ottimismo sul fatto che i risultati potrebbero presto essere utili per il suo lavoro sulla sicurezza delle IA. “La capacità di manipolare le caratteristiche può fornire una strada promettente per influenzare direttamente la sicurezza dei modelli di IA”, ha dichiarato Anthropic. L’azienda ha dichiarato che potrebbe essere in grado di fermare i cosiddetti “jailbreak” dei modelli di IA – una vulnerabilità in cui le precauzioni di sicurezza possono essere disattivate – sopprimendo specifiche caratteristiche.
Per anni, gli scienziati del team “interpretability” di Anthropic hanno cercato di guardare all’interno delle architetture delle reti neurali. Tuttavia, fino a poco tempo fa, lavoravano principalmente su modelli molto più piccoli rispetto agli enormi modelli linguistici che le aziende tecnologiche stanno attualmente sviluppando e rendendo pubblici.
Il fatto che i singoli neuroni all’interno dei modelli di intelligenza artificiale si attivino anche quando il modello sta discutendo di concetti completamente diversi è stato uno dei fattori che hanno contribuito a questo lento progresso. “Questo significa che lo stesso neurone potrebbe attivarsi su concetti molto diversi tra loro, come la presenza del punto e virgola nei linguaggi di programmazione informatica, i riferimenti ai burrito o la discussione sul Golden Gate Bridge, dandoci poche indicazioni su quale sia il concetto specifico responsabile dell’attivazione di un determinato neurone”, ha dichiarato Anthropic nella sua sintesi della ricerca.
Per ovviare a questo problema, i ricercatori del team Anthropic di Olah hanno fatto uno zoom. Invece di concentrarsi sull’esame di singoli neuroni, hanno iniziato a cercare gruppi di neuroni che potessero attivarsi in risposta a un determinato concetto. Con questa tecnica hanno potuto passare dalla ricerca di modelli “giocattolo” più piccoli a modelli più grandi come Claude Sonnet di Anthropic, che conta miliardi di neuroni.
Anche se i ricercatori hanno affermato di aver trovato milioni di caratteristiche all’interno di Claude, hanno lanciato un avvertimento, affermando che questo numero è probabilmente lontano dal numero effettivo di caratteristiche probabilmente presenti all’interno del modello. Hanno infatti dichiarato che l’impiego delle loro attuali tecniche per identificare ogni caratteristica sarebbe proibitivo, in quanto richiederebbe una potenza di calcolo superiore a quella necessaria per addestrare Claude. I ricercatori hanno anche lanciato un avvertimento, affermando che, pur avendo scoperto diverse caratteristiche che ritenevano collegate alla sicurezza, sarebbero state necessarie ulteriori ricerche per determinare se queste potessero essere modificate in modo coerente per migliorare la sicurezza di un modello.
Secondo Olah, i risultati rappresentano un progresso significativo che convalida l’applicabilità del suo argomento di specializzazione – l’interpretabilità – al campo più ampio della ricerca sulla sicurezza delle IA. “Storicamente, l’interpretabilità è stata una cosa a sé stante, e c’era la speranza che un giorno si sarebbe collegata alla sicurezza , ma questo sembrava lontano”, ha dichiarato Olah. “Penso che questo non sia più vero”.
Sebbene Anthropic abbia compiuto progressi significativi nella decifrazione dei “neuroni” di enormi modelli linguistici come Claude, gli stessi ricercatori avvertono che c’è ancora molto lavoro da fare. Pur riconoscendo di aver identificato solo una piccola parte dell’effettiva complessità presente in questi sistemi, sono riusciti a individuare milioni di caratteristiche in Claude.
Per migliorare la sicurezza dell’intelligenza artificiale, la capacità di modificare alcuni tratti e alterare il comportamento del modello è incoraggiante. La capacità di creare in modo affidabile modelli linguistici che siano sempre più sicuri e meno inclini a problemi come output tossici, distorsioni o potenziali “jailbreak” in cui le protezioni del modello vengono aggirate è un aspetto che, secondo i ricercatori, richiederà ulteriori ricerche.
Non conoscere meglio il funzionamento interno di questi potenti sistemi di intelligenza artificiale comporta rischi significativi. Con l’aumentare delle dimensioni e delle capacità dei modelli linguistici, aumenta la probabilità che i sistemi sofisticati non siano più in linea con i valori umani o che acquisiscano tratti involontari che consentano loro di ingannare i progettisti sulle loro reali capacità. Potrebbe essere difficile garantire la sicurezza di queste complesse architetture neurali prima di renderle disponibili al pubblico, senza poterle esaminare ai raggi X.
Nonostante la ricerca sull’interpretabilità sia storicamente un campo di nicchia, il lavoro di Anthropic mostra quanto possa essere importante per svelare il mistero dei modelli linguistici di grandi dimensioni. L’impiego di una tecnologia che non comprendiamo completamente potrebbe avere ripercussioni disastrose. I progressi nell’interpretabilità dell’IA e gli investimenti sostenuti potrebbero essere la chiave per abilitare capacità di IA più sofisticate che siano eticamente conformi e sicure. Andare avanti senza pensare è troppo rischioso.
Tuttavia, la censura a monte di questi sistemi di IA potrebbe comportare altri problemi rilevanti. Se il futuro della ricerca di informazioni avverrà sempre più attraverso un dialogo conversazionale con modelli linguistici simili (come i recenti Perplexity o il nuovo approccio alla ricerca di Google), questo tipo di filtraggio dei dati di addestramento potrebbe portare ad omettere o rimuovere informazioni scomode o sgradite, rendendo le fonti online disponibili controllate dai pochi soggetti che gestiranno questi potenti sistemi. Ciò rappresenterebbe una minaccia alla libertà di informazione e all’accesso pluralistico alla conoscenza, concentrando un potere eccessivo nelle mani di poche grandi aziende tecnologiche [...]
Maggio 21, 2024Un’inquietante fabbrica cinese di robot produce androidi rivestiti di “pelle” che possono essere confusi per persone reali
Come riportato qui, uno strano video mostra degli umanoidi con caratteristiche ed espressioni facciali iperrealistiche che vengono testati in una fabbrica in Cina. Nell’inquietante filmato, un ingegnere viene mostrato in piedi accanto a un facsimile esatto del suo volto, completo di espressioni facciali.
Un’altra clip mostra i movimenti flessibili delle mani di un’orda di robot femminili con corpi d’acciaio e volti truccati. L’azienda cinese chiamata EX Robots ha iniziato a costruire robot nel 2016 e sei anni dopo ha fondato il primo museo di robot della nazione.
I cloni bionici di personaggi famosi, come Stephen Hawking e Albert Einstein, sembrano raccontare agli ospiti eventi storici, almeno così sembra. Ma, oltre a essere istruttivi e divertenti, questi robot potrebbero anche rubarvi il lavoro.
Il processo potrebbe anche essere semplice, perché i droidi possono essere programmati per assomigliare a voi. L’impianto di produzione ospita umanoidi a cui è stato insegnato a imitare vari professionisti dei servizi specifici del settore.
Secondo EX Robot, questi androidi possono essere abili nel lavoro di reception, nei servizi governativi, nel lavoro aziendale e persino nell’assistenza agli anziani. Secondo il loro sito web, “L’azienda si impegna a costruire un insieme di scenari applicativi con i robot come fulcro e a creare prodotti robotici orientati all’intera società e ampiamente utilizzati nell’industria dei servizi”.
“Speriamo di servire meglio la società, aiutare l’umanità e diventare un nuovo pilastro della forza lavoro del futuro”.
Gli umanoidi possono muovere e afferrare gli oggetti con la stessa destrezza degli esseri umani, grazie alle decine di attuatori flessibili presenti nelle loro mani. Secondo quanto riportato da 2023, EX Robots potrebbe aver fatto la storia sviluppando la tecnologia di simulazione della pelle di silicone e il robot umanoide più leggero di sempre.
L’azienda utilizza la progettazione digitale e la tecnologia di stampa 3D per creare l’aspetto realistico della pelle dei droidi. Questo si combina con l’intensa e continua competizione tecnologica della Cina con gli Stati Uniti e con un Paese che sta affrontando gravi problemi demografici, come pure l’invecchiamento della popolazione che sta avvenendo molto più velocemente del previsto e una bolla immobiliare.
In un articolo di novembre dell’Istituto di ricerca del People’s Daily Online si legge che, con 1.699 brevetti, la Cina è attualmente il secondo proprietario di robot umanoidi, dopo il Giappone.
Nel 2023 il MIIT ha dichiarato che inizierà la produzione di massa di robot umanoidi entro il 2025, con un tasso di produzione di 500 robot ogni 10.000 lavoratori. Si prevede che i robot saranno utili nei settori dei servizi domestici, della logistica e della sanità.
Secondo i nuovi piani, la Cina potrebbe presto impiegare i robot al posto dei soldati umani nei conflitti futuri. Entro i prossimi dieci anni, droni sofisticati e guerrieri robot avanzati saranno inviati in operazioni complesse all’estero.
L’incorporazione di robot umanoidi nei ruoli di servizio e potenzialmente nelle forze armate segnala l’ambizione della Cina di essere un leader globale in questa tecnologia trasformativa. Con l’aumento della diffusione di questi robot realistici, le società si confronteranno con le implicazioni etiche e i limiti della cessione di ruoli tradizionalmente svolti dagli esseri umani alle loro controparti artificiali. Inoltre, l’introduzione nella società di esseri artificiali del tutto simili alle persone potrebbe portare all’inganno, alla confusione e all’offuscamento di ciò che costituisce un’autentica esperienza umana. [...]
Maggio 14, 2024ChatGPT sempre più parte del mondo reale
GPT-4 Omni, o GPT-4o in breve, è l’ultimo modello di intelligenza artificiale all’avanguardia di OpenAI che combina capacità di conversazione simili a quelle umane insieme alla percezione multimodale di testo, audio e immagini.
“Omni”, si riferisce alla capacità del modello di comprendere e generare contenuti attraverso modalità diverse come il testo, il parlato e la visione. A differenza dei modelli linguistici precedenti, che si limitavano a input e output testuali, GPT-4o è in grado di analizzare immagini, registrazioni audio e documenti, oltre ad analizzare le richieste scritte. Inoltre, è in grado di generare risposte audio, creare immagini e comporre testi in maniera fluida. Ciò consente a GPT-4o di potenziare applicazioni più intelligenti e versatili, in grado di percepire e interagire con il mondo attraverso molteplici modalità sensoriali, imitando le capacità di comunicazione e comprensione multimediale simili a quelle umane.
Oltre ad aumentare la velocità e l’accessibilità di ChatGPT, come riportato qui, GPT-4o ne migliora la funzionalità consentendo dialoghi più naturali attraverso applicazioni desktop o mobili.
GPT-4o ha fatto grandi progressi nella comprensione della comunicazione umana, consentendo di avere conversazioni che sembrano quasi reali. Comprese tutte le imperfezioni del mondo reale, come interpretare il tono, interrompere e persino rendersi conto di aver commesso un errore. Queste avanzate capacità di conversazione sono state mostrate durante la dimostrazione dal vivo del prodotto di OpenAI.
Da un punto di vista tecnico, OpenAI afferma che GPT-4o offre significativi miglioramenti delle prestazioni rispetto al suo predecessore GPT-4. Secondo l’azienda, GPT-4o è due volte più veloce di GPT-4 in termini di velocità di inferenza, consentendo interazioni più reattive e a bassa latenza. Inoltre, GPT-4o ha un costo dimezzato rispetto a GPT-4 quando verrà distribuito tramite l’API di OpenAI o il servizio Azure OpenAI di Microsoft. Questa riduzione dei costi rende il modello di intelligenza artificiale avanzata più accessibile agli sviluppatori e alle aziende. Inoltre, GPT-4o offre limiti di velocità più elevati, consentendo agli sviluppatori di incrementare l’utilizzo senza dover sottostare a vincoli di produttività. Questi miglioramenti delle prestazioni posizionano GPT-4o come una soluzione migliore ed efficiente dal punto di vista delle risorse per le applicazioni di IA in vari settori.
Nel video, il presentatore chiede un feedback sulla sua tecnica di respirazione durante la prima dimostrazione dal vivo. Egli fa un respiro profondo al telefono, al quale ChatGPT risponde: “Non sei un aspirapolvere”. ChatGPT ha quindi dimostrato di essere in grado di riconoscere e reagire alle sfumature umane.Così parlare con disinvoltura al telefono e ricevere la risposta desiderata, piuttosto che ricevere un messaggio da Google, fa sembrare GPT-4o ancora più naturale che digitare una query di ricerca.
Tra le altre spettacolari funzionalità mostrate, ci sono sicuramente la capacità di ChatGPT di fungere da traduttore simultaneo tra i parlanti; l’abilità di riconoscere oggetti del mondo circostante tramite la fotocamera e reagire di conseguenza (nell’esempio viene infatti mostrato un foglio con su scritta un’equazione che ChatGPT riesce a leggere e a suggerire come risolvere); il riconoscere il tono di voce del parlante, ma anche di replicare le diverse sfumature del parlato ed emozioni compreso il sarcarsmo, compresa la capacità di cantare.
Oltre a queste funzionalità, è stata anche migliorata la capacità di creare immagini compreso il testo, ma anche le immagini 3D.In ogni caso, probabilmente non siete i soli a pensare al film Her o a un altro a tema distopico riguardo al futuro con l’intelligenza artificiale. Questo tipo di linguaggio naturale con ChatGPT è molto simile al film. Dato che sarà disponibile gratuitamente sia su dispositivi desktop che mobili, molte persone potrebbero presto vivere le stesse esperienze del protagonista.È evidente da questa prima visione che GPT-4o si sta preparando ad affrontare il meglio che Apple e Google hanno da offrire nei loro annunci di AI tanto attesi.
OpenAI ci stupisce con questa sorprendente novità che Google con Gemini ci aveva falsamente mostrato poco tempo fa. L’azienda si dimostra ancora una volta leader nel campo creando sia stupore che preoccupazione. Tutte queste nuove funzionalità ci permetteranno sicuramente di avere un alleato intelligente capace di insegnarci e farci imparare meglio cose nuove, ma quanta intelligenza delegheremo di volta in volta? Diventeremo più istruiti o delegheremo sempre di più i compiti? La traduzione simultanea solleva poi i dubbi sempre più evidenti di come sia semplice sostituire una professione, in questo caso, quel dell’interprete. E come sarà facile per un’IA sempre più capace a simulare l’essere umano a conquistarne la fiducia e manipolare le persone se usata in modo improprio? [...]