I ricercatori di Google e Stanford hanno creato repliche accurate tramite intelligenza artificiale di oltre 1.000 individui
Secondo questo articolo, i ricercatori hanno scoperto che per rappresentare accuratamente la personalità di una persona basta una conversazione di due ore con un modello di intelligenza artificiale.
Ricercatori dell’Università di Stanford e di Google hanno creato “agenti di simulazione” – in pratica, repliche IA di 1.052 persone sulla base di interviste di due ore con ciascun partecipante in un nuovo studio pubblicato nella banca dati di preprint arXiv. Grazie a queste interviste, è stato addestrato un modello generativo di intelligenza artificiale che imita il comportamento umano.
Ogni partecipante ha completato due serie di test della personalità, sondaggi di carattere sociale e giochi di logica per valutare l’accuratezza delle repliche dell’IA. Due settimane dopo, è stato chiesto loro di ripetere il processo. Seguendo gli stessi test, le repliche dell’intelligenza artificiale hanno raggiunto un tasso di accuratezza dell’85% nel riprodurre le risposte delle loro controparti umane.
Lo studio suggerisce che i modelli di intelligenza artificiale che imitano il comportamento umano potrebbero essere utili in una serie di scenari di ricerca, tra cui la valutazione dell’efficacia delle politiche di salute pubblica, la comprensione delle reazioni dei consumatori a nuovi prodotti o persino la simulazione delle risposte a eventi sociali significativi che altrimenti potrebbero essere troppo costosi, difficili o moralmente complessi da indagare con soggetti umani.
“La simulazione generalizzata di atteggiamenti e comportamenti umani, in cui ogni persona simulata può impegnarsi in una serie di contesti sociali, politici o informativi, potrebbe consentire ai ricercatori di testare un’ampia serie di interventi e teorie”, scrivono i ricercatori nel documento. Secondo loro, le simulazioni potrebbero essere utilizzate anche per testare nuovi interventi pubblici, creare teorie sulle interazioni contestuali e causali e approfondire le nostre conoscenze su come le reti e le istituzioni influenzano gli individui.
Per sviluppare gli agenti di simulazione, i ricercatori hanno intervistato i partecipanti in modo approfondito sui loro valori, sulle loro storie di vita e sui loro pensieri in merito alla società. Secondo i ricercatori, questo ha permesso all’intelligenza artificiale di cogliere sottigliezze che i sondaggi convenzionali o i dati demografici potrebbero trascurare. Inoltre, il formato di queste interviste ha permesso ai ricercatori di sottolineare gli aspetti più significativi per loro.
Queste interviste hanno aiutato i ricercatori a creare modelli di IA personalizzati in grado di prevedere le reazioni delle persone a giochi comportamentali, esperimenti sociali e domande dei sondaggi. Tra queste, le risposte al Big Five Personality Inventory, al General Social Survey, un noto strumento di valutazione degli atteggiamenti e dei comportamenti sociali, e a giochi economici come il Trust Game e il Dictator Game.
Nonostante le molte somiglianze con le loro controparti umane, l’accuratezza degli agenti IA variava a seconda del compito. Hanno avuto meno successo nel prevedere le azioni nei giochi interattivi che richiedevano un processo decisionale economico, ma si sono distinti nel replicare le risposte ai sondaggi sulla personalità e nell’identificare gli atteggiamenti sociali. Secondo gli esperti, i compiti che coinvolgono le dinamiche sociali e le sfumature contestuali sono di solito difficili da gestire per l’IA.
Hanno anche ammesso che la tecnologia potrebbe essere abusata. I malintenzionati stanno già utilizzando l’IA e la tecnologia “deepfake” per controllare, abusare, impersonare e ingannare altre persone online. Inoltre, i ricercatori hanno notato che gli agenti di simulazione possono essere utilizzati in modo improprio.
Tuttavia, hanno affermato che, offrendo un ambiente di prova altamente controllato e privo delle difficoltà morali e interpersonali associate al rapporto con gli esseri umani, la tecnologia potrebbe consentirci di indagare aspetti del comportamento umano in modi che in precedenza erano impraticabili.
L’autore principale dello studio, Joon Sung Park, dottorando in informatica a Stanford, ha dichiarato al MIT Technology Review: “Penso che il futuro sia avere un gruppo di piccoli ‘voi’ che vanno in giro e prendono le decisioni che avreste preso voi”.
Se da un lato lo sviluppo di simulazioni di IA altamente accurate segna un progresso significativo nella comprensione del comportamento umano, dall’altro solleva preoccupazioni etiche allarmanti. La capacità di creare agenti di IA in grado di imitare da vicino individui specifici potrebbe essere sfruttata per furti e frodi di identità, ma forse ancora più preoccupante è il potenziale di manipolazione psicologica. Questi sistemi di IA, grazie alla loro profonda comprensione della personalità individuale, potrebbero essere utilizzati come armi per identificare e sfruttare le vulnerabilità personali, consentendo sofisticate campagne di manipolazione mirata.
Ad esempio, un’IA che riconosca la tendenza di una persona a prendere decisioni impulsive o a scatenare emozioni specifiche potrebbe essere utilizzata per creare strategie di manipolazione estremamente efficaci, sia per il marketing predatorio che per l’ingegneria sociale o lo sfruttamento psicologico.
Mentre la visione di Joon Sung Park di “piccoli ‘voi’ che corrono in giro” si avvicina alla realtà, dobbiamo considerare attentamente non solo ciò che questi agenti di IA possono fare, ma anche come proteggere gli individui da coloro che userebbero questo potente strumento per manipolare e danneggiare piuttosto che per il progresso scientifico e il benessere sociale.