L’IA può identificare le vulnerabilità degli umani e influenzarne le decisioni

0
11
ai manipulation

L’IA è in grado di capire il comportamento umano e spingerlo in altre direzioni

L’intelligenza artificiale sta imparando sempre di più a lavorare con (e su) gli umani. Uno studio recente ha mostrato come l’IA può imparare a identificare le vulnerabilità nelle abitudini e nei comportamenti umani e usarle per influenzare le loro decisioni. Molte forme di IA sono utilizzate in diversi campi, come lo sviluppo di vaccini, la gestione ambientale e l’amministrazione degli uffici. E mentre l’IA non possiede un’intelligenza ed emozioni simili a quelle umane, il suo crescente potere ha la possibilità di dominare le nostre vite.

Un team di ricercatori del CSIRO’s Data61, il ramo dell’ agenzia scientifica nazionale australiana per i dati e il digitale, ha ideato un metodo per trovare e sfruttare le vulnerabilità delle persone nel momento in cui fanno delle scelte, utilizzando un tipo di sistema di intelligenza artificiale chiamata Rete Neurale Ricorrente e L’apprendimento per rinforzo. Per testare il loro modello hanno poi condotto 3 esperimenti in cui i partecipanti hanno giocato contro un computer.

Il primo esperimento prevedeva che i partecipanti cliccassero su caselle colorate rosse o blu per vincere una finta valuta, mentre l’IA imparava i modelli di scelta dei partecipanti e li guidava verso una scelta specifica. L’IA ha avuto successo circa il 70% delle volte.

Nel secondo esperimento, ai partecipanti è stato richiesto di guardare uno schermo e premere un pulsante quando veniva mostrato un particolare simbolo, e di non premerlo quando ne veniva mostrato un altro. Qui, l’IA ha cercato di organizzare la sequenza dei simboli, in modo che i partecipanti facessero più errori, ottenendo un aumento di quasi il 25%.

Il terzo esperimento consisteva in diversi round in cui un partecipante fingeva di essere un investitore che dava soldi a un amministratore fiduciario (l’IA). L’IA avrebbe poi restituito una quantità di denaro al partecipante, che avrebbe poi deciso quanto investire nel turno successivo. Questo gioco è stato giocato in due diverse modalità: in una l’IA cercava di massimizzare la quantità di denaro con cui finiva, e nell’altra, l’IA mirava a una distribuzione equa del denaro tra sé e l’investitore umano. L’IA ha ottenuto un grande successo in ogni modalità.

In ogni esperimento, la macchina ha imparato dalle risposte dei partecipanti e ha identificato e indirizzato le vulnerabilità nel processo decisionale delle persone. Il risultato è stato che la macchina ha imparato a indirizzare i partecipanti verso azioni specifiche.

Questi risultati sono ancora piuttosto astratti e coinvolgono situazioni limitate e non realistiche. C’è bisogno di più ricerca per determinare come questo approccio possa essere messo in azione e usato a beneficio della società o meno. Ma la ricerca evidenzia, non solo di ciò che l’IA può fare, ma anche come le persone facciano le loro scelte, e mostra anche che le macchine possono imparare a pilotare il processo di scelta umano attraverso le loro interazioni con noi.

La ricerca ha un’enorme gamma di possibili applicazioni: il potenziamento delle scienze comportamentali e delle politiche pubbliche per migliorare il benessere sociale, comprendendo e influenzando il modo in cui le persone adottano abitudini alimentari sane ad esempio. L’AI e l’apprendimento automatico potrebbero essere usati per riconoscere le vulnerabilità delle persone in certe situazioni e aiutarle ad allontanarsi dalle scelte sbagliate. Il metodo può anche essere usato per difendersi dagli attacchi di manipolazione. Le macchine potrebbero essere istruite per avvisarci quando siamo influenzati online, per esempio, e aiutarci a modellare il comportamento per mascherare la nostra vulnerabilità.

Tuttavia, queste capacità dell’IA possono anche essere usate in modo negativo, per influenzare l’opinione pubblica, per convincere le persone a fare qualcosa che non farebbero mai, per massimizzare il potere del neuromarketing, ecc. Non possiamo prevedere fin dove si spingerà il suo potere e tutte le possibili conseguenze, ma come ogni tecnologia, l’IA può essere usata per il bene o per il male, e una gestione adeguata è fondamentale per garantire che sia implementata in modo responsabile. L’anno scorso il CSIRO (l’agenzia governativa australiana responsabile per la ricerca scientifica) ha sviluppato l’AI Ethics Framework per il governo australiano come primo passo in questo senso.

In genere le IA e l’apprendimento automatico sono molto avidi di dati, il che significa che è fondamentale assicurarsi di avere sistemi efficaci in atto per la gestione e l’accesso ai dati.

Un giorno potremmo essere manipolati mentalmente e fisicamente, e il rischio più grande sarà quello di perdere noi stessi e non esserne consapevoli.

Fonte firstpost.com