Sarà utile per le persone che non sono in grado di comunicare
L’intelligenza artificiale può essere d’aiuto in molti campi, tra cui quello delle neuroscienze; un recente studio ha rilevato che l’attività cerebrale può essere decodificata in parole e frasi grazie a questa tecnologia.
Sebbene non sia perfetta, utilizzando i dati sull’attività cerebrale di una persona per alcuni secondi, l’I.A. fornisce una stima di ciò che ha sentito. In un’analisi preliminare, i ricercatori hanno scoperto che nel 73% dei casi l’intelligenza artificiale elenca la risposta giusta tra le prime dieci alternative.
Secondo Giovanni Di Liberto, informatico del Trinity College di Dublino, le prestazioni dell’I.A. sono di gran lunga superiori a quanto molti pensano.
Un giorno, le persone che non sono in grado di comunicare verbalmente o attraverso il linguaggio del corpo, potranno beneficiare di questa I.A. sviluppata da Meta, la società madre di Facebook.
La maggior parte delle tecnologie attualmente accessibili a queste persone richiede rischiosi interventi chirurgici al cervello per il posizionamento degli elettrodi, ma all’École Normale Supérieure di Parigi, come spiegato in questo articolo, il neuroscienziato e ricercatore di Meta A.I. Jean-Rémi King pensa che questa nuova tecnologia possa fornire un modo valido per aiutare le persone con deficit di comunicazione senza l’uso di tecnologie invasive.
King e i suoi colleghi hanno creato un programma computazionale per riconoscere parole e frasi utilizzando 56.000 ore di registrazioni audio in 53 lingue. Un modello linguistico, come viene comunemente chiamato, ha la capacità di riconoscere elementi linguistici a livello sia specifico sia più generale: dalle lettere e sillabe fino al livello di parola e frase.
Utilizzando la magnetoencefalografia, o MEG, i ricercatori hanno scoperto che fino al 73% delle volte la risposta esatta era tra le prime dieci scelte dell’intelligenza artificiale.
Di Liberto sostiene che, utilizzando l’elettroencefalografia, la percentuale non superava il 30%, ma è meno ottimista sulle sue applicazioni effettive.
La causa è da attribuire al fatto che la MEG richiede apparecchiature costose e ingombranti. Saranno quindi necessari progressi tecnologici per rendere l’apparecchiatura meno costosa e sofisticata, in modo che possa essere utilizzata nelle cliniche.
Tuttavia, va detto che la parola “decodifica” è spesso usata per descrivere il processo di ottenimento di informazioni direttamente da una fonte, in questo esempio il linguaggio dall’attività cerebrale. L’I.A. però è stata in grado di farlo solo perché aveva un piccolo bacino di informazioni possibilmente affidabili da cui attingere per formulare le sue ipotesi, ma il linguaggio è pressoché infinito.
L’équipe ha addestrato un’I.A. utilizzando questo modello linguistico su database provenienti da quattro diverse istituzioni che contenevano l’attività cerebrale di 169 partecipanti. I partecipanti a questi database sono stati sottoposti a scansioni cerebrali magnetoencefalografiche o elettroencefalografiche mentre ascoltavano vari brani e racconti. Questi brani e racconti contenevano frammenti tratti da Il vecchio e il mare di Ernest Hemingway e Alice nel paese delle meraviglie di Lewis Carroll, in modo che le tecniche valutassero la componente magnetica o elettrica degli impulsi cerebrali.
Utilizzando solo tre secondi di dati sull’attività cerebrale di ciascun partecipante e una tecnica computazionale che aiuta a tenere conto delle differenze fisiche tra i cervelli reali, gli scienziati hanno poi cercato di valutare ciò che i partecipanti avevano sentito. L’I.A. è stata istruita dagli scienziati a confrontare i suoni del parlato provenienti dalle registrazioni delle storie con i modelli di attività cerebrale che ha determinato essere coerenti con ciò che le persone stavano sentendo. Poi ha previsto ciò che l’ascoltatore avrebbe sentito durante quel piccolo periodo, basandosi su più di mille situazioni diverse.
Di Liberto dichiara inoltre che l’I.A. ha decodificato i dati dei partecipanti che stavano semplicemente ascoltando passivamente l’audio, ma questo non è immediatamente applicabile ai pazienti non verbali. I ricercatori devono capire come leggere i messaggi dei pazienti dalla loro attività cerebrale. Perché l’I.A. sia uno strumento di comunicazione utile è necessario riconoscere un semplice “sì” o “no”, oppure i segnali di fame o dolore.
Questi nuovi esperimenti dimostrano quanto possa essere potente l’I.A. e quanto possa essere utile per aiutare le persone incapaci di comunicare. Tuttavia, in futuro, questa tecnologia potrebbe essere un’arma pericolosa che potrebbe invadere la privacy del nostro cervello. I nostri pensieri sono la parte più intima di noi stessi e se una tecnologia riuscisse a violarla, saremmo completamente indifesi e manipolabili.