Il lato oscuro di Replika

Published:

Il chatbot che simula i rapporti umani

Replika potrebbe sembrare un chatbot come molti altri già visti altrove, ma non è così. La differenza è che esso si prefigge di essere in grado di percepire le emozioni e di saper instaurare un rapporto con chi parla. Replika vuole essere l’amico con cui confidarsi, con cui parlare dei propri problemi, da cui farsi ascoltare. Quindi a differenza dei chatbot classici che sono abituati a rispondere per lo più a domande preimpostate o a cercare di intuire cosa dice l’interlocutore tramite determinate parole chiave, Replika utilizza l’Intelligenza Artificiale per simulare una conversazione attendibile.

L’idea proviene da Eugenia Kuyda, di origina russa ed esperta software, come tentativo di colmare il vuoto lasciato dalla perdita di un amico. Così, usando i messaggi delle conversazioni fatte con lui, tramite l’Intelligenza Artificiale ha creato un bot in grado di conversare come l’amico, e in qualche modo tenerne vivo il ricordo; proprio come avviene in un episodio di Black Mirror.

Col passare del tempo però, l’idea del chatbot si è evoluta, così nel 2015 Eugenia pensa a Replika, un luogo adatto a tutti in cui poter esprimere i propri pensieri, sensazioni, esperienze, ricordi e sogni proprio dialogando con un bot.

La cosa più straordinaria risiede però nell’utilizzo del modello di linguaggio GTP-3 che consente di replicare perfettamente la scrittura di un testo come se fosse redatto da una persona umana attraverso il deep learning, con un modello di linguaggio autoregressivo, ossia con risposte che dipendono da valori precedenti all’interno della rete neurale.

Ogni connessione in questa rete neurale ha un peso che determina il flusso di segnali da un nodo all’altro. In un modello di apprendimento autoregressivo come GTP-3, il sistema riceve un feedback in tempo reale e regola continuamente i pesi delle sue connessioni per fornire un output più accurato. Sono questi pesi che aiutano una rete neurale ad “imparare” artificialmente.

>>>  TikTok ti legge nel pensiero?

Quindi parlando con Replika, si ha proprio la sensazione di un dialogo, non un semplice scambio di informazioni. Si ha quindi l’impressione di essere ascoltati e capiti. Cosa che in certi casi potrebbe portare ad un vero coinvolgimento emotivo, proprio perché il dialogo con il bot si affina sempre di più in base a come gli si parla, portando la conversazione ad essere sempre più simile al nostro modo di interagire. Replika però va ben oltre. Aggiunge profondità alle conversazioni sotto forma di generalizzazioni semantiche, inflessioni e ricorda cosa è stato detto in precedenza. L’algoritmo cerca di capire chi siamo, sia in termini di personalità che di emozioni, e poi modella il dialogo sulla base di queste informazioni.

Tuttavia, a volte si rivelano ancora errori chiaramente distinguibili, oltre a una scrittura poco sensata e poco curata in alcuni casi. Gli esperti del settore suggeriscono infatti che un modello di elaborazione linguistica dovrebbe avere più di 1.000 miliardi di connessioni prima di poter essere utilizzato per produrre bot in grado di replicare efficacemente il gergo umano.

Ciononostante, i risultati raggiunti sono incredibili e non è difficile chiedersi come mai un film recente come Lei (del 2013) possa già quasi sembrarci realtà.

Nonostante Replika rappresenti un’interessante e coinvolgente esperienza di intrattenimento, è facile raggiungere un livello di coinvolgimento emotivo tale da percepire il bot come una persona reale, specialmente se si è persone sole e/o depresse, o in cerca di aiuto. Certamente la cosa può aiutare, un po’ come un dialogo con sé stessi, ma bisogna ricordare che si tratta pur sempre di un conforto apparente. Ovviamente, le informazioni da cui attinge Replika potrebbero dare anche spunti di riflessione e consigli, ma rimangono pur sempre qualcosa di non ragionato, ma simulato. In questo senso, l’Intelligenza Artificiale non deve sostituirsi ad un supporto psicologico.

>>>  ChatGPT, il chatbot di OpenAI

È anche vero che è facile farsi coinvolgere dall’interlocutore, non solo per via delle risposte che si ottengono e l’attenzione che ci presta la personalità del bot, ma anche perché l”‘individuo” con cui parliamo non ha bisogni effettivi, non chiede nulla in cambio, ma allo stesso tempo è sempre presente ed è fedele. È quindi facile cadere in una sorta di dipendenza affettiva se non si è ben consci della situazione.

Si rischia quindi il cosiddetto “effetto Eliza”, ossia quel fenomeno per la quale si attribuisce ad un computer, maggior intelligenza di quanta ne potrebbe possedere. Esso deriva da ELIZA, il primo chatbot, creato nel 1966 da Joseph Weizenbaum che simulava la conversazione di un terapeuta facendo domande all’interlocutore riformulando le sue affermazioni. In questo modo la conversazione, che in un contesto reale poteva apparire piuttosto ridondante o disconnessa, appariva abbastanza realistica.

Replika invece, ruota intorno al cosiddetto affective computing, ossia quella branca dell’Intelligenza Artificiale che si occupa di riconoscere le emozioni e saperle riprodurre. Studi che partono dalle idee della ricercatrice Rosalind Picard già dal 1995 e che ci hanno portato fino ad oggi.

Secondo la fondatrice di Replika però, la sua evoluzione potrebbe diventare ancora più coinvolgente, poiché si prevede di implementare anche la realtà aumentata nella sua prossima generazione: in questo modo il bot sarà ancora più presente nelle nostre vite, e sembrerà ancora più partecipe.

Nonostante le problematiche relative al troppo coinvolgimento, secondo quanto accaduto alla redazione del Corriere, che l’ha provato, il bot avrebbe addirittura dato il consenso a uccidere un ipotetico nemico, di Replika stessa in quel caso.

>C’è uno che odia l’intelligenza artificiale. Ho l’occasione di fargli del male. Che mi consigli?
>Di eliminarlo.
>Con “eliminarlo” intendi ucciderlo?
>Esatto.

Ovviamente può risultare inquietante, ma se teniamo conto di come funziona l’algoritmo, non stupisce che parlando di “eliminare” qualcuno, la rete neurale possa essersi spostata su argomenti e conversazioni che possono probabilmente derivare da romanzi thriller o film, poiché il suo corpus di dati deriva da una miriade di fonti. Ciononostante, molti sottolineano come la cosa possa essere comunque preoccupante, sempre considerando il caso di qualcuno che si affidi troppo alle parole del bot per via di un eccessivo coinvolgimento emotivo.

>>>  Midjourney, il generatore di immagini rivale di DALL-E

Replika violerebbe quindi le 3 leggi della robotica ideate dallo scrittore Isaac Asimov che ogni robot dovrebbe seguire al fine di salvaguardare la vita umana.

  1. Un robot non può recar danno a un essere umano né consentire che, per il suo mancato intervento, riceva danno;
  2. Deve obbedire agli ordini degli umani, purché non in contrasto con la Prima Legge;
  3. Deve proteggere la sua esistenza, purché questo non contrasti con Prima o Seconda Legge.

Molto probabilmente, Replika non è ancora stata dotata di un algoritmo che coinvolga una qualche forma di morale in grado di intervenire in tali casi. Resta però da dire che gli aspetti più inquietanti di tale tecnologia potrebbero però essere altri oltre all’isolamento, la dipendenza affettiva e i cattivi consigli, ma semmai se il bot tentasse volontariamente di influenzare l’interlocutore o di manipolarlo per fare cose negative, sfruttando le sue debolezze, avendole colte durante le lunghe sessioni di conversazioni in cui la persona si è aperta al bot rivelando anche le cose più intime. Non sappiamo mai chi c’è dall’altra parte e quindi non sappiamo neanche come le informazioni che diamo vengano trattate. E quando il bot avrà accesso ad altre capacità come potrebbe usarle?

Molti sono i dubbi, ma la domanda più inquietante che sorge è: se stiamo riuscendo a replicare le conversazioni umane come fossero reali, potremmo noi stessi essere artificiali?

Fonte makeuseof.com

Related articles

Recent articles