Home intelligenza artificiale Il futuro della guerra

Il futuro della guerra

0

I robot e l’intelligenza artificiale possono portare a guerre più devastanti

Le armi autonome letali (LAW), spesso conosciute come robot assassini o macchine da combattimento, probabilmente vi sono familiari grazie a film e libri. Inoltre, il concetto di armi super-intelligenti è ancora materia di fantascienza. Tuttavia, man mano che le armi dotate di intelligenza artificiale diventano più avanzate, l’opinione pubblica si preoccupa della mancanza di responsabilità e della possibilità di malfunzionamenti tecnici.

Non siamo nuovi agli errori dell’IA che possono causare danni. Ma in una guerra, questo tipo di errori potrebbe causare la morte di civili o rovinare i negoziati.

Secondo questo articolo, un algoritmo di riconoscimento dei bersagli, ad esempio, può essere addestrato a riconoscere i carri armati dalle immagini satellitari. Ma cosa succederebbe se ogni illustrazione utilizzata per addestrare il sistema mostrasse soldati in piedi in cerchio intorno al carro armato? Potrebbe credere che un’auto civile che attraversa una barriera militare sia un bersaglio.

I civili hanno sofferto in numerose nazioni (tra cui Vietnam, Afghanistan e Yemen) a causa del modo in cui le superpotenze mondiali producono e utilizzano armi sempre più avanzate.

Coloro che ritengono che una nazione debba essere in grado di difendersi tenendo il passo con la tecnologia militare di altri Paesi appartengono all’altro fronte. Ad esempio, Microsoft afferma che la sua tecnologia di riconoscimento vocale ha un tasso di errore dell’1% rispetto al 6% degli esseri umani. Non deve quindi sorprendere che gli eserciti stiano gradualmente cedendo le redini agli algoritmi.

Ma come possiamo evitare che i robot assassini si aggiungano alla lunga lista di invenzioni che rimpiangiamo?

Un sistema bellico autonomo è quello che il Dipartimento della Difesa degli Stati Uniti definisce come: “Un sistema di armamento che, una volta attivato, è in grado di selezionare e colpire i bersagli senza ulteriori interventi da parte di un operatore umano”.

Questo standard è già soddisfatto da diversi sistemi di combattimento. Gli algoritmi dei computer degli attuali missili e droni sono in grado di riconoscere i bersagli e di sparare con una precisione molto maggiore rispetto a quella di un operatore umano. Uno dei sistemi di difesa attiva in grado di colpire i bersagli senza la supervisione umana è l’Iron Dome di Israele.

Nonostante sia destinato alla difesa missilistica, l’Iron Dome può accidentalmente causare vittime. Tuttavia, a causa dei risultati tipicamente costanti di Iron Dome nella difesa delle vite dei civili, il rischio è accettato dalla politica internazionale.

Le sentinelle robot e i droni kamikaze vaganti impiegati nel conflitto in Ucraina sono solo due esempi di armi abilitate dall’intelligenza artificiale che sono fatte per danneggiare le persone. La conoscenza del passato delle armi moderne è quindi necessaria se vogliamo influenzare l’uso dei LAW.

Gli accordi internazionali, come le Convenzioni di Ginevra, stabiliscono gli standard per il trattamento dei civili e dei prigionieri di guerra durante le ostilità. Sono uno dei pochi metodi che abbiamo per gestire la condotta dei conflitti. Purtroppo, l’uso di armi chimiche da parte degli Stati Uniti in Vietnam e della Russia in Afghanistan dimostra che queste strategie non sono sempre efficaci.

Peggio ancora è quando soggetti importanti si rifiutano di partecipare. Dal 1992, la Campagna internazionale per la messa al bando delle mine (ICBL) ha spinto per la messa al bando delle mine e delle munizioni a grappolo (che spargono casualmente piccole bombe su un’ampia area). Il divieto di queste armi è stato incluso nella Convenzione di Ottawa del 1997, ratificata da 122 Paesi. Ma né gli Stati Uniti, né la Cina, né la Russia hanno accettato.

Che dire, però, delle armi più sofisticate alimentate dall’intelligenza artificiale? La Campagna per fermare i robot assassini elenca nove problemi principali legati alle armi di distruzione di massa, con particolare attenzione alla mancanza di responsabilità e alla conseguente disumanizzazione dell’uccisione.

Sebbene questa critica sia legittima, un divieto totale delle LAW non è plausibile per due motivi. In primo luogo, ormai sono state sdoganate, proprio come le mine. Inoltre, può essere difficile discernere tra armi autonome, LAW e robot assassini a causa della difficoltà a distinguerle. I capi militari potrebbero sempre trovare un modo per aggirare le restrizioni di un divieto e far passare i robot killer come armi autonome difensive. Potrebbero anche farlo inavvertitamente.

Le armi future con capacità di intelligenza artificiale sono probabilmente destinate ad aumentare. Ma questo non ci obbliga a chiudere un occhio. Sarebbe più facile ritenere responsabili i nostri politici, scienziati e ingegneri se ci fossero restrizioni più precise e dettagliate.

Per esempio, vietando:

  • IA a scatola nera: si riferisce a sistemi in cui l’utente è a conoscenza solo degli input e degli output dell’algoritmo.
  • IA inaffidabile: sistemi non adeguatamente testati.

Affidarsi ai robot e all’intelligenza artificiale per condurre una guerra significa essere ancora più liberi da responsabilità per quanto riguarda gli atti criminali. In questo modo, uccidere delegando l’atto alle macchine potrebbe portare a uccisioni più cruente e con meno moralità, dando vita a uno scenario bellico completamente nuovo. E dal momento che le macchine sono instancabili, cosa causerà la fine di una guerra?

NO COMMENTS

Exit mobile version