Occhi senza sguardo - Singola | Storie di scenari e orizzonti

Occhi senza sguardo

I sistemi armati sono sempre più in grado di usare intelligenza artificiale. I "killer robots" sono macchine che prendono decisioni autonome su chi uccidere. Abbiamo parlato con chi chiede una loro regolamentazione.

Intervista a Francesca Farruggia
di Irene Doda
Francesca Farruggia

è ricercatrice e autrice di diverse pubblicazioni scientifiche in tema di gestione del conflitto, di educazione di genere e prevenzione della violenza contro le donne e degli aspetti sociali della sicurezza interna ed internazionale. È segretaria generale dell’Istituto di Ricerche Internazionali Archivio Disarmo (IRIAD).

Irene Doda

scrive su varie testate, tra cui Il Tascabile, Jacobin Italia e la rivista letteraria inutile. Partecipa come autrice al progetto Anticurriculum, blog e podcast sul mondo del lavoro contemporaneo. Si occupa di tecnologia, questioni di genere e diritti del lavoro.

L’intelligenza artificiale e il suo hype si sono fatte strada anche nella guerra. Le armi autonome, o LAWS (acronimo inglese di Lethal Autonomous Weapon Systems) sono senza dubbio protagoniste del conflitto corrente in Ucraina e la discussione sul loro ruolo è tornata sul palcoscenico del discorso pubblico. Il dibattito sull’autonomia e la robotizzazione dei sistemi armati, negli ultimi anni, si è ampliato notevolmente, anche a fronte di investimenti crescenti: si stima, che entro il 2030, l’impatto economico dell’intelligenza artificiale legata alla guerra sarà nell’ordine di decine di trilioni di dollari.

Riducendo lo scontro e i conflitti a una serie di istruzioni algoritmiche, si minimizzano le perdite umane e si dà un volto più prevedibile e meno grottesco alla guerra? Come si inquadrano le armi automatiche e semiautomatiche nell’ambito del diritto internazionale umanitario? Ma soprattutto: che ruolo gioca l’etica umana nel rapporto con le macchine, specialmente in un contesto di violenza irrazionale come quello bellico? 

Ne ho parlato con Francesca Farruggia, segretaria generale dell’Istituto di Ricerche Internazionali Archivio Disarmo (IRIAD). Farruggia è anche coinvolta nella campagna internazionale Stop Killer Robots, il cui obiettivo è di regolamentare a livello globale i sistemi di arma autonoma.

La prima domanda che le ho posto è di dare una definizione di LAWS e di fare una distinzione, invece, con le armi semiautonome. “Oggi sentiamo parlare di una e dell’altra cosa, a volte confondendole” spiega Farruggia. “Ma la letteratura militare è abbastanza chiara sulla definizione. Un’arma autonoma non si limita al pattugliamento o alla sorveglianza, ma è in grado di identificare e colpire un obiettivo senza l’intervento umano”. Le armi semi-autonome hanno invece la necessità di una mano umana, quantomeno nella decisione di colpire o non colpire un obiettivo. Ne sono un esempio i droni manovrati da remoto. In quel caso il drone può identificare un target ma spetta al manovratore decidere se colpire. “Nel caso dei droni manovrati dai joystick - molto usati in Afghanistan nell’era di Barack Obama - è sempre un essere umano a prendere la decisione di sparare”. Ed è proprio la lontananza dal campo di battaglia che pone un altro dei problemi centrali nell’utilizzo delle LAWS. Se l’idea di robotizzare alcune delle decisioni prese in guerra dovrebbe servire il proposito di minimizzare le perdite la distanza dalla realtà della guerra presenta enormi problemi etici. “E’ difficile parlare di umanità nella guerra” continua Farruggia. “Ma ci sono alcune notevoli differenze tra una decisione presa a distanza e una presa sul campo. Anche il diritto internazionale umanitario prende in considerazione tali situazioni. Non si riesce a comprendere se un nemico si è arreso. Non si è faccia a faccia con un altro essere umano sul campo.”

L’idea che possiamo avere in mente, quando pensiamo ai killer robots, è quello di due eserciti completamente automatizzati che si scontrano tra di loro, simili a due armate di robocop. La realtà può però essere molto diversa: un esercito dotato di armi automatiche può scontrarsi con uno completamente umano. “Sappiamo che non esistono armi veramente chirurgiche” spiega Farruggia. “Quando si pensa alle armi automatiche e al fatto che possano minimizzare le perdite, si pensa ovviamente solo all’esercito attaccante, non a chi subisce le perdite. Inoltre, oggi sappiamo che anche i droni causano non poche perdite collaterali”. 

Esistono anche delle armi che possono essere considerate pienamente autonome, che possono cioè non solo individuare un bersaglio, ma anche prendere la decisione di colpire. 

Sul confine tra le due Coree viene utilizzata SGR-A1, un’arma sentinella automatica, sviluppata da Samsung Techwin in collaborazione con la Korea University. Tramite infrarossi, l’arma ha la possibilità di individuare la presenza umana entro tre chilometri di distanza. Quando rileva presenza umana, in una zona interdetta sia a civili che a militari, SGR-A1 può sparare. Un altro esempio è il Sea Hunter, un sottomarino americano a guida completamente autonoma in grado di colpire bersagli nemici o individuare mine. 


Il diritto internazionale umanitario 

Un nodo centrale, per chi si oppone all’uso dei killer robots, è la loro relazione con il diritto internazionale umanitario. Questa branca del diritto - di cui fanno parte le Convenzioni di Ginevra  e i protocolli dell’Aja - ha come scopo quello di proteggere le vittime dei conflitti armati, civili, prigionieri di guerra, naufraghi o feriti. Comprende anche i principi di comportamento delle due parti in causa in un conflitto, tra cui diverse norme sull’utilizzo di specifiche armi. Vieta ad esempio l’uso delle mine antipersona, o delle armi di modifica ambientale.

“Di sicuro non esiste un modo per umanizzare la guerra” continua a spiegare Farruggia. “Ma si possono introdurre delle norme. E’ per questo che è nato il diritto internazionale umanitario, che ha come obiettivo primario la tutela dei più deboli”. 

L’utilizzo di intelligenza artificiale autonoma in guerra può interferire con l’insieme di regole fondamentali che normano i comportamenti delle parti in un conflitto armato. Il diritto internazionale umanitario si basa infatti su alcuni principi essenziali. Se un nemico si arrende sul campo, non può essere ferito o ucciso (principio di distinzione), è necessario limitare gli effetti traumatici o le sofferenze eccessive causate da sistemi d’arma particolari (principio di limitazione delle perdite inutili o delle sofferenze); un comandante militare deve valutare l’opportunità anche in base alle perdite civili o ai possibili danni all’ambiente, al patrimonio artistico o culturale (principio di proporzionalità). Le intelligenze artificiali, poste in contesti etici così densi di incognite, comportano dei rischi enormi, tra cui quelli collegati alla catena di responsabilità. “Se un killer robot non rispetta un principio del diritto internazionale umanitario, a chi va attribuita la responsabilità? A chi ha programmato il software? Allo stato che ha acquistato l’arma? Cosa succede se un’IA commette un crimine di guerra? E se si pensa a una resistenza non violenta, come si può organizzarla a fronte non di esseri umani, ma di macchine programmate per agire autonomamente?” si chiede, in conclusione, Francesca Farruggia. 

Modello SGR-1 prodotto da Samsung

Modello SGR-1 prodotto da Samsung

Se le implicazioni legali e di diritto internazionale sono chiare, quelle filosofiche sono meno nette. Dal 2013, la campagna Stop Killer Robots si impegna per uno sforzo normativo internazionale contro le armi autonome - simile a quello che aveva interessato le armi nucleari dopo il bombardamento di Hiroshima nel 1945, per riportare gli sviluppi tecnologici sotto il controllo umano. Resta tuttavia la domanda centrale: anche eliminando le macchine e gli algoritmi, resta qualcosa di autenticamente umano, in un conflitto armato?

Hai letto:  Occhi senza sguardo
Globale - 2022
Tecnologia
Francesca Farruggia

è ricercatrice e autrice di diverse pubblicazioni scientifiche in tema di gestione del conflitto, di educazione di genere e prevenzione della violenza contro le donne e degli aspetti sociali della sicurezza interna ed internazionale. È segretaria generale dell’Istituto di Ricerche Internazionali Archivio Disarmo (IRIAD).

Irene Doda

scrive su varie testate, tra cui Il Tascabile, Jacobin Italia e la rivista letteraria inutile. Partecipa come autrice al progetto Anticurriculum, blog e podcast sul mondo del lavoro contemporaneo. Si occupa di tecnologia, questioni di genere e diritti del lavoro.

Pubblicato:
27-05-2022
Ultima modifica:
26-05-2022
;