La calcolabilità della guerra


Harop è un drone kamikaze israeliano che appena è agganciato da un sistema radar vola verso la sorgente del segnale e quando la raggiunge si autodistrugge facendo saltare tutto. È uno dei 49 sistemi disponibili che «possono riconoscere potenziali target e attaccarli senza l’intervento dell’uomo», racconta questo articolo su The Economist, aprendo scenari di guerra inauditi e ulteriormente preoccupanti.

Armi del genere, per esempio, non danno alcun valore alla vita quindi non possono stimare se i rischi umani di un attacco valgono i benefici. Possono avere difficoltà a distinguere correttamente i target dai non-target. Possono scatenare guerre flash come i flash crash causati da bug degli algoritmi sui mercati azionari, ed escalation senza controllo. Hanno regole nascoste nel codice proprietario che, come insegna il Dieselgate, possono essere quasi impossibili da rivelare. E tutto questo va bene perché, come dice un generale, «ai robot non paghi la pensione». Cheap and simple. E nessun ingombro morale tra le scatole.

Tutte le macchine autonome senza controllo umano, l’ideale dei fan della calcolabilità, sono un potenziale esercito di psicopatici assoluti, sparpagliato fra di noi, che possono radere al suolo la vita senza limite. Quelle con licenza di uccidere lo mostrano solo nel modo più evidente possibile.