APPELLO ALL’ONU: FERMATE I SOLDATI ROBOT
No, non è un romanzo di fantascienza. Tutto questo nasce dal fatto che c’è stata in questi ultimi tempi un’accentuata robotizzazione nel settore militare (in particolare negli USA).
Se pensiamo che solo nel settembre del 2010 i droni comandati dal quartier generale di Langley hanno lanciato 20 attacchi missilistici (che porta a 70 il numero degli attacchi a partire dal mese di gennaio del 2010).[1] Gli attacchi con i droni sul Pakistan sono iniziati sotto l’amministrazione Bush nel 2004 ma si sono accentuati a partire dal 2008 con il governo Obama. Secondo uno studio della New American Foundation[2] tra il 2004 e il 2007 ci sono stati in tutto 9 raid, che sono passati nel 2008 a 34, 53 nel 2009 fino al record di attacchi nel 2010. Si calcola che le vittime sono state tra le 830 e le 1210.[3]
Ebbene quest’accentuata robotizzazione nel settore militare si sviluppa una preoccupazione che ha raggiunto, perfino molti tra i fondatori di aziende di robotica.
Nell’agosto ’17, 116 fondatori di aziende di robotica e intelligenza artificiale – tra cui Elon Musk e Mustafa Suleyman, fondatore di DeppMind (Google)[4] -lanciano all’ONU da Melbourne, dove sono riuniti nella International Joint Conference on Artificial Integence (IJCA). La lettera si potrebbe interpretare come una reazione alla notizia che il Primo Meeting del gruppo di esperti governativi cyber delle Nazioni Unite (Gge) sui sistemi di armi letali autonomi.[5]
Si tè trattato del primo appello lanciato da imprenditori della robotica e segue il precedente monito lanciato nel 2015 da centinaia di esponenti del mondo della ricerca universitaria, con nomi di spicco come Stephen Hawking.
L’accorato avvertimento parla chiaro: bisogna impedire che macchine in grado di prendere in autonomia decisioni letali vengano impiegate nei conflitti. La costruzione di robot killer, realtà non così lontana nel tempo, costituirebbe un pericolo per l’umanità. Perché eliminando il contraccolpo psicologico della guerra, si incentiverebbe all’azione militare. Perché le decisioni che prenderà un’intelligenza artificiale sufficientemente sofisticata sono sostanzialmente imprevedibili. E perché droni autonomi dotati di armi potrebbero essere utilizzati per attaccare gli esseri umani.
Questi imprenditori nella lettera all’ONE affermano: “Le armi letali autonome minacciano di essere la terza rivoluzione in campo militare. Una volta sviluppate, permetteranno ai conflitti armati di essere combattuti su una scala più grande che mai, e su scale temporali più veloci di quanto gli umani possano comprendere: sono armi che despoti e terroristi potrebbero rivolgere contro popoli innocenti, oltre che armi che gli hacker potrebbero riprogrammare per comportarsi in modi indesiderabili. Non abbiamo molto tempo per agire: una volta aperto il vaso di Pandora, sarà difficile richiuderlo”.
Un robot è già stato usato per uccidere nel 2016 contro un cecchino, dopo che in un edificio di Dallas, dove era asserragliato era stato teatro di una sparatoria contro i poliziotti. Lo ha conferma il capo della polizia che ha illustrato i dettagli dell’operazione in una conferenza stampa. È stato utilizzato un robot controllato in remoto e dotato di una testata esplosiva.[6]
Ufficialmente è la prima volta che viene impiegato per un’operazione del genere, secondo l’esperto di robotica della New America Foundation Pete Singer, autore del libro Wired foir War (2009). Robot imbottiti di esplosivo (MARCbot) sarebbero invece dalle truppe USA in Iraq. Equipaggiati con un braccio su cui era montata una telecamera, i robot permettevano di ispezionare case e auto senza mettere in pericolo i soldati americani e, in caso di necessità, potevano essere fatti esplodere con un segnale telecomandato.
Fino ad oggi, piccoli robot e droni erano stati impiegati (ufficialmente e lo tengo a precisare) per funzioni legati alla sorveglianza, ad esempio nel 2013 per la ricerca dell’attentatore della maratona di boston, ma mai con obiettivi letali.
[1] City, mercoledì 29 settembre 2010.
[3] Bisogna dire che la sostituzione dell’essere umano non avviene ovviamente solo nel settore umano, ma anche in tanti altri campi. Pensiamo solamente che la NASA vuole usare un drone per l’esplorazione su Marte (http://www.hdblog.it/2017/04/03/NASA-progetta-drone-Marte)
[4] Google DeepMind è un’impresa britannica di intelligenza artificiale. Fu fondata nel 2011 come DeepMind Technologies e fu acquisita da Google nel 2014.
[5] http://www.repubblica.it/scienze/2017/08/21/news/appello_all_onu_fermate_i_soldati_robot_sono_un_pericolo_per_l_umanita_-173486315/
[6] http://www.repubblica.it/tecnologia/2016/07/08/news/dallas_un_robot_bomba_per