Divieto dei robot killer: resa dei conti a Ginevra
La Svizzera è leader mondiale nella robotica e nell'intelligenza artificiale, entrambi campi di ricerca i cui risultati possono essere utilizzati sia per scopi civili che militari. Tuttavia, manca un controllo internazionale.
Nel marzo 2020, il governo libico ha utilizzato un quadricottero Kargu-2 nella guerra civile, secondo un rapportoCollegamento esterno delle Nazioni Unite. Questo drone ha “cacciato” un bersaglio umano senza alcun controllo remoto. Si tratta del primo attacco nella storia eseguito da un’arma letale autonoma, o robot assassino.
Questi sistemi d’arma, sviluppati utilizzando la robotica e l’intelligenza artificiale (IA), non richiedono l’intervento umano. I droni autonomi, ad esempio, sono programmati per avvicinarsi a una posizione specifica, selezionare un oggetto e uccidere il bersaglio in maniera autonoma. A differenza delle armi di distruzione di massa o di certi tipi di armi convenzionali, non esistono accordi o regolamenti internazionali specifici che mettano al bando queste tecnologie.
Le armi di distruzione di massa hanno un potere distruttivo superiore a quello delle armi convenzionali, come le armi nucleari, biologiche e chimiche (armi NBC). Possono uccidere un gran numero di persone e distruggere l’ambiente in un tempo molto breve.
Per quanto riguarda le armi di distruzione di massa, esistono trattati di disarmo e non proliferazione vincolanti per il diritto internazionale, come il Trattato di non proliferazione delle armi nucleari, la Convenzione sulle armi biologiche o la Convenzione sulle armi chimiche. Il loro scopo è quello di impedire la proliferazione delle armi nucleari e di mettere al bando le armi biologiche e chimiche in tutto il mondo.
Inoltre, esistono quattro regimi politicamente vincolanti secondo i quali gli Stati aderenti ampliano e armonizzano i controlli sulle esportazioni: Il Gruppo dei fornitori nucleari, il Gruppo Australia, il Regime di controllo della tecnologia missilistica e l’Accordo di Wassenaar. La Svizzera partecipa a tutti e quattro.
Fonte: SecoCollegamento esterno
Le opinioni divergono sul fatto se questa debba essere considerata una lacuna. In risposta a una domanda di swissinfo.ch, il Ministero degli esteri svizzero scrive che il diritto internazionale umanitario si applica a tutte le armi e tecnologie, comprese quelle emergenti come i sistemi d’arma autonomi. “Non c’è quindi un vuoto per l’uso della robotica, dell’intelligenza artificiale e di altre tecnologie digitali nei conflitti armati”.
Tuttavia, non tutti nella comunità internazionale la pensano così. “Alcuni Stati ritengono che la legislazione esistente non sia sufficiente”, afferma Laura Bruun, esperta di tecnologie militari emergenti e di sicurezza presso l’Istituto internazionale di ricerca sulla pace di Stoccolma. Anche se il diritto umanitario internazionale si estende a tutti i tipi di armi, l’uso di tecnologie militari guidate dall’intelligenza artificiale non è esplicitamente regolamentato, così come la responsabilità umana nel caso in cui sia una macchina a prendere le decisioni. Questo crea un vuoto normativo, a seconda di come viene interpretata la legge, dichiara Bruun.
Le norme dell’UE o dell’Unesco sull’uso etico dell’IA si riferiscono a casi di uso civile, non militare. Con l’avanzare di nuove tecnologie come l’intelligenza artificiale, diventa sempre più difficile distinguere tra applicazioni civili e militari. A complicare il processo di regolamentazione e di controllo vi è anche il fatto che queste tecnologie sono molto facili da trasferire (anche via email, nel caso di software di IA) e spesso open-source.
Altri sviluppi
“Naturalmente il diritto umanitario internazionale si applica all’uso di queste armi, ma sono necessarie nuove norme internazionali che tengano conto dei nuovi tipi di tecnologia”, afferma anche la ricercatrice sulla sicurezza ed esperta di diritto internazionale Elisabeth Hoffberger-Pippan dell’Istituto tedesco per gli affari internazionali e la sicurezza di Berlino.
Incontro senza speranza a Ginevra
Per questo motivo, dal 2017 le Nazioni Unite stanno negoziando a Ginevra un divieto dei sistemi d’arma autonomi. La Svizzera sostiene questi negoziati in linea di principio, perché pur rifiutando un divieto totale, è favorevole alla regolamentazione, al controllo e alla limitazione. L’anno scorso, la Missione svizzera presso le Nazioni Unite ha formulato una propostaCollegamento esterno per regolamentare le armi autonome letali, unendosi al gruppo di Paesi che spingono per misure legalmente vincolanti.
Ma non si registrano progressi. La Russia respinge quasi tutte le proposte di regolamentazione e ha persino boicottato l’ultimo ciclo di negoziati a marzo a causa della guerra in corso in Ucraina. Ma anche Israele, Stati Uniti, Turchia, Regno Unito e Corea del SudCollegamento esterno non vogliono una regolamentazione vincolante dei sistemi d’arma autonomi, poiché ritengono che il diritto umanitario internazionale sia sufficiente per una gestione responsabile di queste tecnologie.
Altri sviluppi
Robot killer: che fare?
L’ultima riunione del gruppo si terrà a luglio. Gli esperti e le esperte non si aspettano grandi progressi. A porte chiuse, gli Stati parlano già di un fallimento dei negoziati di Ginevra. E il Ministero degli esteri svizzero indica che per il momento non esiste un accordo tra gli Stati su uno strumento internazionale.
“È probabile che non tutti gli Stati vogliano continuare a sostenere il processo di Ginevra, perché semplicemente non ne vale la pena”, afferma Hoffberger-Pippan. È probabile quindi che si cerchino organismi alternativi per negoziare le norme sulle armi letali autonome.
Perché gli Stati non vogliono un divieto
Secondo Stephen Herzog del Centro per gli studi sulla sicurezza del Politecnico federale di Zurigo, la Svizzera – così come la maggior parte dei Paesi – non vuole un divieto totale delle armi autonome per ragioni sia economiche che diplomatiche. La Confederazione teme infatti l’impatto sulle sue esportazioni. Soprattutto nei settori della robotica e dell’intelligenza artificiale, la Svizzera è uno dei Paesi leader a livello mondiale.
Altri sviluppi
I droni autonomi svizzeri finiranno in guerra?
Hoffberger-Pippan può comprendere questa paura solo fino a un certo punto. Al momento, dice, si tratta soprattutto di regolamentare l’uso dei sistemi di armi autonome in base al diritto internazionale, ma non ancora di limitare le esportazioni. D’altra parte, molti Paesi temono che un divieto totale possa rendere difficile la ricerca in questo settore. “Gli investitori direbbero: perché dare soldi se le invenzioni non possono essere usate comunque?”, dice Hoffberger-Pippan. Questa è sicuramente una sfida per gli Stati Uniti in particolare, ma anche per molte altre grandi potenze militari.
L’approccio degli Stati Uniti è che le armi autonome dovrebbero essere testate prima di essere vietate. In questo modo sarebbe possibile scoprire se possono essere utili. Alcuni Stati ritengono che le armi autonome portino addirittura dei vantaggi e permettano di evitare morti e risparmiare sui costi del personale.
Nel 2017Collegamento esterno, anche il governo svizzero aveva espresso la sua contrarietà a un bando totale per ragioni simili, affermando che ciò avrebbe potuto portare alla proibizione di sistemi potenzialmente utili, ad esempio per prevenire danni collaterali sulla popolazione civile. Per questo motivo, sostiene Bruun, le discussioni sulla regolamentazione delle applicazioni civili e militari dovrebbero andare di pari passo. “Riconoscere che la distinzione tra i due usi è sempre meno netta sarebbe un primo passo verso il controllo della tecnologia”.
Hoffberger-Pippan osserva un cambiamento di paradigma con i droni: mentre prima erano visti in modo molto critico, stanno guadagnando sempre più consenso a livello internazionale, anche tra la popolazione. Nell’attuale guerra, ad esempio, le truppe ucraine hanno usato droni civili su larga scala, oltre a quelli militari, ottenendo così un vantaggio inaspettato rispetto alla Russia.
“La svolta dei tempi porta alla modernizzazione delle forze armate e quindi a una maggiore comprensione delle specificità tecniche”, afferma Hoffberger-Pippan. Forse, questo influenzerà anche l’opinione pubblica nei confronti delle armi autonome.
Quando i prodotti o le tecnologie possono essere utilizzati sia per scopi civili sia militari, si parla di dual use (duplice impiego). Il problema è che un’invenzione come la tecnologia nucleare può portare benefici civili all’umanità sotto forma di centrali nucleari (sebbene anche queste siano controverse) o di trattamenti medici, ma anche portare morte e distruzione sotto forma di bombe. Vietare completamente la tecnologia e la ricerca in questi ambiti non ha quindi molto senso; bisogna invece gestirle in modo responsabile.
Per prevenire l’accumulo destabilizzante di armi convenzionali e di beni a duplice impiego, nel 1996 un’alleanza di Stati ha concluso l’Accordo di Wassenaar. Si tratta di un accordo non vincolante che mira a promuovere la trasparenza e il senso di responsabilità nel settore delle esportazioni di questi beni.
Fonte: SecoCollegamento esterno
In conformità con gli standard di JTI
Altri sviluppi: SWI swissinfo.ch certificato dalla Journalism Trust Initiative
Potete trovare una panoramica delle discussioni in corso con i nostri giornalisti qui.
Se volete iniziare una discussione su un argomento sollevato in questo articolo o volete segnalare errori fattuali, inviateci un'e-mail all'indirizzo italian@swissinfo.ch.