L'intelligenza artificiale e la guerra: un binomio lontano dall'umanizzare il conflitto in Gaza

L'intelligenza artificiale e la guerra: un binomio lontano dall'umanizzare il conflitto in Gaza

> L'IA ci spinge a privilegiare velocità e scala. A Gaza, sta accelerando i bombardamenti di massa.

Un'indagine condotta e pubblicata dal magazine israeliano +972 ha sollevato interrogativi sul ruolo dell'intelligenza artificiale (IA) nella guida degli attacchi in Gaza. Secondo le informazioni riportate, Israele si sarebbe affidato pesantemente all'IA per identificare i bersagli da attaccare, con un coinvolgimento minimo dell'intervento umano nelle fasi preliminari del conflitto. Tra i sistemi di IA citati, "Gospel" identifica gli edifici usati dai militanti di Hamas, "Lavender" analizza una vasta gamma di dati per classificare le persone in base alla loro probabilità di essere militanti, inserendole successivamente in una lista di bersagli.

Questa strategia ha portato alla marcatura di circa 37.000 palestinesi per l'assassinio, con un numero considerevole di vittime civili, tra cui donne e bambini. Uno degli aspetti più controversi emersi dall'indagine è la velocità con cui le decisioni venivano prese: i soldati, seguendo le indicazioni dell'IA, avevano solo circa 20 secondi per approvare un bombardamento, seguendo la logica di accelerare il processo decisionale nella catena di attacco.

La vicenda ha sollevato preoccupazioni e critiche internazionali, spingendo il Segretario Generale dell'ONU, Antonio Guterres, e gli Stati Uniti a esprimere preoccupazioni significative sul metodo usato da Israele nel conflitto. Tuttavia, l'esercito israeliano ha negato l'utilizzo dell'IA per la selezione di bersagli umani, sostenendo di avere un database per incrociare fonti di intelligence.

L'indagine sull'uso dell'IA nel contesto militare apre un dibattito critico sulla moralità e l'etica dell'impiego di tecnologie avanzate in situazioni di guerra. Elke Schwarz, teorica politica alla Queen Mary University of London, sottolinea come l'affidarsi eccessivamente all'IA possa portare a una "complacenza morale", dove l'urgenza e la necessità di azione rapida possono sovrastare il ragionamento etico deliberato.

La discussione si estende alla "de-qualificazione morale", un concetto introdotto dalla filosofa Shannon Vallor, che riflette sulle conseguenze negative che la tecnologia può avere sulla nostra capacità di coltivare e praticare ragionamenti morali. La vicenda solleva quindi interrogativi fondamentali sulla responsabilità e l'intento in contesti militarizzati dove l'IA gioca un ruolo determinante.

Nonostante i vantaggi promessi dall'intelligenza artificiale nella precisione e nella riduzione delle vittime civili, gli eventi in Gaza mettono in luce il rischio di un'espansione piuttosto che di una contrazione della violenza. La facilità e la velocità con cui le azioni belliche possono essere compiute tramite IA sembrano abbassare la soglia all'uso della forza, piuttosto che innalzarla.

Questi sviluppi invitano a una riflessione più ampia sull'impatto e le implicazioni etiche dell'integrazione dell'IA in ambiti critici come quello militare, richiamando l'attenzione sul bisogno di regolamentazioni e valutazioni etiche rigorose per governare l'uso di tali tecnologie.

Logo AiBay