L'intelligenza artificiale a supporto delle organizzazioni umanitarie nei conflitti: conoscere i rischi per usarla al meglio

L'intelligenza artificiale a supporto delle organizzazioni umanitarie nei conflitti: conoscere i rischi per usarla al meglio

> L'IA può aiutare gli operatori umanitari a ottenere preziose informazioni per monitorare e prevedere i rischi, come lo scoppio o l'escalation di un conflitto. Tuttavia, l'implementazione di tali sistemi comporta rischi per le persone coinvolte, avverte un nuovo studio.

L'intelligenza artificiale (IA) sta diventando uno strumento sempre più utilizzato dalle organizzazioni umanitarie per gestire situazioni di crisi e conflitto. Tuttavia, un nuovo studio mette in guardia sui potenziali rischi legati all'impiego di questi sistemi in contesti così delicati.

La ricerca, pubblicata nel "Research Handbook on Warfare and Artificial Intelligence", è stata condotta dalla professoressa Ana Beduschi dell'Università di Exeter. L'esperta evidenzia come l'IA possa fornire preziose intuizioni per monitorare e prevedere rischi come l'insorgere o l'escalation di conflitti, analizzando grandi quantità di dati a velocità sempre maggiori.

Potenzialità e rischi dell'IA in ambito umanitario

L'utilizzo di tecnologie digitali da parte delle organizzazioni umanitarie è in costante aumento, con un'accelerazione dovuta alla pandemia di COVID-19. Alcuni esempi concreti includono:

  • Mappatura dei disastri supportata dall'IA in Mozambico per velocizzare la risposta alle emergenze
  • Sistemi di IA per prevedere crisi alimentari, implementati dalla Banca Mondiale in 21 paesi

Tuttavia, lo studio avverte che alcuni impieghi dell'IA potrebbero esporre le persone a rischi aggiuntivi e minacciare la protezione dei loro diritti. Tra le problematiche evidenziate ci sono:

  • Scarsa qualità dei dati usati per addestrare gli algoritmi
  • Presenza di bias algoritmici
  • Mancanza di trasparenza sui processi decisionali dell'IA
  • Preoccupazioni sulla tutela della privacy

Raccomandazioni per un uso responsabile

La professoressa Beduschi sottolinea l'importanza di mettere in atto adeguate misure di salvaguardia per garantire che i sistemi di IA non si trasformino in strumenti di esclusione delle popolazioni bisognose di assistenza. In particolare, raccomanda di:

  • Assicurare la protezione dei dati by design e by default
  • Effettuare valutazioni d'impatto sulla protezione dei dati (DPIA)
  • Stabilire meccanismi di ricorso per contestare decisioni automatizzate o supportate dall'IA

"L'imperativo umanitario del 'non nuocere' deve essere prioritario in ogni utilizzo di sistemi di IA in situazioni di conflitto e crisi", afferma la ricercatrice. In molti casi, la soluzione più sensata potrebbe essere quella di non fare affidamento su tecnologie di IA che rischiano di causare danni aggiuntivi alle popolazioni civili.

Lo studio conclude che, sebbene l'IA offra notevoli potenzialità per espandere gli strumenti a disposizione delle missioni umanitarie, è fondamentale che le organizzazioni valutino attentamente rischi e benefici prima di implementare questi sistemi in contesti così delicati.

Logo AiBay