🏗️ Il sito è in costruzione.

Microsoft vieta alla polizia di usare l'IA per il riconoscimento facciale

Microsoft vieta alla polizia di usare l'IA per il riconoscimento facciale

> Microsoft vieta alle forze dell'ordine di usare il servizio Azure OpenAI per il riconoscimento facciale.

Microsoft impone restrizioni sull'uso dell'Intelligenza Artificiale

In una mossa significativa nell'ambito della tecnologia e della privacy, Microsoft ha annunciato la sospensione dell'uso del suo servizio Azure OpenAI per fini di riconoscimento facciale da parte dei dipartimenti di polizia. Un portavoce ha comunicato, attraverso una email a PYMNTS giovedì 2 maggio, l'aggiunta di una clausola specifica nel codice di condotta che vieta esplicitamente questa pratica negli Stati Uniti. Questa decisione arriva dopo una precedente revisione del codice di condotta, in cui si era omessa la menzione specifica di "scopi di riconoscimento facciale", errore prontamente corretto per allinearsi alle politiche di Microsoft sulle capacità di riconoscimento facciale.

Il servizio Azure OpenAI di Microsoft consente agli utenti di sviluppare le proprie applicazioni AI generative e co-piloti virtuali, ampliando le potenzialità creative e operative nel campo dell'intelligenza artificiale.

La privacy e l'etica nell'IA prendono il centro della scena

Parallelamente alle preoccupazioni legate al riconoscimento facciale, recenti iniziative di politica pubblica hanno evidenziato l'impegno nel regolamentare l'uso etico dell'intelligenza artificiale. La Casa Bianca, per esempio, ha introdotto una politica sull'IA che prevede chiare opzioni di opt-out per tecnologie quali il riconoscimento facciale, incentivando prospettive di identificazione alternative che prescindano da tecnologie potenzialmente viziate da bias. Questo nuovo approccio offre agli individui maggior controllo e scelta rispetto alle metodologie di verifica dell'identità.

Ad aprile 2023, la Federal Trade Commission (FTC) ha messo in guardia sull'uso crescente della biometria, rilevando preoccupazioni significative riguardo la sicurezza, la privacy e la discriminazione. Samuel Levine, direttore del Bureau of Consumer Protection della FTC, ha sottolineato come la sorveglianza biometrica, divenuta negli anni sempre più sofisticata e invasiva, rappresenti una minaccia emergente per la privacy e i diritti civili.

La FTC ha manifestato il proprio impegno nel combattere pratiche ingiuste e ingannevoli legate alla raccolta e all'uso di informazioni biometriche, incluse tecnologie di riconoscimento facciale, dell'iride e delle impronte digitali.

Nonostante le crescenti preoccupazioni etiche, molti consumatori statunitensi sembrano apprezzare gli strumenti di autenticazione biometrica come il riconoscimento facciale e le impronte digitali. Un report intitolato “Tracking the Digital Payments Takeover: Biometric Authentication in the Age of Mobile”, frutto della collaborazione tra PYMNTS Intelligence e AWS, rivela che più della metà degli utenti che effettuano acquisti online si avvale dell'autenticazione biometrica per convalidare le proprie transazioni.

In sintesi, il dibattito sull'impiego dell'intelligenza artificiale e della biometria negli Stati Uniti si arricchisce di nuove prospettive. Da un lato, vi è la crescente esigenza di salvaguardare la privacy e i diritti civili; dall'altro, l'adozione di queste tecnologie promette di semplificare e rendere più sicure diverse attività quotidiane. Il futuro dell'IA e del riconoscimento facciale si prospetta dunque denso di sfide e opportunità, con un occhio di riguardo sempre più marcato verso l'etica e la responsabilità.

Logo AiBay