“Uno dei fattori chiave che definirà il mondo in cui viviamo è assicurare che i diritti umani vengano rafforzati e non indeboliti dall’Intelligenza Artificiale.” Queste le parole del Commissario per i Diritti Umani del Consiglio d’Europa, Dunja Mijatović a maggio 2019, in occasione dell’adozione di alcune raccomandazioni in materia di Intelligenza Artificiale e diritti umani.
Tenere presente tali parole è fondamentale, soprattutto in un periodo storico come questo nel quale la maggioranza dei governi si è trovata a dover fare i conti con un’emergenza mondiale. Gli Stati del mondo hanno dovuto mettere in atto nuove misure, stringenti e severe, le quali hanno ribaltato completamente quella quotidiana ordinarietà a cui tutti erano abituati. Fermare la diffusione del Covid-19 è il principale scopo mondiale da più di un anno ormai e molti sono stati gli strumenti utilizzati per raggiungerlo e per far sì che le misure emergenziali imposte venissero rispettate. Uno di questi strumenti è proprio l’Intelligenza Artificiale. La tecnologia basata sull’Intelligenza Artificiale ha avuto, ed ha ancora, un ruolo fondamentale per quel che riguarda il monitoraggio e la previsione dei contagi, la diagnosi del virus, così come per le terapie e i vaccini; ma la tecnologia basata sull’IA è stata impiegata, in molti Stati, anche come mezzo di controllo sociale.
La risposta alla pandemia di Stati come la Cina, la Corea del Sud, Singapore e Israele, si è poggiata in gran parte sul ruolo centrale dell’IA, andando però ad intaccare molto spesso la tutela di quei diritti fondamentali, come il diritto al rispetto della privacy. Misure di controllo e contenimento del virus sono state messe in pratica servendosi di applicazioni per il tracciamento e la mappatura degli spostamenti e sistemi di riconoscimento facciale, ma anche dell’installazione di telecamere termiche per il controllo della temperatura corporea.
Un primo esempio è dato sicuramente dalla Cina, dove il governo raccoglie dati e informazioni personali attraverso l’app di messaggistica“WeChat”, incrementando così l’intrusività della propria sorveglianza. Ancora, a inizio febbraio 2020, il colosso digitale Alibaba ha sperimentato una misura di tracciamento digitale chiamata jiankangma (codice sanitario digitale). Utilizzando le informazioni contenute nelle banche dati municipali, il jiankangma elabora un codice QR dinamico – consultabile in tempo reale – e cromatico – indicante il rischio o meno di contagio a seconda del colore. I risultati vengono inviati alle autorità sanitarie, le quali in questo modo possono monitorare il rispetto delle misure di quarantena.
Il governo sudcoreano, invece, ha agito tenendo sotto controllo le transazioni bancarie, la localizzazione degli smartphone e consultando video acquisiti tramite le registrazioni di telecamere di videosorveglianza. Così facendo ha creato una vera e propria mappatura in grado di informare le persone sui casi di Covid-19 e di avvisare loro di un possibile contagio.
Altra fonte di preoccupazione è l’utilizzo della tecnologia fatto dall’agenzia di intelligence israeliana, Shin Bet, la quale ha usato i dati di localizzazione dei cellulari dei cittadini in modo tale da tracciarne gli spostamenti. Monitorando i movimenti dei cittadini, il governo può dunque rafforzare il controllo delle misure di quarantena e controllare gli spostamenti di coloro che hanno contratto il virus.
Questo utilizzo dell’Intelligenza Artificiale ha destato preoccupazione e critiche, soprattutto a livello etico. Determinati strumenti rischiano di generare un controllo sociale e sanitario della popolazione che potrebbe andare oltre ciò che è consentito dalle legislazioni emergenziali e di essere messi in atto anche quando il loro utilizzo non sarà più necessario. Non sarebbe, però, la prima volta che misure adottate durante stati di emergenza diventino poi permanenti.
Come in tante altre situazioni di emergenza, le misure draconiane poste in atto hanno contribuito ad aumentare la tensione tra la tutela delle libertà personali e la protezione degli interessi collettivi. Non vi è dubbio che l’IA presenti delle grandi potenzialità nel mondo sanitario, ma sono grandi anche le insidie e gli ostacoli che possono risultare da un suo utilizzo indiscriminato. Queste tecnologie basano il loro funzionamento, principalmente, sulla raccolta di dati personali di ogni individuo; l’utilizzo che ne viene fatto dovrebbe essere sempre in linea con il rispetto dei diritti e delle libertà fondamentali.
Anche gli Stati occidentali hanno fatto uso dell’IA e di questo tipo di tecnologie, adottando, come l’Italia, l’app “Immuni” della Bending Spoons S.P.A.. Tuttavia, a differenza dei sistemi e delle tecnologie utilizzate nei Paesi orientali, questo genere di applicazione rispetta maggiormente la privacy, rientrando in quello che è il quadro normativo europeo. In particolare, rispetto alle app orientali, si tratta di una open source, la quale rispetta la privacy sfruttando il bluetooth e altri sensori, proteggendo l’identità e i dati sensibili degli utenti. Secondo il quadro normativo europeo vi sono infatti alcuni dati, detti sensibili, che necessitano di una protezione maggiore. Sia l’art.9(1) del Regolamento generale sulla protezione dei dati dell’UE (noto sotto l’acronimo GDPR), sia l’art.6 della Convenzione 108+ del Consiglio d’Europa, considerano i dati biometrici, genetici e quelli relativi alla salute delle persone, come dati sensibili. Per questo motivo, anche in situazioni di emergenza, le limitazioni devono essere sempre soggette ai principi generali di legalità, necessità e proporzionalità.
Le nuove tecnologie dovrebbero essere personalizzate e corrette in modo tale che il loro utilizzo possa sempre attenersi al quadro normativo esistente in ogni Stato. Si rischia, altrimenti, che misure così intrusive vengano istituzionalizzate ed accettate.