Alla fine, ciò che era ampiamente prevedibile è successo. Lo apprendiamo con un po’ di ritardo grazie ad un Rapporto dell’ONU, secondo il quale un drone armato chiamato STM Kargu-2 è stato utilizzato nella guerra in Libia. Da chi? Dalla Turchia, che nella corsa intrapresa dal Sultano Erdogan per espandere la sua influenza all’intero Mediterraneo non ha esitato a compiere, per la prima volta nella storia dell’Umanità, un passo strabiliante e inquietante. Ciò in barba a tutte le raccomandazioni che nel mondo intero sono state diffuse per evitarlo. STM Kargu-2 ha utilizzato l’I.A. per elaborare immagini integrate in tempo reale e algoritmi di apprendimento automatico (machine learning) per dare la caccia a bersagli umani in maniera autonoma, senza che l’uomo intervenisse in alcun modo.
Racconta John Breeden II, della rivista Nextgov, che anni fa alla fiera FOSE di Washington vide un imponente robot, armato di mitragliatrici e missili, in grado di identificare le minacce e coinvolgerle senza l'intervento umano. Gli fu assicurato, d’altronde, che ciò non sarebbe mai successo perché ai robot non sarebbe mai stata data l'autorità di uccidere senza l'approvazione umana. La Turchia, evidentemente, non ha la stessa visione sui robot killer, che agiscono in modo indipendente andando a sbattere contro i bersagli ed esplodendo.
Secondo il rapporto, le forze nemiche sono state braccate e attaccate da droni "senza richiedere connettività dati tra l'operatore e la munizione". I droni hanno identificato gli obiettivi e avevano l'autorità di attaccare senza il permesso dei loro controllori. E così hanno fatto.
Questa deriva immorale, tuttavia, non deve comportare la demonizzazione dell’I.A. Senza di essa, ad esempio, non si sarebbe potuto realizzare un intervento chirurgico delicatissimo su una paziente senza ricorrere all’anestesia, che sarebbe risultata letale a causa di altre patologie. È accaduto a Torino qualche mese fa. Allo stesso tempo, tuttavia, si pongono dei problemi etici che l’UE ha affrontato con una risoluzione del Parlamento del 20 gennaio u.s. e con una bozza di regolamento resa pubblica il 21 di aprile.
La Risoluzione si sofferma sul fenomeno dei sistemi autonomi di armi letali (lethal autonoums weapon system), detti robot assassini, e chiede l’adozione da parte della Commissione di una strategia volta a proibire “sistemi d’arma se non soggetti al controllo umano”. D’altronde l’affermazione di tali sistemi sembra in chiara contraddizione con la prima delle tre leggi della robotica di Isaacv Asimov: un robot non può recare danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno. A fronte del cambiamento nel modo di operare degli eserciti, dovuto proprio allo sfruttamento delle nuove tecnologie e le capacità autonome, è essenziale fornire un quadro giuridico adeguato rispettoso dei principi di liability, transparency e accountability. Nella risoluzione in oggetto si chiede in particolar modo che l’I.A. sia sempre soggetta a un significativo controllo umano: la decisione di prendere di mira un bersaglio e uccidere con un’arma da fuoco deve essere presa dall’uomo. Ne consegue un divieto assoluto dei sistemi totalmente privi del controllo e della supervisione umana, nonché il divieto di antropomorfizzare i LAWS, ovvero evitare qualsiasi confusione tra persona umana e robot. Il relatore Lebreton ha invitato l’alto rappresentante per gli Affari esteri e la politica di sicurezza, Josep Borrell, “a preparare il terreno per negoziati globali” e “a creare un regime di controllo delle armi basate sull’IA”. Al Consiglio si chiede di “tenere pienamente in considerazione i sistemi d’arma basati sull’IA” nel momento in cui vengono definite “norme comuni per il controllo delle esportazioni di tecnologia e attrezzature militari”. La risoluzione mira a mettere in luce che in qualsiasi ambito l’AI venga utilizzata, tanto in ambito militare quanto nel settore dei servizi pubblici o nell’ambito della salute pubblica, essa deve rimanere uno strumento di supporto e coadiuvante l’agire umano. La proposta di Regolamento del Parlamento europeo e del Consiglio stabilisce norme armonizzate in materia di AI e modifica alcuni atti legislativi dell'Unione. Claudio Palmieri, avvocato, ha elaborato la seguente tabella, che mostra le soluzioni adottate in base in base alla classificazione dei prodotti.
Rischi per i diritti fondamentali |
Tipi di prodotti classificati in base al rischio |
Soluzioni |
totale (art. 5) |
prodotti suscettibili di - causare o poter causare danni fisici o psicologici manipolando il comportamento umano per aggirare il libero arbitrio degli utenti; - di imporre il c.d. ‘social scoring' da parte o per conto delle autorità pubbliche che può portare a un trattamento dannoso o sfavorevole. |
L’uso di questi prodotti è proibito. |
da totale ad alto in base all’uso che si fa del prodotto (art. 5) |
i sistemi di identificazione biometrica a distanza "in tempo reale" in spazi accessibili al pubblico usate dalle forze dell’ordine rientrano in questa categoria. |
Questo tipo di prodotto, sebbene proibito in linea generale, in casi eccezionali e sotto il controllo di un'autorità, è soggetto alle stesse regole stabilite per i prodotti ad alto rischio. |
alto (art.6) |
prodotti - già soggetti alla legislazione europea di cui all'Allegato II del Regolamento ed alla valutazione di conformità da parte di terzi in vista dell'immissione sul mercato o della messa in servizio di tale prodotto ai sensi della stessa legislazione elencata nell'Allegato II; - elencati nell'Allegato III del regolamento nei seguenti settori: identificazione e categorizzazione biometrica delle persone fisiche; gestione e funzionamento delle infrastrutture critiche; istruzione e formazione professionale; occupazione, gestione dei lavoratori e accesso al lavoro autonomo; accesso e fruizione di servizi privati essenziali e di servizi e benefici pubblici; applicazione della legge; gestione della migrazione, dell'asilo e dei controlli alle frontiere; amministrazione della giustizia e processi democratici. |
Al fine di mitigare l'alto rischio, il Regolamento: - stabilisce che prima di immettere sul mercato tali prodotti, siano rispettati le seguenti condizioni: • adozione di un sistema di gestione del rischio per valutare e contrastare il rischio; - obbliga i fornitori, i distributori e gli utenti (art. 16-29) a rispettare le condizioni di cui al punto precedente. - stabilisce un sistema di standard, valutazione della conformità, certificati e registrazione per accertare e certificare l'adozione delle condizioni di cui al primo punto. |
medio (art. 52) |
prodotti che interagiscono con le persone fisiche. |
le persone fisiche devono essere informate che stanno interagendo con una IA. |
prodotti per il riconoscimento delle emozioni o la categorizzazione biometrica. |
le persone fisiche devono essere informate che sono esposte a un sistema di riconoscimento delle emozioni o di categorizzazione biometrica. |
|
prodotti che generano o manipolano immagini, contenuti audio o video che assomigliano sensibilmente a persone, oggetti, luoghi o altre entità o eventi esistenti e che potrebbero falsamente apparire a una persona come autentici o veritieri. |
le persone fisiche devono essere informate che il contenuto è stato generato o manipolato artificialmente. |
«Queste regole rappresentano una svolta, che consentirà all’Ue lo sviluppo di nuove norme globali per un’IA affidabile», ha dichiarato la vicepresidente della Commissione, Margrethe Vestager.
Nei lavori preparatori il Consiglio ha affrontato le questioni di opacità e complessità di alcuni sistemi, stridenti con la tutela delle libertà e dei diritti fondamentali dell’Unione europea.
Si tratta di un passo decisivo verso quella che il giurista Stefano Rodotà ha chiamato RoboLaw: «Per affrontare questo problema, il riferimento non può essere cercato nell’intelligenza artificiale, ma in quella collettiva, dunque nella politica e nelle decisioni che questa è chiamata ad assumere», scriveva Rodotà su MicroMega nel 2015. L’Europa intende perciò anche rafforzare la sua posizione nello sviluppo di una «IA antropocentrica, sostenibile, sicura, inclusiva e affidabile e in maniera adeguata alle esigenze future», ponendosi come ago della bilancia fra i sistemi altamente pervasivi utilizzati in Cina e le tecnologie d’Oltreoceano.
Il documento classifica i sistemi di IA sulla base di basso, medio o alto rischio. Un’I.A. «ad alto rischio» è tale se minaccia la sicurezza e i diritti delle persone: quei sistemi che «manipolano il comportamento umano per aggirare il libero arbitrio degli utenti» (vedi l’aberrante sistema di social scoring utilizzato in Cina). Per la Commissione, le tecnologie ad alto rischio non sono solo i sistemi di sorveglianza, ma tutti quei tool che mettono a repentaglio la vita dei cittadini e la loro formazione. Sono incluse quelle IA utilizzate nell’ambito delle infrastrutture, della chirurgia, della gestione dei flussi migratori, come anche nell’amministrazione della giustizia. Per questo, ogni tecnologia andrà sottoposta a una valutazione dei rischi, ma anche dei risultati (dalla tracciabilità dei dati a eventuali esiti discriminatori). Il documento considera essenziali anche due fattori: la chiarezza delle informazioni fornite all’utente e la cosiddetta «robustezza tecnica».
La proposta mette in luce la vulnerabilità degli utenti, vietando quelle tecnologie che utilizzano «tecniche subliminali» per avvantaggiarsi «materialmente» del comportamento di una persona. Il criterio di vulnerabilità riguarda anche i chatbot, per i quali è previsto l’obbligo di informare gli utenti «in modo da poter decidere con cognizione di causa se continuare a usarli oppure no».
La proposta pone un veto sulle tecnologie che fanno uso dell’identificazione biometrica in luoghi pubblici a distanza, come il riconoscimento facciale. Si tratta di sistemi intrusivi perché «evocano un sentimento di sorveglianza costante e indirettamente dissuadono dall’esercizio della libertà di assemblea e altri diritti fondamentali». Sono previste solo rare eccezioni definite e regolamentate.
Ad esempio, nel caso della ricerca di un minore scomparso, della prevenzione di una minaccia terroristica specifica e imminente o nell’individuazione, localizzazione e identificazione di autori sospettati di specifici crimini, dalla frode all’omicidio. In tutti questi casi è comunque necessaria l’autorizzazione di un giudice o di un altro organo indipendente, dove siano specificati i limiti temporali dell’utilizzo della tecnologia.
Secondo l’art. 52, poi, tutti i distributori di sistemi di IA progettati per interagire con persone fisiche hanno l’obbligo di trasparenza: ciascun utente ha il diritto di essere informato del funzionamento di tecnologie che manipolano contenuti, come nel caso dei deep fake, software che sovrappongono il viso di una persona ad altre immagini.
Il previsto European artificial intelligence board dovrà rendere applicabile il regolamento in sintonia con il GDPR.
L’obiettivo di queste misure è instillare la fiducia nei cittadini per le tecnologie di IA e rendere il mercato efficiente grazie a regole trasparenti. La proposta, infatti, è diretta non solo alle aziende che operano nell’Unione europea ma a tutte quelle realtà che intendono distribuire o vendere i loro prodotti al suo interno. Nel caso di violazioni da parte delle aziende, la proposta prevede sanzioni fino al 6 per cento del fatturato annuo globale.
Fa riflettere la contemporaneità tra il dibattito in sede europea, sfociato nella risoluzione e dopo nella proposta di regolamento, e il salto nel buio del governo turco in Libia. Il governo di un paese che per anni ha tentato di aderire all’Unione europea, e che sempre di più dà prova di volersi porre fuori dal consesso delle nazioni civili e democratiche. L’Europa e gli Stati Uniti, rinsaviti dopo la sbornia trumpiana, devono agire in fretta per mettere un freno a un aderiva che appare inarrestabile.