{"id":64365,"date":"2021-04-26T09:30:51","date_gmt":"2021-04-26T07:30:51","guid":{"rendered":"https:\/\/appelloalpopolo.it\/?p=64365"},"modified":"2021-04-25T13:40:15","modified_gmt":"2021-04-25T11:40:15","slug":"il-regolamento-europeo-sullintelligenza-artificiale-non-e-abbastanza","status":"publish","type":"post","link":"https:\/\/appelloalpopolo.it\/?p=64365","title":{"rendered":"Il regolamento europeo sull\u2019intelligenza artificiale non \u00e8 abbastanza"},"content":{"rendered":"<p style=\"text-align: justify\"><strong>di THE SUBMARINE (Leila Belhadj Mohamed)<\/strong><\/p>\n<p style=\"text-align: justify\"><img loading=\"lazy\" decoding=\"async\" class=\"alignnone size-medium wp-image-64366\" src=\"https:\/\/appelloalpopolo.it\/wp-content\/uploads\/2021\/04\/unione-telecamere-cover-1280x672-1-300x158.jpg\" alt=\"\" width=\"300\" height=\"158\" srcset=\"https:\/\/appelloalpopolo.it\/wp-content\/uploads\/2021\/04\/unione-telecamere-cover-1280x672-1-300x158.jpg 300w, https:\/\/appelloalpopolo.it\/wp-content\/uploads\/2021\/04\/unione-telecamere-cover-1280x672-1-1024x538.jpg 1024w, https:\/\/appelloalpopolo.it\/wp-content\/uploads\/2021\/04\/unione-telecamere-cover-1280x672-1-768x403.jpg 768w, https:\/\/appelloalpopolo.it\/wp-content\/uploads\/2021\/04\/unione-telecamere-cover-1280x672-1.jpg 1280w\" sizes=\"(max-width: 300px) 100vw, 300px\" \/><\/p>\n<h4 style=\"text-align: justify\">La proposta lascia spazio all\u2019uso ostile delle tecnologie da parte delle forze dell\u2019ordine, e lascia troppe libert\u00e0 alle aziende che le usano per profitto, minacciando il futuro dei diritti di tutti i cittadini<\/h4>\n<p style=\"text-align: justify\">Da quando la presidente della Commissione europea Ursula Von Der Leyen ha promesso di consegnare un regolamento per l\u2019intelligenza artificiale \u201call\u2019avanguardia, ma affidabile\u201d nei suoi primi 100 giorni di mandato, i riflettori della politica tecnologica globale sono stati puntati sulla risposta dell\u2019Ue. E mercoled\u00ec \u00e8 stato finalmente presentato dalla Commissione il\u00a0<a href=\"https:\/\/digital-strategy.ec.europa.eu\/en\/library\/proposal-regulation-european-approach-artificial-intelligence\">progetto di regolamento UE sull\u2019IA<\/a>.<\/p>\n<p style=\"text-align: justify\">Ad una prima lettura il regolamento sembra incentrato sulla tutela dei diritti fondamentali e sul divieto di utilizzo di tecnologie di sorveglianza di massa. In realt\u00e0,\u00a0<a href=\"https:\/\/edri.org\/our-work\/eus-ai-proposal-must-go-further-to-prevent-surveillance-and-discrimination\/\">secondo diversi esperti<\/a>\u00a0e diverse organizzazioni non governative del settore, il progetto di legge non proibisce tutti gli usi inaccettabili dell\u2019IA e in particolare tutte le forme di sorveglianza biometrica di massa, permettendo un margine troppo ampio di autoregolamentazione da parte delle aziende che usano queste tecnologie per profitto.<\/p>\n<p style=\"text-align: justify\">I sistemi di IA sono sempre pi\u00f9 utilizzati, per monitorarci \u2013 ad esempio \u2013 durante delle manifestazioni, per identificarsi all\u2019accesso dei servizi pubblici, per fare previsioni sul nostro comportamento, o sul \u201crischio\u201d che rappresentiamo. Ma queste tecnologie non sono infallibili e, anzi, ereditano i pregiudizi dei dati su cui vengono \u201cesercitate.\u201d Non solo, molti di questi sistemi sono indirizzati verso gruppi specifici e, di conseguenza, violano i principi di non discriminazione.<\/p>\n<p style=\"text-align: justify\">Essendo i modelli di intelligenza artificiale esercitati su set di dati pre-esistenti, non hanno per\u00f2 modo di essere indipendenti e super partes: in caso di usi da parte delle forze dell\u2019ordine, i dataset sarebbero per forza necessariamente curati dalla polizia stessa. Le previsioni e i giudizi formulati da questi modelli possono avere un impatto sulle persone che vi sono soggette, aumentando la frequenza delle interazioni ingiustificate con le forze dell\u2019ordine. In alcuni casi, questi punteggi di rischio sono pesantemente intrecciati con i sistemi di assistenza sociale, con le liste di controllo per la protezione dei bambini, e con la classificazione di certi quartieri come \u201cghetti.\u201d Al centro dei sistemi di polizia predittiva c\u2019\u00e8 l\u2019idea che il rischio e il crimine possano essere oggettivamente e accuratamente previsti. L\u2019aumento dell\u2019uso di questi sistemi \u00e8 un altro aspetto di una vera e propria ideologia secondo la quale i problemi sociali potrebbero essere risolti assegnando pi\u00f9 potere, risorse \u2014 e ora tecnologie \u2014 alla polizia. Lo si \u00e8 visto, ad esempio, con la nuova\u00a0<a href=\"https:\/\/thesubmarine.it\/2021\/04\/16\/legge-sicurezza-globale-approvata\/\">legge francese sulla sicurezza globale<\/a>\u00a0che limita i diritti delle persone e, al tempo stesso, fornisce alle forze dell\u2019ordine \u2013 dalla polizia municipale alla gendarmeria \u2013 tecnologie sofisticate di sorveglianza.<\/p>\n<p style=\"text-align: justify\">Ma i dati alla base dei sistemi di applicazione della legge sono intrinsecamente razzializzati e classificati.\u00a0 Due esempi:\u00a0<a href=\"https:\/\/www.amnesty.org\/en\/latest\/news\/2020\/09\/netherlands-end-mass-surveillance-predictive-policing\/\">sistema algoritmico utilizzato nei Paesi Bassi<\/a>\u00a0per tracciare il profilo di persone di etnia Rom e Sinti per contrastare la pratica del borseggio e il progetto britannico Gang Matrix, che consisteva nel catalogare liste di sospetti criminali nelle citt\u00e0 britanniche. Nel caso britannico \u00e8 ancora pi\u00f9 evidente come l\u2019algoritmo fosse costruito su pregiudizi:\u00a0<a href=\"https:\/\/www.amnesty.org.uk\/london-trident-gangs-matrix-metropolitan-police\">Amnesty ha scoperto<\/a>\u00a0che il 78% delle persone inserite all\u2019interno della Gangs Matrix nel 2017 fossero nere, nonostante solo il 29% dei crimini legati alle gang fossero commessi da persone afrodiscendenti.<\/p>\n<p style=\"text-align: justify\">Ne abbiamo parlato con Philip Di Salvo, giornalista e ricercatore post-doc presso l\u2019Istituto di media e giornalismo dell\u2019Universit\u00e0 della Svizzera italiana (Usi) di Lugano.<\/p>\n<p style=\"text-align: justify\"><b>Negli ultimi anni abbiamo visto un\u2019implementazione nell\u2019utilizzo di tecnologie di sorveglianze di massa in diversi Paesi europei, nonostante mancasse una normativa a regolarne l\u2019utilizzo. Quali sono i rischi per i nostri diritti fondamentali?<\/b><\/p>\n<p style=\"text-align: justify\">Il rischio concreto \u00e8 che tecnologie estremamente impattanti e controverse, come il riconoscimento facciale, vengano implementate senza la dovuta trasparenza, senza un reale dibattito pubblico o senza che vi sia consapevolezza dei rischi connessi all\u2019uso di soluzioni di questo tipo. Il caso di Como, dove il riconoscimento facciale \u00e8 stato implementato con eccessiva leggerezza, \u00e8 emblematico:\u00a0<a href=\"https:\/\/www.wired.it\/internet\/regole\/2020\/06\/09\/riconoscimento-facciale-como\/\">la nostra inchiesta<\/a>, pubblicata da\u00a0<i>Wired<\/i>\u00a0a giugno 2020, ha fatto muovere il Garante, che ne ha intimato lo spegnimento. Sono le spinte commerciali, o quelle pi\u00f9 soluzioniste \u2014 che vedono, ovvero, nella tecnologia la soluzione a tutti i mali della societ\u00e0 \u2014 a guidare queste decisioni, senza che vi sia spazio per argomentazioni critiche o pi\u00f9 profonde sulle ripercussioni di queste tecnologie.<\/p>\n<p style=\"text-align: justify\"><b>\u00c8 appena stata presentata a Bruxelles la proposta del Regolamento UE sull\u2019Intelligenza Artificiale. Da esperto del settore, quali sono le tue prime impressioni? E soprattutto, quali sono i limiti?<\/b><b><br \/>\n<\/b><b><br \/>\n<\/b>Trovo sia importante che la UE si muova in questo senso, stabilendo un quadro normativo per il settore, come fu per il GDPR qualche anno fa. Ed \u00e8 importante che alcuni scenari di utilizzo dell\u2019IA siano espressamente vietati. Non sono un esperto di\u00a0<i>policy,<\/i>\u00a0ma condivido le impressioni di chi ha fatto notare come vi siano dei punti deboli nel testo, dove era auspicabile trovare azioni pi\u00f9 dirette e incisive, in particolare in relazione all\u2019uso dell\u2019IA per scopi di sorveglianza biometrica. Mi pare che il testo lasci ancora troppi spazi, entro i quali alcune applicazioni malevole o discriminatorie di queste tecnologie possono essere implementate. In altri passaggi, invece, mi sembra si dia eccessivo margine alle aziende per autoregolamentarsi, un approccio che, storicamente, sappiamo non essere particolarmente vincente. Come ha dichiarato Carly Kind, Direttore dell\u2019Ada Lovelace Institute di Londra, il testo ha troppi margini di interpretazione. Il percorso davanti al Regolamento \u00e8 ancora lungo, per\u00f2: vedremo quale sar\u00e0 la reazione dell\u2019Europarlamento e poi quella degli Stati membri.<\/p>\n<p style=\"text-align: justify\"><b>Il caso britannico e quello olandese hanno dimostrato empiricamente che le tecnologie di videosorveglianza possono essere indirizzate a un gruppo specifico di persone, non rispettando il principio di non discriminazione. Pu\u00f2 essere sufficiente un regolamento comunitario per risolvere il problema o \u00e8 necessario un lavoro sulla struttura algoritmica di queste tecnologie?\u00a0\u00a0<\/b><\/p>\n<p style=\"text-align: justify\">Esiste ormai una montagna di evidenza scientifica che dimostra i\u00a0<i>bias<\/i>\u00a0intrinsechi nella programmazione di numerosi sistemi algoritmici con ripercussioni sociali e politiche importanti. Di nuovo, il riconoscimento facciale \u00e8 l\u2019esempio pi\u00f9 lampante in questo senso. La regolamentazione \u00e8 fondamentale, in questa ottica, ma occorre un ragionamento critico sull\u2019intera filiera dell\u2019IA. Per questa ragione, sono in totale accordo con le tante voci che, di recente, hanno insistito tanto sulla necessit\u00e0 di trasparenza, diversit\u00e0 ed equit\u00e0 nelle aziende, e nei team che si occupano di creare questi sistemi in particolare. Abbiamo gi\u00e0 creato un web che \u00e8 lo specchio delle contraddizioni della Silicon Valley ed \u00e8 fondamentale che questo non si ripeta per l\u2019IA, le cui ripercussioni sono se possibile ancora pi\u00f9 profonde.\u00a0<a href=\"https:\/\/www.corriere.it\/tecnologia\/20_dicembre_11\/caso-timnit-gebru-licenziata-google-aver-accusato-l-azienda-razzismo-messo-guardia-dall-ai-8a08e5f4-3b0b-11eb-a316-193bd0f16dd1.shtml\">La vicenda di Timnit Gebru<\/a>, scienziata licenziata dal team dedicato all\u2019etica dell\u2019intelligenza artificiale di Google \u2014 come altre storie simili \u2014 sono un brutto segnale in questo senso.<\/p>\n<p style=\"text-align: justify\"><b>Diversi gruppi parlamentari europei, tra cui alcuni eurodeputati dei Verdi, stanno sostenendo la campagna\u00a0<\/b><a href=\"https:\/\/reclaimyourface.eu\/\"><b>#ReclaimYourFace<\/b><\/a><b>, l\u2019iniziativa dei cittadini europei che chiede il divieto assoluto dell\u2019utilizzo della sorveglianza biometrica. Quanto \u00e8 verosimile che il testo del Regolamento venga approvato senza modifiche dal Parlamento Europeo?<\/b><\/p>\n<p style=\"text-align: justify\">Difficile fare previsioni politiche in questo senso, anche perch\u00e9 le forze del centrosinistra non sono necessariamente e fermamente contrarie alla sorveglianza. Personalmente, sposo il punto di vista delle tante forze, sia politiche che di attivismo, che chiedono la messa al bando del riconoscimento facciale. Non credo si tratti di decidere come usare questa tecnologia, si tratta di decidere se vogliamo che faccia parte del futuro della democrazia. Sono convinto che il riconoscimento facciale sia una tecnologia di sorveglianza di massa e che, come tale, non debba avere residenza nelle democrazie. Nessuna tecnologia \u00e8 un destino.<\/p>\n<p style=\"text-align: justify\"><strong>Fonte:\u00a0<\/strong><strong><a href=\"https:\/\/thesubmarine.it\/2021\/04\/24\/regolamento-ue-ia\/\">https:\/\/thesubmarine.it\/2021\/04\/24\/regolamento-ue-ia\/<\/a><\/strong><\/p>\n","protected":false},"excerpt":{"rendered":"<p>di THE SUBMARINE (Leila Belhadj Mohamed) La proposta lascia spazio all\u2019uso ostile delle tecnologie da parte delle forze dell\u2019ordine, e lascia troppe libert\u00e0 alle aziende che le usano per profitto, minacciando il futuro dei diritti di tutti i cittadini Da quando la presidente della Commissione europea Ursula Von Der Leyen ha promesso di consegnare un regolamento per l\u2019intelligenza artificiale \u201call\u2019avanguardia, ma affidabile\u201d nei suoi primi 100 giorni di mandato, i riflettori della politica tecnologica globale&#46;&#46;&#46;<\/p>\n","protected":false},"author":95,"featured_media":47479,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"jetpack_post_was_ever_published":false,"_jetpack_newsletter_access":"","_jetpack_dont_email_post_to_subs":false,"_jetpack_newsletter_tier_id":0,"_jetpack_memberships_contains_paywalled_content":false,"_jetpack_memberships_contains_paid_content":false,"footnotes":"","jetpack_publicize_message":"","jetpack_publicize_feature_enabled":true,"jetpack_social_post_already_shared":true,"jetpack_social_options":{"image_generator_settings":{"template":"highway","enabled":false},"version":2}},"categories":[32],"tags":[],"jetpack_publicize_connections":[],"jetpack_featured_media_url":"https:\/\/appelloalpopolo.it\/wp-content\/uploads\/2019\/01\/the-submarine.png","jetpack_sharing_enabled":true,"jetpack_shortlink":"https:\/\/wp.me\/p7ZaJ4-gK9","_links":{"self":[{"href":"https:\/\/appelloalpopolo.it\/index.php?rest_route=\/wp\/v2\/posts\/64365"}],"collection":[{"href":"https:\/\/appelloalpopolo.it\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/appelloalpopolo.it\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/appelloalpopolo.it\/index.php?rest_route=\/wp\/v2\/users\/95"}],"replies":[{"embeddable":true,"href":"https:\/\/appelloalpopolo.it\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=64365"}],"version-history":[{"count":1,"href":"https:\/\/appelloalpopolo.it\/index.php?rest_route=\/wp\/v2\/posts\/64365\/revisions"}],"predecessor-version":[{"id":64367,"href":"https:\/\/appelloalpopolo.it\/index.php?rest_route=\/wp\/v2\/posts\/64365\/revisions\/64367"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/appelloalpopolo.it\/index.php?rest_route=\/wp\/v2\/media\/47479"}],"wp:attachment":[{"href":"https:\/\/appelloalpopolo.it\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=64365"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/appelloalpopolo.it\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=64365"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/appelloalpopolo.it\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=64365"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}