{"id":72355,"date":"2022-05-23T10:28:20","date_gmt":"2022-05-23T08:28:20","guid":{"rendered":"https:\/\/appelloalpopolo.it\/?p=72355"},"modified":"2022-05-23T10:28:20","modified_gmt":"2022-05-23T08:28:20","slug":"ai-razziste-google-e-i-toni-della-pelle","status":"publish","type":"post","link":"https:\/\/appelloalpopolo.it\/?p=72355","title":{"rendered":"AI razziste? Google e i toni della pelle"},"content":{"rendered":"<p><strong>di Paolo Benanti (blog)<\/strong><\/p>\n<p id=\"viewer-foo\" class=\"mm8Nw _1j-51 iWv3d _1FoOD _78FBa b+iTF iWv3d public-DraftStyleDefault-block-depth0 fixed-tab-size public-DraftStyleDefault-text-ltr\"><span class=\"_2PHJq public-DraftStyleDefault-ltr\">Dopo il licenziamento nel 2020 di Timnit Gebru responsabile del team Ethical AI di Google\/Alphabet numerose critiche da diverse associazioni per l&#8217;inclusione sociale e numerosi ricercatori nel campo dell&#8217;AI hanno lasciato il colosso di Mountain View. La scorsa settimana in un annuncio alla annuale conferenza I\/O per gli sviluppatori, Google ha detto che un nuovo sistema con dieci toni della pelle rimodelleranno l&#8217;approccio dell&#8217;azienda all&#8217;IA. Per anni l&#8217;industria tecnologica si \u00e8 affidata a una scala di sei tonalit\u00e0 per classificare i toni della pelle. L&#8217;alternativa open source del gigante della ricerca potrebbe cambiare le cose. Ma baster\u00e0 del codice a compensare le ingiustizie? La brutta vicenda del licenziamento di Gebru e le ombre che ne derivano sono problemi solo di software o di cultura aziendale?<\/span><\/p>\n<p id=\"viewer-9eums\" class=\"mm8Nw _1j-51 iWv3d _1FoOD _78FBa b+iTF iWv3d public-DraftStyleDefault-block-depth0 fixed-tab-size public-DraftStyleDefault-text-ltr\"><span class=\"_2PHJq public-DraftStyleDefault-ltr\">Uno dei problemi che affligge le intelligenze artificiali sono degli errori sistematici di valutazione che possono produrre giudizi sulle persone assimilabili a dei veri e propri pregiudizi umani. La macchina formula una decisione non per parametri significativi come, per esempio, i titoli di studio, i dati sanitari o il reddito ma per elementi pregiudizievoli come il sesso, la zona di residenza, la nazionalit\u00e0. <\/span><\/p>\n<p id=\"viewer-4s6oa\" class=\"mm8Nw _1j-51 iWv3d _1FoOD _78FBa b+iTF iWv3d public-DraftStyleDefault-block-depth0 fixed-tab-size public-DraftStyleDefault-text-ltr\"><span class=\"_2PHJq public-DraftStyleDefault-ltr\">Questi errori, in inglese bias, possono portare a delle vere e proprie forme di ingiustizia sociale se non previsti e controllati. In particolare, un errore particolarmente grave, per la lunga storia di razzismo dei secoli passati, \u00e8 quello connesso al colore della pelle. Per anni le aziende tecnologiche si sono affidate alla cosiddetta scala Fitzpatrick per classificare i toni della pelle per i loro algoritmi di visione computerizzata. Progettato originariamente per i dermatologi negli anni &#8217;70, il sistema comprende solo sei tonalit\u00e0 di pelle, una possibile causa dei ben documentati fallimenti dell&#8217;intelligenza artificiale nell&#8217;identificazione delle persone di colore. <\/span><\/p>\n<p id=\"viewer-1s8d\" class=\"mm8Nw _1j-51 iWv3d _1FoOD _78FBa b+iTF iWv3d public-DraftStyleDefault-block-depth0 fixed-tab-size public-DraftStyleDefault-text-ltr\"><span class=\"_2PHJq public-DraftStyleDefault-ltr\">La scorsa settimana Google ha annunciato che sta iniziando a incorporare uno standard di dieci toni di pelle in tutti i suoi prodotti, chiamato scala Monk Skin Tone (MST), da Google Search Images a Google Photos e oltre. Questo sviluppo ha il potenziale di ridurre i bias nei set di dati utilizzati per addestrare l&#8217;intelligenza artificiale in qualsiasi ambito, dall&#8217;assistenza sanitaria alla moderazione dei contenuti.<\/span><\/p>\n<p id=\"viewer-8duii\" class=\"mm8Nw _1j-51 iWv3d _1FoOD _78FBa b+iTF iWv3d public-DraftStyleDefault-block-depth0 fixed-tab-size public-DraftStyleDefault-text-ltr\"><span class=\"_2PHJq public-DraftStyleDefault-ltr\">Google ha segnalato per la prima volta l&#8217;intenzione di andare oltre la scala Fitzpatrick lo scorso anno. Internamente, il progetto risale a uno sforzo dell&#8217;estate 2020 di quattro donne di colore di Google per far s\u00ec che l&#8217;IA &#8220;funzioni meglio per le persone di colore&#8221;, secondo un thread su Twitter di Xango Eye\u00e9, product manager responsabile dell&#8217;IA dell&#8217;azienda. Alla conferenza Google I\/O di quest\u2019anno, svoltasi nella seconda settimana di maggio, l&#8217;azienda ha illustrato l&#8217;impatto che il nuovo sistema potrebbe avere sui suoi numerosi prodotti. Google render\u00e0 inoltre open source l&#8217;MST, il che significa che potrebbe sostituire Fitzpatrick come standard industriale per la valutazione della correttezza delle telecamere e dei sistemi di visione computerizzata.<\/span><\/p>\n<p id=\"viewer-9m930\" class=\"mm8Nw _1j-51 iWv3d _1FoOD _78FBa b+iTF iWv3d public-DraftStyleDefault-block-depth0 fixed-tab-size public-DraftStyleDefault-text-ltr\"><span class=\"_2PHJq public-DraftStyleDefault-ltr\">Se Google dovesse adottare la scala dei dieci toni della pelle in tutte le sue linee di prodotti, ci\u00f2 potrebbe avere implicazioni per una valutazione equa degli algoritmi utilizzati nei risultati di ricerca di Google, negli smartphone Pixel, negli algoritmi di classificazione di YouTube, nelle auto a guida autonoma Waymo e altro ancora.<\/span><\/p>\n<p id=\"viewer-2ueam\" class=\"mm8Nw _1j-51 iWv3d _1FoOD _78FBa b+iTF iWv3d public-DraftStyleDefault-block-depth0 fixed-tab-size public-DraftStyleDefault-text-ltr\"><span class=\"_2PHJq public-DraftStyleDefault-ltr\">La scala cromatica codificata fino ad oggi nella tecnologia pu\u00f2 portare a risultati poco dignitosi per le persone con la pelle scura, come ad esempio Google Foto che etichetta erroneamente le foto di persone di colore come gorilla, distributori di sapone razzisti e immagini stereotipate generate automaticamente. Un algoritmo sviluppato da Google per identificare le lesioni non includeva le persone con la pelle scura. \u00c8 stato riscontrato che i sistemi di guida autonoma identificano le persone con la pelle scura in modo molto meno affidabile rispetto a quelle con la pelle bianca. La cosa pi\u00f9 famosa \u00e8 che un documento di ricerca del 2018, di cui \u00e8 stato coautore l&#8217;ex responsabile del team Ethical AI Timnit Gebru, ha concluso che gli algoritmi di riconoscimento facciale realizzati dalle principali aziende hanno avuto risultati peggiori sulle donne con la pelle scura, un lavoro dettagliato nel documentario Coded Bias.<\/span><\/p>\n<p id=\"viewer-ftke4\" class=\"mm8Nw _1j-51 iWv3d _1FoOD _3M0Fe aujbK iWv3d public-DraftStyleDefault-block-depth0 fixed-tab-size public-DraftStyleDefault-text-ltr\"><span class=\"_2PHJq public-DraftStyleDefault-ltr\">Dopo il licenziamento di Gebru da parte di Google alla fine del 2020, i gruppi Black in AI e Queer in AI si sono impegnati a non ricevere pi\u00f9 fondi da Google e il rapporto sulla diversit\u00e0 dell&#8217;azienda del 2021 ha rilevato che i tassi di abbandono sono pi\u00f9 alti tra le donne nere e native americane.<\/span><\/p>\n<p id=\"viewer-akt9f\" class=\"mm8Nw _1j-51 iWv3d _1FoOD _78FBa b+iTF iWv3d public-DraftStyleDefault-block-depth0 fixed-tab-size public-DraftStyleDefault-text-ltr\"><span class=\"_2PHJq public-DraftStyleDefault-ltr\">Non sappiamo se la scala di Monk produrr\u00e0 gli effetti sperati nel software, quello che ci auguriamo \u00e8 che l\u2019eradicazione dei pregiudizi dal cuore dell\u2019uomo non sia mai un compito delegato alla macchina ma passi da un impegno educativo globale.<\/span><\/p>\n<p><strong>Fonte: <a href=\"https:\/\/www.paolobenanti.com\/post\/ai-razziste-google\">https:\/\/www.paolobenanti.com\/post\/ai-razziste-google<\/a><\/strong><\/p>\n","protected":false},"excerpt":{"rendered":"<p>di Paolo Benanti (blog) Dopo il licenziamento nel 2020 di Timnit Gebru responsabile del team Ethical AI di Google\/Alphabet numerose critiche da diverse associazioni per l&#8217;inclusione sociale e numerosi ricercatori nel campo dell&#8217;AI hanno lasciato il colosso di Mountain View. La scorsa settimana in un annuncio alla annuale conferenza I\/O per gli sviluppatori, Google ha detto che un nuovo sistema con dieci toni della pelle rimodelleranno l&#8217;approccio dell&#8217;azienda all&#8217;IA. Per anni l&#8217;industria tecnologica si \u00e8&#46;&#46;&#46;<\/p>\n","protected":false},"author":105,"featured_media":64201,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"jetpack_post_was_ever_published":false,"_jetpack_newsletter_access":"","_jetpack_dont_email_post_to_subs":false,"_jetpack_newsletter_tier_id":0,"_jetpack_memberships_contains_paywalled_content":false,"_jetpack_memberships_contains_paid_content":false,"footnotes":"","jetpack_publicize_message":"","jetpack_publicize_feature_enabled":true,"jetpack_social_post_already_shared":true,"jetpack_social_options":{"image_generator_settings":{"template":"highway","enabled":false},"version":2}},"categories":[32],"tags":[],"jetpack_publicize_connections":[],"jetpack_featured_media_url":"https:\/\/appelloalpopolo.it\/wp-content\/uploads\/2021\/04\/Paolo-Benanti.jpg","jetpack_sharing_enabled":true,"jetpack_shortlink":"https:\/\/wp.me\/p7ZaJ4-iP1","_links":{"self":[{"href":"https:\/\/appelloalpopolo.it\/index.php?rest_route=\/wp\/v2\/posts\/72355"}],"collection":[{"href":"https:\/\/appelloalpopolo.it\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/appelloalpopolo.it\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/appelloalpopolo.it\/index.php?rest_route=\/wp\/v2\/users\/105"}],"replies":[{"embeddable":true,"href":"https:\/\/appelloalpopolo.it\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=72355"}],"version-history":[{"count":1,"href":"https:\/\/appelloalpopolo.it\/index.php?rest_route=\/wp\/v2\/posts\/72355\/revisions"}],"predecessor-version":[{"id":72358,"href":"https:\/\/appelloalpopolo.it\/index.php?rest_route=\/wp\/v2\/posts\/72355\/revisions\/72358"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/appelloalpopolo.it\/index.php?rest_route=\/wp\/v2\/media\/64201"}],"wp:attachment":[{"href":"https:\/\/appelloalpopolo.it\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=72355"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/appelloalpopolo.it\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=72355"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/appelloalpopolo.it\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=72355"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}