{"id":72947,"date":"2022-06-17T10:32:30","date_gmt":"2022-06-17T08:32:30","guid":{"rendered":"https:\/\/appelloalpopolo.it\/?p=72947"},"modified":"2022-06-16T20:38:11","modified_gmt":"2022-06-16T18:38:11","slug":"come-evitare-che-lintelligenza-artificiale-prenda-il-controllo","status":"publish","type":"post","link":"https:\/\/appelloalpopolo.it\/?p=72947","title":{"rendered":"Come evitare che l&#8217;intelligenza artificiale prenda il controllo"},"content":{"rendered":"<p>da <strong>SCIENZA IN RETE<\/strong> (Chiara Sabelli)<\/p>\n<p><img decoding=\"async\" src=\"https:\/\/www.scienzainrete.it\/files\/styles\/molto_grande\/public\/2017_BSC_Superordenador_MareNostrum-4_Barcelona-Supercomputing-Center.jpeg?itok=WLaxlBT5\" \/><\/p>\n<p>Nel 1951 il matematico britannico Alan Turing, considerato uno dei fondatori dell\u2019intelligenza artificiale, disse che \u00abuna volta avviato lo sviluppo di macchine intelligenti, non ci vorr\u00e0 molto perch\u00e9 superino i nostri deboli poteri. A un certo punto dovremo aspettarci che le macchine prendano il controllo\u00bb.<\/p>\n<p>L\u2019idea di una macchina o un algoritmo super intelligente era gi\u00e0 comparsa nella finzione letteraria, come per esempio nel racconto di fantascienza\u00a0<em>The Machine Stops<\/em>\u00a0scritto da Edward Morgan Forster nel 1909 che descrive una infrastruttura intelligente onnipotente da cui gli esseri umani diventano gradualmente sempre pi\u00f9 dipendenti e di cui conoscono sempre meno il funzionamento.<\/p>\n<p>Ma proprio il lavoro di Turing del 1936, in cui introdusse gli oggetti matematici di macchina e programma, ha trascinato questa prospettiva dalla finzione alla realt\u00e0. Quei due oggetti si sono rivelati tra le entit\u00e0 matematiche pi\u00f9 potenti mai inventate: otto delle dieci pi\u00f9 profittevoli aziende del mondo oggi sono basate sul loro sviluppo.<\/p>\n<p>L\u2019intelligenza artificiale che potrebbe sottrarci il controllo sul nostro futuro di specie umana viene indicata con l\u2019espressione\u00a0<em>general purpose AI<\/em>, ovvero \u201csistemi capaci di imparare rapidamente a svolgere l&#8217;intera gamma di compiti che gli esseri umani sono in grado di eseguire\u201d. Spesso viene usata anche l\u2019espressione intelligenza artificiale generale.<\/p>\n<p>Come possiamo evitare di perdere il controllo, consegnandolo alle macchine generaliste? Come possiamo imparare a coesistere con queste macchine? A queste domande ha risposto il matematico e informatico britannico Stuart Russell, della University of California at Berkeley in una serie di quattro lezioni chiamate\u00a0<a class=\"GoogleAnalyticsET-processed\" href=\"https:\/\/www.bbc.co.uk\/programmes\/b00729d9\/episodes\/player\">Reith Lectures<\/a>, trasmesse ogni anno tra novembre e dicembre via radio dalla BBC dal 1948 e affidate a una figura intellettuale di spicco. Il titolo delle lezioni tenute da Russell \u00e8 \u201cLiving with Artificial Intelligence\u201d.<\/p>\n<p>Russell ammette che per gran parte della sua carriera ha considerato questo problema marginale e mal posto. Ma nel 2013, contattato dalla National Public Radio per un parere sul film\u00a0<em>Transcendence<\/em>, Russell, insieme ad altri due colleghi, Stephen Hawking e Max Tegmark, scrive in un\u00a0<a class=\"GoogleAnalyticsET-processed\" href=\"https:\/\/www.huffpost.com\/entry\/artificial-intelligence_b_5174265\">editoriale<\/a>\u00a0per\u00a0<em>Huffington Post<\/em>: \u00abil successo nella creazione dell&#8217;IA (<em>general purpose, ndr<\/em>) sarebbe il pi\u00f9 grande evento della storia umana. Purtroppo, potrebbe anche essere l&#8217;ultimo, a meno che non impariamo a evitare i rischi\u00bb.<\/p>\n<p><a id=\"ancora\" class=\"GoogleAnalyticsET-processed\" name=\"ancora\"><\/a>Russell precisa che abbiamo ancora molto da fare per raggiungere questo \u201csuccesso\u201d. Per andare dalle attuali applicazioni, che sono specializzate in singole attivit\u00e0 e per questo vengono chiamate\u00a0<em>narrow AI,<\/em>\u00a0alla\u00a0<em>general purpose AI<\/em>\u00a0sono necessarie ancora molte svolte concettuali e non \u00e8 facile prevedere quanto tempo sar\u00e0 necessario. Russell fa riferimento orientativamente a un periodo di 20 o 30 anni, ma precisa che questo tipo di previsioni sono quasi sempre sbagliate.<\/p>\n<p>Alcuni rischi sono posti gi\u00e0 da questi sistemi specializzati. Russell si concentra per esempio sul settore delle \u201carmi letali autonome\u201d e spiega come queste armi siano gi\u00e0 tra noi e la loro pi\u00f9 grande minaccia sia rappresentata dalla loro facile scalabilit\u00e0. \u00abLe macchine sono capaci di ripetere le stesse azioni milioni e milioni di volte\u00bb a un costo molto ridotto perch\u00e9 non hanno bisogno di supervisione umana. Russell si \u00e8 molto impegnato nel promuovere la messa al bando di questo tipo armi autonome nel quadro della \u201cConvenzione delle Nazioni Unite su certe armi convenzionali\u00bb, ispirandosi al successo ottenuto da iniziative simili contro l\u2019uso delle armi biologiche o chimiche.<\/p>\n<p>Ma ci\u00f2 su cui Russell si \u00e8 concentrato nella sua attivit\u00e0 di ricerca \u00e8 come progettare un\u2019intelligenza artificiale\u00a0<em>general purpose<\/em>\u00a0che ci permetta di mantenere il controllo del nostro destino, individuale e collettivo.<\/p>\n<p>Per cominciare, Russell d\u00e0 delle definizioni pratiche delle entit\u00e0 in gioco. Chiarisce, prima di tutto, che la minaccia non \u00e8 rappresentata dalla prospettiva di sviluppare macchine dotate di coscienza, un concetto che non siamo ancora in grado di definire o misurare per gli esseri umani, figuriamoci per macchine e algoritmi. Ci\u00f2 che conta sono piuttosto le competenze.<\/p>\n<p>Russell d\u00e0 infatti la seguente definizione operativa di intelligenza. \u00abCosa vuol dire sviluppare macchine intelligenti?\u00bb si chiede Russell. \u00abPer rispondere a questa domanda, il campo dell&#8217;IA ha dato una definizione ampiamente accettata e costruttiva dell&#8217;intelligenza umana: gli esseri umani sono intelligenti nella misura in cui ci si aspetta che le nostre azioni raggiungano i nostri obiettivi. Tutte le altre caratteristiche dell&#8217;intelligenza, come percepire, imparare, inventare e cos\u00ec via, possono essere comprese attraverso il loro contributo alla nostra capacit\u00e0 di agire con successo\u00bb. E prosegue, \u00abfin dagli inizi dell&#8217;IA, l&#8217;intelligenza delle macchine \u00e8 stata definita nello stesso modo: le macchine sono intelligenti nella misura in cui ci si pu\u00f2 aspettare che le loro azioni raggiungano i loro obiettivi\u00bb.<\/p>\n<p>Ma le macchine non hanno degli obiettivi propri, siamo noi a darglieli e una delle aree di intervento pi\u00f9 importanti che Russell individua per evitare che le macchine prendano il controllo, ed eventualmente realizzino scenari che ci danneggino o addirittura causino la nostra estinzione, \u00e8 imparare a definire meglio questi obiettivi.<\/p>\n<p>Questo vuol dire non solo saperli tradurre meglio nel linguaggio matematico ma anche chiarirli meglio a noi stessi. Russell fa l\u2019esempio in cui chiediamo alla\u00a0<em>general purpose AI<\/em>\u00a0di risolvere il problema della acidificazione degli oceani. Quella inventa un catalizzatore di una reazione che usa tutto l\u2019ossigeno dell\u2019atmosfera per de-acidificare gli oceani, causando la morte lenta e agonizzante di tutta l\u2019umanit\u00e0.<\/p>\n<p>Quando dal pubblico gli chiedono cosa noi umani possiamo fare per prepararci culturalmente all\u2019arrivo di questo tipo di intelligenza, Russell risponde che abbiamo bisogno di una grande opera di introspezione. \u00abNon rendiamo esplicite [le nostre] preferenze perch\u00e9 le condividiamo tutti [\u2026], ma interrogarci su cosa rappresenta un buon futuro per noi, per le nostre famiglie e per il mondo, e notare, credo, che in realt\u00e0 sono pi\u00f9 le cose su cui siamo d\u2019accordo che quelle su cui siamo in disaccordo, sarebbe estremamente prezioso\u00bb.<\/p>\n<p>Russell formula tre principi guida per la ricerca nel campo dell\u2019intelligenza artificiale:<\/p>\n<ol>\n<li>L&#8217;unico obiettivo dell&#8217;IA dovrebbe essere quello di massimizzare la realizzazione delle preferenze umane.<\/li>\n<li>La macchina \u00e8 inizialmente incerta su quali siano queste preferenze.<\/li>\n<li>La fonte ultima di informazioni sulle preferenze umane \u00e8 il comportamento umano (compreso ci\u00f2 che diciamo e scriviamo).<\/li>\n<\/ol>\n<p>Insieme ai suoi collaboratori, Russell ha cominciato a implementare questi principi, formulando il problema in termini di giochi di assistenza, sistemi formati da un agente umano e un agente artificiale o robot. La ricompensa del robot coincide con quella dell\u2019umano ma \u00e8 nota solo all\u2019umano. Il robot ha un\u2019idea iniziale di quale sia questa ricompensa e pu\u00f2 raffinarne la sua conoscenza durante lo svolgimento del gioco. Gli umani hanno tutti gli incentivi a insegnare di pi\u00f9 ai robot sulle loro preferenze e i robot sono programmati per chiedere il permesso prima di intraprendere qualunque piano che potrebbe violare qualche preferenza umana che loro non conoscono. Nell\u2019esempio della de-acidificazione degli oceani, il robot chiederebbe all\u2019agente umano se consumare tutto l\u2019ossigeno dell\u2019atmosfera confligge con qualche sua preferenza e l\u2019umano risponderebbe di s\u00ec, perch\u00e9 preferisce rimanere vivo. \u00abDobbiamo costruire sistemi di intelligenza artificiale che sappiano di non conoscere il loro vero obiettivo, anche se \u00e8 quello che devono perseguire\u00bb, afferma Russell.<\/p>\n<p>Perch\u00e9 i giochi di assistenza studiati da Russell possano essere utili a non farci cedere il controllo alle macchine, \u00e8 necessario estenderli al caso di pi\u00f9 agenti umani. Questo richiede di rispondere alla domanda: come possiamo combinare le preferenze individuali in una preferenza collettiva? Esiste una vasta letteratura su questo tema, nel campo della filosofia ma soprattutto dell\u2019economia, una disciplina che Russell ritiene cruciale per ragionare su questi argomenti.<\/p>\n<p>Un altro elemento che \u00e8 fondamentale tenere in considerazione \u00e8 che le nostre preferenze sono plastiche, cio\u00e8 cambiano nel tempo. Questo vuol dire che dobbiamo proteggerci dall\u2019eventualit\u00e0 che le macchine plasmino le nostre preferenze per renderle pi\u00f9 semplici da soddisfare. Secondo Russell, un processo simile sta gi\u00e0 avvenendo con i sistemi di raccomandazione dei contenuti sui social media. Ci stanno rendendo sempre pi\u00f9 prevedibili perch\u00e9 il loro obiettivo, suggerirci dei contenuti che siano il pi\u00f9 rilevanti possibile per noi, \u00e8 pi\u00f9 facile da realizzare se i nostri gusti diventano pi\u00f9 facili da prevedere.<\/p>\n<p>Russell conclude il suo ragionamento chiedendosi: \u00abammettiamo di aver risolto il problema del controllo. Come sar\u00e0 la nostra coesistenza con l\u2019intelligenza artificiale (<em>general purpose<\/em>, ndr)?\u00bb.<\/p>\n<p>Una possibilit\u00e0, dice Russell, \u00e8 che la nostra dipendenza crescente dall\u2019IA ci spinga a comportarci come individui deboli e infantili, simili a quelli del film\u00a0<em>WALL-E<\/em>. \u00abQuando affideremo gradualmente la gestione della nostra civilt\u00e0 alle macchine, perderemo la capacit\u00e0 di farlo noi stessi, e la generazione successiva perder\u00e0 l&#8217;incentivo a imparare a farlo, e la catena si spezzer\u00e0\u00bb. Questa riflessione \u00e8 sviluppata ampiamente nella terza lezione della serie, dedicata all\u2019impatto dell\u2019intelligenza artificiale sull\u2019economia, a come il progresso tecnologico modificher\u00e0 gli equilibri socio-economici, dislocher\u00e0 grandi quantit\u00e0 di ricchezza e forzer\u00e0 a re-inventare i percorsi di sviluppo di molti paesi poveri che finora erano basati sull\u2019industria manifatturiera.<\/p>\n<p>Ma la trasformazione pi\u00f9 profonda che si render\u00e0 necessaria nel progettare la nostra coesistenza con l\u2019intelligenza artificiale generalista riguarda il concetto di autonomia, la caratteristica che forse pi\u00f9 di ogni altra, secondo Russell, ci rende umani. Russell conclude cos\u00ec le sue lezioni:<\/p>\n<blockquote><p>L&#8217;autonomia \u00e8 un valore umano fondamentale, il che significa che i sistemi di IA capaci di portare beneficio all\u2019umanit\u00e0 non potranno garantire il miglior futuro possibile se comporteranno una perdita di autonomia per gli esseri umani. \u00c8 possibile che per evitare che accada le macchine dovranno astenersi dall&#8217;usare i loro poteri per prevedere i nostri comportamenti futuri, in modo da lasciarci la necessaria illusione del libero arbitrio.Comunque si risolva questo rompicapo, i nostri sistemi di intelligenza artificiale dovranno imparare a fare un passo indietro, come fanno i genitori quando dicono: \u00abNo, oggi non ti lego i lacci delle scarpe. Devi farlo da solo\u00bb. Non creeranno il mondo di WALL-E se non li costringeremo a farlo.<\/p>\n<p>Ma il rapporto genitori-figli non \u00e8 la metafora giusta, perch\u00e9 noi (i bambini) avremo tutto il potere, anche se le macchine saranno di fatto molto pi\u00f9 potenti. Abbiamo bisogno di una nuova metafora, di un nuovo modo di vedere noi stessi, e avremo bisogno di tutti gli scrittori, i registi e i poeti per guidare la nostra cultura in questo processo.<\/p><\/blockquote>\n<p>&nbsp;<\/p>\n<p><strong>FONTE:\u00a0 <a href=\"https:\/\/www.scienzainrete.it\/articolo\/come-evitare-che-lintelligenza-artificiale-prenda-controllo\/chiara-sabelli\/2022-06-10\">https:\/\/www.scienzainrete.it\/articolo\/come-evitare-che-lintelligenza-artificiale-prenda-controllo\/chiara-sabelli\/2022-06-10<\/a><\/strong><\/p>\n","protected":false},"excerpt":{"rendered":"<p>da SCIENZA IN RETE (Chiara Sabelli) Nel 1951 il matematico britannico Alan Turing, considerato uno dei fondatori dell\u2019intelligenza artificiale, disse che \u00abuna volta avviato lo sviluppo di macchine intelligenti, non ci vorr\u00e0 molto perch\u00e9 superino i nostri deboli poteri. A un certo punto dovremo aspettarci che le macchine prendano il controllo\u00bb. L\u2019idea di una macchina o un algoritmo super intelligente era gi\u00e0 comparsa nella finzione letteraria, come per esempio nel racconto di fantascienza\u00a0The Machine Stops\u00a0scritto&#46;&#46;&#46;<\/p>\n","protected":false},"author":101,"featured_media":71835,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"jetpack_post_was_ever_published":false,"_jetpack_newsletter_access":"","_jetpack_dont_email_post_to_subs":false,"_jetpack_newsletter_tier_id":0,"_jetpack_memberships_contains_paywalled_content":false,"_jetpack_memberships_contains_paid_content":false,"footnotes":"","jetpack_publicize_message":"","jetpack_publicize_feature_enabled":true,"jetpack_social_post_already_shared":true,"jetpack_social_options":{"image_generator_settings":{"template":"highway","enabled":false},"version":2}},"categories":[32],"tags":[],"jetpack_publicize_connections":[],"jetpack_featured_media_url":"https:\/\/appelloalpopolo.it\/wp-content\/uploads\/2022\/04\/IMG-20220203-WA0009.jpg","jetpack_sharing_enabled":true,"jetpack_shortlink":"https:\/\/wp.me\/p7ZaJ4-iYz","_links":{"self":[{"href":"https:\/\/appelloalpopolo.it\/index.php?rest_route=\/wp\/v2\/posts\/72947"}],"collection":[{"href":"https:\/\/appelloalpopolo.it\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/appelloalpopolo.it\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/appelloalpopolo.it\/index.php?rest_route=\/wp\/v2\/users\/101"}],"replies":[{"embeddable":true,"href":"https:\/\/appelloalpopolo.it\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=72947"}],"version-history":[{"count":1,"href":"https:\/\/appelloalpopolo.it\/index.php?rest_route=\/wp\/v2\/posts\/72947\/revisions"}],"predecessor-version":[{"id":72948,"href":"https:\/\/appelloalpopolo.it\/index.php?rest_route=\/wp\/v2\/posts\/72947\/revisions\/72948"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/appelloalpopolo.it\/index.php?rest_route=\/wp\/v2\/media\/71835"}],"wp:attachment":[{"href":"https:\/\/appelloalpopolo.it\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=72947"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/appelloalpopolo.it\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=72947"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/appelloalpopolo.it\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=72947"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}