{"id":71685,"date":"2022-04-19T11:58:47","date_gmt":"2022-04-19T09:58:47","guid":{"rendered":"https:\/\/appelloalpopolo.it\/?p=71685"},"modified":"2022-04-19T11:58:47","modified_gmt":"2022-04-19T09:58:47","slug":"dall-e-creativita-o-propaganda-artificiale","status":"publish","type":"post","link":"https:\/\/appelloalpopolo.it\/?p=71685","title":{"rendered":"DALL-E: creativit\u00e0 o propaganda artificiale?"},"content":{"rendered":"<p><strong>di Paolo Benanti (blog)<\/strong><\/p>\n<p id=\"viewer-foo\" class=\"mm8Nw _1j-51 iWv3d _1FoOD _78FBa b+iTF iWv3d public-DraftStyleDefault-block-depth0 fixed-tab-size public-DraftStyleDefault-text-ltr\"><span class=\"_2PHJq public-DraftStyleDefault-ltr\">OpenAI, uno dei centri di ricerca leader nel settore delle intelligenze artificiali, ha fatto di nuovo notizia, dopo GPT-3, che era in grado di scrivere da solo un articolo, questa \u00e8 il turno della pittura e delle illustrazioni. Nasce DALL-E 2, pronunciato <em>Dall\u00ec<\/em> unendo idealmente Salvador Dal\u00ec e Wall-E, l\u2019iconico robottino futuristico di un film d\u2019animazione Disney. DALL-E 2 \u00e8 un modello di apprendimento automatico in grado di generare immagini straordinarie da descrizioni di testo. Preceduto da una versione meno potente, DALL-E 2 migliora la qualit\u00e0 e la risoluzione delle immagini di output grazie a tecniche avanzate di deep learning. Tuttavia, l\u2019operazione non \u00e8 solo ingegneria. <\/span><\/p>\n<div data-hook=\"rcv-block2\"><\/div>\n<div data-hook=\"rcv-block3\"><\/div>\n<div id=\"viewer-4p27f\" class=\"_2vd5k JP7h-\">\n<div class=\"_3CWa- Dv9jC Dv9jC _28A1_ _9Rxbb _9Rxbb\">\n<div class=\"_2kEVY\" role=\"button\" data-hook=\"imageViewer\">\n<div class=\"_3WJnn _2Ybje\"><img loading=\"lazy\" decoding=\"async\" class=\"OzAYt _3xs9_\" src=\"https:\/\/static.wixstatic.com\/media\/0fb21a_983a0c67c7b143cf8f64e3d6a8cf446c~mv2.jpg\/v1\/fill\/w_940,h_944,al_c,q_90\/0fb21a_983a0c67c7b143cf8f64e3d6a8cf446c~mv2.webp\" width=\"2176\" height=\"2186\" data-pin-url=\"https:\/\/www.paolobenanti.com\/post\/dall-e\" data-pin-media=\"https:\/\/static.wixstatic.com\/media\/0fb21a_983a0c67c7b143cf8f64e3d6a8cf446c~mv2.jpg\/v1\/fit\/w_1000%2Ch_1000%2Cal_c%2Cq_80,enc_auto\/file.jpg\" \/><\/div>\n<div class=\"\"><\/div>\n<div class=\"\"><\/div>\n<\/div>\n<\/div>\n<\/div>\n<div data-hook=\"rcv-block6\"><\/div>\n<p id=\"viewer-4i82c\" class=\"mm8Nw _1j-51 iWv3d _1FoOD _78FBa b+iTF iWv3d public-DraftStyleDefault-block-depth0 fixed-tab-size public-DraftStyleDefault-text-ltr\"><span class=\"_2PHJq public-DraftStyleDefault-ltr\">L&#8217;annuncio di DALL-E 2 \u00e8 stato accompagnato da una campagna sui social media degli ingegneri di OpenAI e del suo CEO, Sam Altman, che hanno condiviso su Twitter meravigliose foto create dal modello di apprendimento automatico generativo: DALL-E \u00e8 pensato per stupire e impressionare. <\/span><\/p>\n<div data-hook=\"rcv-block7\"><\/div>\n<div id=\"viewer-1c4oo\" class=\"mm8Nw _1j-51 iWv3d _1FoOD _78FBa b+iTF iWv3d public-DraftStyleDefault-block-depth0 fixed-tab-size public-DraftStyleDefault-text-ltr\"><span class=\"_2PHJq public-DraftStyleDefault-ltr\">\u00a0<\/span><\/div>\n<div data-hook=\"rcv-block8\"><\/div>\n<div id=\"viewer-498s6\" class=\"_2vd5k JP7h-\">\n<div class=\"_3CWa- Dv9jC Dv9jC _3mymk\">\n<div class=\"_2kEVY\" role=\"button\" data-hook=\"imageViewer\">\n<div class=\"_3WJnn _2Ybje\"><img loading=\"lazy\" decoding=\"async\" class=\"OzAYt _3xs9_\" src=\"https:\/\/static.wixstatic.com\/media\/0fb21a_737e21bd253040fc89d3f9973b2892ac~mv2.jpg\/v1\/fill\/w_740,h_1225,al_c,q_90\/0fb21a_737e21bd253040fc89d3f9973b2892ac~mv2.webp\" width=\"1212\" height=\"2006\" data-pin-url=\"https:\/\/www.paolobenanti.com\/post\/dall-e\" data-pin-media=\"https:\/\/static.wixstatic.com\/media\/0fb21a_737e21bd253040fc89d3f9973b2892ac~mv2.jpg\/v1\/fit\/w_1000%2Ch_1000%2Cal_c%2Cq_80,enc_auto\/file.jpg\" \/><\/div>\n<div class=\"\"><\/div>\n<\/div>\n<\/div>\n<\/div>\n<div data-hook=\"rcv-block10\"><\/div>\n<p id=\"viewer-6pis3\" class=\"mm8Nw _1j-51 iWv3d _1FoOD _78FBa b+iTF iWv3d public-DraftStyleDefault-block-depth0 fixed-tab-size public-DraftStyleDefault-text-ltr\"><span class=\"_2PHJq public-DraftStyleDefault-ltr\">DALL-E 2 mostra fino a che punto \u00e8 arrivata la comunit\u00e0 di ricerca sull&#8217;IA per sfruttare il potere del deep learning e affrontare alcuni dei suoi limiti. Fornisce inoltre una prospettiva su come i modelli di apprendimento profondo generativo potrebbero finalmente sbloccare nuove applicazioni creative. Allo stesso tempo, ci ricorda alcuni degli ostacoli che rimangono nella ricerca sull&#8217;IA e le controversie che devono essere risolte. <\/span><\/p>\n<p id=\"viewer-djfc0\" class=\"mm8Nw _1j-51 iWv3d _1FoOD _78FBa b+iTF iWv3d public-DraftStyleDefault-block-depth0 fixed-tab-size public-DraftStyleDefault-text-ltr\"><span class=\"_2PHJq public-DraftStyleDefault-ltr\">Gli esempi sul sito Web di OpenAI sono stati selezionati con cura e, onestamente, sono impressionanti. Guardando gli esempi condivisi su Twitter, DALL-E 2 sembra aver trovato il modo di rappresentare e riprodurre le relazioni tra gli elementi che compaiono in un&#8217;immagine, anche quando sta \u201cinventando\u201d qualcosa per la prima volta: ci\u00f2 che distingue DALL-E 2 dagli altri modelli generativi \u00e8 la sua capacit\u00e0 di mantenere la coerenza semantica nelle immagini che crea.<\/span><\/p>\n<p id=\"viewer-5s8pe\" class=\"mm8Nw _1j-51 iWv3d _1FoOD _3M0Fe aujbK iWv3d public-DraftStyleDefault-block-depth0 fixed-tab-size public-DraftStyleDefault-text-ltr\"><span class=\"_2PHJq public-DraftStyleDefault-ltr\">Il modello rimane coerente nel disegnare l&#8217;astronauta seduto sul dorso del cavallo e tenendo le mani davanti. Questo tipo di coerenza si mostra nella maggior parte degli esempi condivisi da OpenAI.<\/span><\/p>\n<div id=\"viewer-96pbr\" class=\"mm8Nw _1j-51 iWv3d _1FoOD _3M0Fe aujbK iWv3d public-DraftStyleDefault-block-depth0 fixed-tab-size public-DraftStyleDefault-text-ltr\"><span class=\"_2PHJq public-DraftStyleDefault-ltr\">\u00a0<\/span><\/div>\n<div data-hook=\"rcv-block18\"><\/div>\n<div id=\"viewer-8rh71\" class=\"_2vd5k JP7h-\">\n<div class=\"_3CWa- Dv9jC Dv9jC _28A1_ _9Rxbb _9Rxbb\">\n<div class=\"_2kEVY\" role=\"button\" data-hook=\"imageViewer\">\n<div class=\"_3WJnn _2Ybje\"><img loading=\"lazy\" decoding=\"async\" class=\"OzAYt _3xs9_\" src=\"https:\/\/static.wixstatic.com\/media\/0fb21a_6062b72c92f04713a15687d6be2e8a52~mv2.jpg\/v1\/fill\/w_940,h_500,al_c,q_90\/0fb21a_6062b72c92f04713a15687d6be2e8a52~mv2.webp\" width=\"1392\" height=\"741\" data-pin-url=\"https:\/\/www.paolobenanti.com\/post\/dall-e\" data-pin-media=\"https:\/\/static.wixstatic.com\/media\/0fb21a_6062b72c92f04713a15687d6be2e8a52~mv2.jpg\/v1\/fit\/w_1000%2Ch_741%2Cal_c%2Cq_80,enc_auto\/file.jpg\" \/><\/div>\n<div class=\"\"><\/div>\n<div class=\"\"><\/div>\n<\/div>\n<\/div>\n<\/div>\n<p id=\"viewer-5rpq\" class=\"mm8Nw _1j-51 iWv3d _1FoOD _3M0Fe aujbK iWv3d public-DraftStyleDefault-block-depth0 fixed-tab-size public-DraftStyleDefault-text-ltr\"><span class=\"_2PHJq public-DraftStyleDefault-ltr\">Gli esempi seguenti (anche dal sito Web di OpenAI) mostrano un&#8217;altra caratteristica di DALL-E 2, che consiste nel generare variazioni di un&#8217;immagine di input. Qui, invece di fornire a DALL-E 2 una descrizione testuale, gli fornisci un&#8217;immagine e tenta di generare altre forme della stessa immagine. Qui, DALL-E mantiene le relazioni tra gli elementi dell&#8217;immagine, tra cui la ragazza, il laptop, le cuffie, il gatto, le luci della citt\u00e0 sullo sfondo e il cielo notturno con luna e nuvole.<\/span><\/p>\n<div id=\"viewer-erfri\" class=\"mm8Nw _1j-51 iWv3d _1FoOD _78FBa b+iTF iWv3d public-DraftStyleDefault-block-depth0 fixed-tab-size public-DraftStyleDefault-text-ltr\"><span class=\"_2PHJq public-DraftStyleDefault-ltr\">\u00a0<\/span><\/div>\n<div data-hook=\"rcv-block23\"><\/div>\n<div id=\"viewer-6rdr4\" class=\"_2vd5k JP7h-\">\n<div class=\"_3CWa- Dv9jC Dv9jC _28A1_ _9Rxbb _9Rxbb\">\n<div class=\"_2kEVY\" role=\"button\" data-hook=\"imageViewer\">\n<div class=\"_3WJnn _2Ybje\"><img loading=\"lazy\" decoding=\"async\" class=\"OzAYt _3xs9_\" src=\"https:\/\/static.wixstatic.com\/media\/0fb21a_5906c41229b54790978af21a552e90ab~mv2.jpg\/v1\/fill\/w_940,h_500,al_c,q_90\/0fb21a_5906c41229b54790978af21a552e90ab~mv2.webp\" width=\"1392\" height=\"741\" data-pin-url=\"https:\/\/www.paolobenanti.com\/post\/dall-e\" data-pin-media=\"https:\/\/static.wixstatic.com\/media\/0fb21a_5906c41229b54790978af21a552e90ab~mv2.jpg\/v1\/fit\/w_1000%2Ch_741%2Cal_c%2Cq_80,enc_auto\/file.jpg\" \/><\/div>\n<div class=\"\"><\/div>\n<div class=\"\"><\/div>\n<\/div>\n<\/div>\n<\/div>\n<p id=\"viewer-e50pr\" class=\"mm8Nw _1j-51 iWv3d _1FoOD _78FBa b+iTF iWv3d public-DraftStyleDefault-block-depth0 fixed-tab-size public-DraftStyleDefault-text-ltr\"><span class=\"_2PHJq public-DraftStyleDefault-ltr\">Tecnicamente, DALL-E 2 sfrutta i modelli CLIP e di diffusione, due tecniche avanzate di deep learning create negli ultimi anni. Idealmente, il modello di apprendimento automatico dovrebbe essere in grado di apprendere funzionalit\u00e0 latenti che rimangono coerenti in diverse condizioni di illuminazione, angoli e ambienti di sfondo. Ma come \u00e8 stato spesso visto, i modelli di deep learning spesso imparano le rappresentazioni sbagliate. Ad esempio, una rete neurale potrebbe pensare che i punti verdi in un\u2019immagine siano una caratteristica della classe &#8220;pecora&#8221; perch\u00e9 tutte le immagini di pecore che ha visto durante l&#8217;allenamento contengono molta erba. Un altro modello che \u00e8 stato addestrato su immagini di pipistrelli scattate durante la notte potrebbe considerare l&#8217;oscurit\u00e0 una caratteristica di tutte le immagini di pipistrelli e classificare erroneamente le immagini di pipistrelli scattate durante il giorno. Altri modelli potrebbero diventare sensibili agli oggetti centrati nell&#8217;immagine e posizionati davanti a un certo tipo di sfondo. Imparare le rappresentazioni sbagliate \u00e8 in parte il motivo per cui le reti neurali sono fragili, sensibili ai cambiamenti nell&#8217;ambiente e scarse nel generalizzare oltre i loro dati di addestramento.<\/span><\/p>\n<p id=\"viewer-6pb7r\" class=\"mm8Nw _1j-51 iWv3d _1FoOD _78FBa b+iTF iWv3d public-DraftStyleDefault-block-depth0 fixed-tab-size public-DraftStyleDefault-text-ltr\"><span class=\"_2PHJq public-DraftStyleDefault-ltr\">Questo \u00e8 il problema che risolve il Contrastive Learning-Image Pre-training (CLIP). CLIP addestra due reti neurali in parallelo su immagini e relative didascalie. Una delle reti apprende le rappresentazioni visive nell&#8217;immagine e l&#8217;altra apprende le rappresentazioni del testo corrispondente. Durante l&#8217;allenamento, le due reti cercano di regolare i propri parametri in modo che immagini e descrizioni simili producano incorporamenti simili. <\/span><\/p>\n<div id=\"viewer-e4csv\" class=\"mm8Nw _1j-51 iWv3d _1FoOD _78FBa b+iTF iWv3d public-DraftStyleDefault-block-depth0 fixed-tab-size public-DraftStyleDefault-text-ltr\"><\/div>\n<div data-hook=\"rcv-block29\"><\/div>\n<div id=\"viewer-58qq3\" class=\"_2vd5k JP7h-\">\n<div class=\"_3CWa- Dv9jC Dv9jC _28A1_ _9Rxbb _9Rxbb\">\n<div class=\"_2kEVY\" role=\"button\" data-hook=\"imageViewer\">\n<div class=\"_3WJnn _2Ybje\"><img loading=\"lazy\" decoding=\"async\" class=\"OzAYt _3xs9_\" src=\"https:\/\/static.wixstatic.com\/media\/0fb21a_2ed6df5d595142fd9734163a365d999a~mv2.jpg\/v1\/fill\/w_940,h_938,al_c,q_90\/0fb21a_2ed6df5d595142fd9734163a365d999a~mv2.webp\" width=\"2174\" height=\"2170\" data-pin-url=\"https:\/\/www.paolobenanti.com\/post\/dall-e\" data-pin-media=\"https:\/\/static.wixstatic.com\/media\/0fb21a_2ed6df5d595142fd9734163a365d999a~mv2.jpg\/v1\/fit\/w_1000%2Ch_1000%2Cal_c%2Cq_80,enc_auto\/file.jpg\" \/><\/div>\n<div class=\"\"><\/div>\n<div class=\"\"><\/div>\n<\/div>\n<\/div>\n<\/div>\n<div data-hook=\"rcv-block30\"><\/div>\n<div data-hook=\"rcv-block31\"><\/div>\n<p id=\"viewer-f125g\" class=\"mm8Nw _1j-51 iWv3d _1FoOD _78FBa b+iTF iWv3d public-DraftStyleDefault-block-depth0 fixed-tab-size public-DraftStyleDefault-text-ltr\"><span class=\"_2PHJq public-DraftStyleDefault-ltr\">Uno dei principali vantaggi di CLIP \u00e8 che non \u00e8 necessario che i suoi dati di addestramento siano etichettati per un&#8217;applicazione specifica. Pu\u00f2 essere addestrato sull&#8217;enorme numero di immagini e descrizioni sciolte che si possono trovare sul web. Inoltre, senza i rigidi confini delle categorie classiche, CLIP pu\u00f2 apprendere rappresentazioni pi\u00f9 flessibili e generalizzare a un&#8217;ampia variet\u00e0 di attivit\u00e0. Ad esempio, se un&#8217;immagine \u00e8 descritta come &#8220;un ragazzo che abbraccia un cucciolo&#8221; e un&#8217;altra come &#8220;un ragazzo che cavalca un pony&#8221;, il modello sar\u00e0 in grado di apprendere una rappresentazione pi\u00f9 solida di cosa sia un &#8220;ragazzo&#8221; e come si relaziona ad altri elementi nelle immagini.<\/span><\/p>\n<p id=\"viewer-3ov5g\" class=\"mm8Nw _1j-51 iWv3d _1FoOD _78FBa b+iTF iWv3d public-DraftStyleDefault-block-depth0 fixed-tab-size public-DraftStyleDefault-text-ltr\"><span class=\"_2PHJq public-DraftStyleDefault-ltr\">CLIP ha gi\u00e0 dimostrato di essere molto utile per l&#8217;apprendimento zero-shot e pochi-shot , in cui un modello di machine learning viene mostrato al volo per eseguire attivit\u00e0 per le quali non \u00e8 stato addestrato.<\/span><\/p>\n<p id=\"viewer-8k5le\" class=\"mm8Nw _1j-51 iWv3d _1FoOD _78FBa b+iTF iWv3d public-DraftStyleDefault-block-depth0 fixed-tab-size public-DraftStyleDefault-text-ltr\"><span class=\"_2PHJq public-DraftStyleDefault-ltr\">L&#8217;altra tecnica di apprendimento automatico utilizzata in DALL-E 2 \u00e8 la &#8220;diffusione&#8221;, una sorta di modello generativo che impara a creare immagini noising e denoising gradualmente i suoi esempi di addestramento. I modelli di diffusione sono come gli autoencoder , che trasformano i dati di input in una rappresentazione di incorporamento e quindi riproducono i dati originali dalle informazioni di incorporamento.<\/span><\/p>\n<p id=\"viewer-7ko3l\" class=\"mm8Nw _1j-51 iWv3d _1FoOD _78FBa b+iTF iWv3d public-DraftStyleDefault-block-depth0 fixed-tab-size public-DraftStyleDefault-text-ltr\"><span class=\"_2PHJq public-DraftStyleDefault-ltr\">DALL-E addestra un modello CLIP su immagini e didascalie. Quindi utilizza il modello CLIP per addestrare il modello di diffusione. Fondamentalmente, il modello di diffusione utilizza il modello CLIP per generare gli incorporamenti per il prompt di testo e la sua immagine corrispondente. Quindi prova a generare l&#8217;immagine che corrisponde al testo.<\/span><\/p>\n<p id=\"viewer-ccsmr\" class=\"mm8Nw _1j-51 iWv3d _1FoOD _78FBa b+iTF iWv3d public-DraftStyleDefault-block-depth0 fixed-tab-size public-DraftStyleDefault-text-ltr\"><span class=\"_2PHJq public-DraftStyleDefault-ltr\">Per il momento, DALL-E 2 sar\u00e0 messo a disposizione solo di un numero limitato di utenti che si sono iscritti alla lista d&#8217;attesa. Dal rilascio di GPT-2 , OpenAI \u00e8 stata riluttante a rilasciare i suoi modelli di intelligenza artificiale al pubblico. GPT-3, il suo modello linguistico pi\u00f9 avanzato, \u00e8 disponibile solo tramite un&#8217;interfaccia API . Non \u00e8 possibile accedere al codice effettivo e ai parametri del modello.<\/span><\/p>\n<p id=\"viewer-6dt6j\" class=\"mm8Nw _1j-51 iWv3d _1FoOD _78FBa b+iTF iWv3d public-DraftStyleDefault-block-depth0 fixed-tab-size public-DraftStyleDefault-text-ltr\"><span class=\"_2PHJq public-DraftStyleDefault-ltr\">Sulla base degli esempi condivisi dal team di OpenAI, DALL-E 2 sembra manifestare alcune delle capacit\u00e0 di buon senso che sono mancate cos\u00ec a lungo nei sistemi di deep learning . Ma resta da vedere quanto sia profondo questo senso comune e stabilit\u00e0 semantica, e come DALL-E 2 e i suoi successori tratteranno concetti pi\u00f9 complessi come la composizionalit\u00e0.<\/span><\/p>\n<p id=\"viewer-94ko0\" class=\"mm8Nw _1j-51 iWv3d _1FoOD _78FBa b+iTF iWv3d public-DraftStyleDefault-block-depth0 fixed-tab-size public-DraftStyleDefault-text-ltr\"><span class=\"_2PHJq public-DraftStyleDefault-ltr\">A questo punto dobbiamo chiederci a cosa serve DALL-E 2: \u00e8 un potentissimo strumento per giocare con le immagini o \u00e8 un modo per dire al mondo qualcosa di diverso? <\/span><\/p>\n<p id=\"viewer-5t3de\" class=\"mm8Nw _1j-51 iWv3d _1FoOD _78FBa b+iTF iWv3d public-DraftStyleDefault-block-depth0 fixed-tab-size public-DraftStyleDefault-text-ltr\"><span class=\"_2PHJq public-DraftStyleDefault-ltr\">Da quando \u00e8 passato da una struttura no profit a una struttura a &#8220;profitto limitato&#8221;, OpenAI ha cercato di trovare l&#8217;equilibrio tra la ricerca scientifica e lo sviluppo del prodotto. La partnership strategica dell&#8217;azienda con Microsoft le ha fornito solidi canali per monetizzare alcune delle sue tecnologie, tra cui GPT-3 e Codex .<\/span><\/p>\n<div id=\"viewer-8t51c\" class=\"mm8Nw _1j-51 iWv3d _1FoOD _78FBa b+iTF iWv3d public-DraftStyleDefault-block-depth0 fixed-tab-size public-DraftStyleDefault-text-ltr\"><\/div>\n<div data-hook=\"rcv-block49\"><\/div>\n<div id=\"viewer-eskbg\" class=\"_2vd5k JP7h-\">\n<div class=\"_3CWa- Dv9jC Dv9jC _28A1_ _9Rxbb _9Rxbb\">\n<div class=\"_2kEVY\" role=\"button\" data-hook=\"imageViewer\">\n<div class=\"_3WJnn _2Ybje\"><img loading=\"lazy\" decoding=\"async\" class=\"OzAYt _3xs9_\" src=\"https:\/\/static.wixstatic.com\/media\/0fb21a_3912a6289c4c4672af4ad2b64ee78695~mv2.jpg\/v1\/fill\/w_940,h_945,al_c,q_90\/0fb21a_3912a6289c4c4672af4ad2b64ee78695~mv2.webp\" width=\"2178\" height=\"2190\" data-pin-url=\"https:\/\/www.paolobenanti.com\/post\/dall-e\" data-pin-media=\"https:\/\/static.wixstatic.com\/media\/0fb21a_3912a6289c4c4672af4ad2b64ee78695~mv2.jpg\/v1\/fit\/w_1000%2Ch_1000%2Cal_c%2Cq_80,enc_auto\/file.jpg\" \/><\/div>\n<div class=\"\"><\/div>\n<div class=\"\"><\/div>\n<\/div>\n<\/div>\n<\/div>\n<p id=\"viewer-6q00j\" class=\"mm8Nw _1j-51 iWv3d _1FoOD _78FBa b+iTF iWv3d public-DraftStyleDefault-block-depth0 fixed-tab-size public-DraftStyleDefault-text-ltr\"><span class=\"_2PHJq public-DraftStyleDefault-ltr\">In un post sul blog, Altman ha suggerito un possibile lancio del prodotto DALL-E 2 in estate. Molti analisti stanno gi\u00e0 suggerendo applicazioni per DALL-E 2, come creare grafica per articoli (potrei sicuramente usarne alcuni per i miei) e apportare modifiche di base alle immagini. DALL-E 2 consentir\u00e0 a pi\u00f9 persone di esprimere la propria creativit\u00e0 senza la necessit\u00e0 di abilit\u00e0 speciali con strumenti.<\/span><\/p>\n<p id=\"viewer-6qiuc\" class=\"mm8Nw _1j-51 iWv3d _1FoOD _78FBa b+iTF iWv3d public-DraftStyleDefault-block-depth0 fixed-tab-size public-DraftStyleDefault-text-ltr\"><span class=\"_2PHJq public-DraftStyleDefault-ltr\">Altman suggerisce che i progressi nell&#8217;IA ci stanno portando verso &#8220;un mondo in cui le buone idee sono il limite per ci\u00f2 che possiamo fare, non le abilit\u00e0 specifiche&#8221;.<\/span><\/p>\n<p id=\"viewer-5dj2i\" class=\"mm8Nw _1j-51 iWv3d _1FoOD _78FBa b+iTF iWv3d public-DraftStyleDefault-block-depth0 fixed-tab-size public-DraftStyleDefault-text-ltr\"><span class=\"_2PHJq public-DraftStyleDefault-ltr\">In ogni caso, le applicazioni pi\u00f9 interessanti di DALL-E emergeranno man mano che sempre pi\u00f9 utenti lo potranno testare. Ad esempio, l&#8217;idea di Copilot e Codex \u00e8 emersa quando gli utenti hanno iniziato a utilizzare GPT-3 per generare codice sorgente per il software.<\/span><\/p>\n<p id=\"viewer-2hav5\" class=\"mm8Nw _1j-51 iWv3d _1FoOD _78FBa b+iTF iWv3d public-DraftStyleDefault-block-depth0 fixed-tab-size public-DraftStyleDefault-text-ltr\"><span class=\"_2PHJq public-DraftStyleDefault-ltr\">Se OpenAI rilascia un servizio API a pagamento alla GPT-3, sempre pi\u00f9 persone saranno in grado di creare app con DALL-E 2 o integrare la tecnologia nelle applicazioni esistenti. Ma come nel caso di GPT-3 , costruire un modello di business attorno a un potenziale prodotto DALL-E 2 avr\u00e0 le sue sfide uniche. Molto dipender\u00e0 dai costi di formazione e di esecuzione di DALL-E 2, i cui dettagli non sono ancora stati pubblicati.<\/span><\/p>\n<div id=\"viewer-mlcl\" class=\"mm8Nw _1j-51 iWv3d _1FoOD _78FBa b+iTF iWv3d public-DraftStyleDefault-block-depth0 fixed-tab-size public-DraftStyleDefault-text-ltr\"><\/div>\n<div data-hook=\"rcv-block59\"><\/div>\n<div id=\"viewer-8j62r\" class=\"_2vd5k JP7h-\">\n<div class=\"_3CWa- Dv9jC Dv9jC _28A1_ _9Rxbb _9Rxbb\">\n<div class=\"_2kEVY\" role=\"button\" data-hook=\"imageViewer\">\n<div class=\"_3WJnn _2Ybje\"><img loading=\"lazy\" decoding=\"async\" class=\"OzAYt _3ii3f\" src=\"https:\/\/static.wixstatic.com\/media\/0fb21a_115068e9549e4f2db094f3e1e6846abd~mv2.jpg\/v1\/fit\/w_750,h_750,al_c,q_20,enc_auto\/file.jpg\" width=\"1024\" height=\"1024\" aria-hidden=\"true\" data-pin-url=\"https:\/\/www.paolobenanti.com\/post\/dall-e\" data-pin-media=\"https:\/\/static.wixstatic.com\/media\/0fb21a_115068e9549e4f2db094f3e1e6846abd~mv2.jpg\/v1\/fit\/w_1000%2Ch_1000%2Cal_c%2Cq_80,enc_auto\/file.jpg\" \/><\/div>\n<div class=\"\"><\/div>\n<\/div>\n<\/div>\n<\/div>\n<p id=\"viewer-4lovq\" class=\"mm8Nw _1j-51 iWv3d _1FoOD _78FBa b+iTF iWv3d public-DraftStyleDefault-block-depth0 fixed-tab-size public-DraftStyleDefault-text-ltr\"><span class=\"_2PHJq public-DraftStyleDefault-ltr\">E in quanto titolare della licenza esclusiva per la tecnologia di GPT-3, Microsoft sar\u00e0 il principale vincitore di qualsiasi innovazione basata su DALL-E 2 perch\u00e9 sar\u00e0 in grado di farlo in modo pi\u00f9 rapido ed economico. Come GPT-3, DALL-E 2 ricorda che mentre la comunit\u00e0 di intelligenza artificiale continua a gravitare verso la creazione di reti neurali pi\u00f9 grandi addestrate su set di dati di addestramento sempre pi\u00f9 grandi , il potere continuer\u00e0 a essere consolidato in alcune aziende molto ricche che hanno le risorse finanziarie e risorse tecniche necessarie per la ricerca sull&#8217;IA.<\/span><\/p>\n<p id=\"viewer-634sm\" class=\"mm8Nw _1j-51 iWv3d _1FoOD _78FBa b+iTF iWv3d public-DraftStyleDefault-block-depth0 fixed-tab-size public-DraftStyleDefault-text-ltr\"><span class=\"_2PHJq public-DraftStyleDefault-ltr\">Pi\u00f9 che allo stupore per la creativit\u00e0, quello che mi sembra importante guardare \u00e8 il messaggio che DALL-E comunica: in un mondo invaso dai dati il potere \u00e8 comprenderne il significato senza perdersi. DALL-E 2 \u00e8 una macchina di significato e in un mondo sempre pi\u00f9 diviso e in conflitto temo che questo sia l\u2019ennesimo strumento in grado di diventare una potentissima arma per quella che oggi, come ci mostra l\u2019ucraina, \u00e8 la vera frontiera della guerra: la propaganda e l\u2019aggressione psicologica.<\/span><\/p>\n<p><strong>Fonte: <a href=\"https:\/\/www.paolobenanti.com\/post\/dall-e\">https:\/\/www.paolobenanti.com\/post\/dall-e<\/a><\/strong><\/p>\n","protected":false},"excerpt":{"rendered":"<p>di Paolo Benanti (blog) OpenAI, uno dei centri di ricerca leader nel settore delle intelligenze artificiali, ha fatto di nuovo notizia, dopo GPT-3, che era in grado di scrivere da solo un articolo, questa \u00e8 il turno della pittura e delle illustrazioni. Nasce DALL-E 2, pronunciato Dall\u00ec unendo idealmente Salvador Dal\u00ec e Wall-E, l\u2019iconico robottino futuristico di un film d\u2019animazione Disney. DALL-E 2 \u00e8 un modello di apprendimento automatico in grado di generare immagini straordinarie&#46;&#46;&#46;<\/p>\n","protected":false},"author":105,"featured_media":64201,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"jetpack_post_was_ever_published":false,"_jetpack_newsletter_access":"","_jetpack_dont_email_post_to_subs":false,"_jetpack_newsletter_tier_id":0,"_jetpack_memberships_contains_paywalled_content":false,"_jetpack_memberships_contains_paid_content":false,"footnotes":"","jetpack_publicize_message":"","jetpack_publicize_feature_enabled":true,"jetpack_social_post_already_shared":true,"jetpack_social_options":{"image_generator_settings":{"template":"highway","enabled":false},"version":2}},"categories":[32],"tags":[],"jetpack_publicize_connections":[],"jetpack_featured_media_url":"https:\/\/appelloalpopolo.it\/wp-content\/uploads\/2021\/04\/Paolo-Benanti.jpg","jetpack_sharing_enabled":true,"jetpack_shortlink":"https:\/\/wp.me\/p7ZaJ4-iEd","_links":{"self":[{"href":"https:\/\/appelloalpopolo.it\/index.php?rest_route=\/wp\/v2\/posts\/71685"}],"collection":[{"href":"https:\/\/appelloalpopolo.it\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/appelloalpopolo.it\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/appelloalpopolo.it\/index.php?rest_route=\/wp\/v2\/users\/105"}],"replies":[{"embeddable":true,"href":"https:\/\/appelloalpopolo.it\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=71685"}],"version-history":[{"count":2,"href":"https:\/\/appelloalpopolo.it\/index.php?rest_route=\/wp\/v2\/posts\/71685\/revisions"}],"predecessor-version":[{"id":71687,"href":"https:\/\/appelloalpopolo.it\/index.php?rest_route=\/wp\/v2\/posts\/71685\/revisions\/71687"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/appelloalpopolo.it\/index.php?rest_route=\/wp\/v2\/media\/64201"}],"wp:attachment":[{"href":"https:\/\/appelloalpopolo.it\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=71685"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/appelloalpopolo.it\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=71685"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/appelloalpopolo.it\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=71685"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}