La IA che trasforma parole in foto. E crea immagini che non esistono
Dall-E 2 è il nuovo progetto di OpenAI, l’organizzazione non profit voluta da Elon Musk e Sam Altman. Si tratta di una IA in grado di generare foto realistiche: basta scriverle che cosa si vuole
La foto è chiara, realistica: c’è un cane shiba inu, una fra le razze più cool degli ultimi anni, che fissa dritto in camera, lo sguardo un po’ smarrito. Fin qui, niente di strano: una qualunque delle tante immagini di cani postate online a getto continuo. C’è una particolarità, però: quel cane, quello shiba inu, indossa un berretto, quello alla francese, tipo pittore. E non solo: ha addosso anche un dolcevita. No, nessun cane è stato maltrattato per scattare questa foto. E non è successo perché questa immagine non esiste: l’ha generata un’intelligenza artificiale. Dall-E 2 è il nuovo progetto di OpenAI, l’organizzazione non profit voluta da Elon Musk e Sam Altman. Si tratta di una IA in grado di generare foto realistiche: basta scriverle che cosa si vuoleDall-E 2 è il nuovo progetto di OpenAI, l’organizzazione non profit voluta, tra gli altri, da Elon Musk, che ne è poi uscito nel 2019, e Sam Altman, già artefice di Gpt-3 (qui un esempio di quello che può fare). Si tratta di un sistema di generazione di immagini, a partire da testi forniti dagli esseri umani: la seconda generazione di Dall-E, presentato a gennaio 2021
Come funziona Dall-E 2
Per farla breve e semplice il più possibile, Dall-E 2 riceve in input una descrizione. Nel nostro caso, avremmo scritto qualcosa simile a: “Un cane shiba inu con indosso un berretto e un dolcevita”. La IA processa quella informazione, la capisce, in un certo qual modo, e la interpreta, fornendo in output un’immagine come quella che sta in cima a questa pagina. Non solo: Dall-E 2 può anche lavorare a partire da un’immagine, per generare variazioni sul tema (come nel caso della rielaborazione della Ragazza con l’orecchino di perla); ancora: può modificare immagini esistenti a partire da un’indicazione testuale, come una specie di Photoshop alla portata di tutti, guidato dall’intelligenza artificiale
La scienza dietro la generazione di immagini
Alla base di Dall-E 2 c’è proprio un processo di ricerca scientifica molto profondo, che ha avuto l’obiettivo di portare l’intelligenza artificiale a fare ancora un passo avanti. Il sistema si basa su un percorso che parte da due presupposti fondamentali, per arrivare alla capacità di generare immagini. La prima parte è la comprensione: per creare foto a partire da un testo, l’IA dev’essere in grado di capire come parole e immagini si relazionano tra di loro. Per farlo, OpenAI ha addestrato Dall-E 2 utilizzando un sistema che si chiama Clip (la sigla sta per Contrastive Learning-Image Pre-training). Clip addestra due reti neurali in parallelo su immagini e relative didascalie, estratte da tutto il Web. L’obiettivo è comprendere le caratteristiche delle due componenti e metterle in relazione: quale parte dell’immagine corrisponde a quale parte del testo? È questa la domanda cui Clip è chiamato a rispondere.
Una volta addestrato, il sistema deve poi essere in grado di creare le immagini. Per questo obiettivo, OpenAI usa una tecnica che si chiama diffusione, che in primo luogo trasforma il testo in dati, per trovare similarità con quanto imparato attraverso Clip. Qual è la porzione di immagine più probabile da mettere in relazione alla parola “spiaggia”? E qual è quella più adatta alla parola “corgi”? L’intelligenza artificiale cerca affinità e poi ritrasforma quei dati in qualcosa di comprensibile: in questo caso, l’immagine più adatta al testo, come nell’esempio qui sotto.
I rischi: dalle fake news ai bias
Dall-E 2 non è solo foto divertenti (su Instagram ce ne sono molte) e ricerca scientifica. È anche potenziali rischi. Primo fra tutti: se un’immagine che sembra vera a tutti gli effetti non esiste, come si fa a capire cos’è è reale e cosa no? In basso a destra nelle foto generate da Dall-E 2 si può vedere un piccolo simbolo, una sorta di tavolozza di colori: è l’indicazione che quella immagine è stata generata da un computer sistema. Da OpenAI ci hanno raccontato che “crediamo che sia importante per le persone sapere che una foto è stata creata da un’intelligenza artificiale. Inoltre, non generiamo immagini di persone reali”.
Oltretutto, la disponibilità del sistema è limitata. Al momento esiste una lista d’attesa molto lunga per entrare e l’accesso è stato garantito solo a pochi sviluppatori. In futuro, è presumibile che Dall-E 2 possa diventare qualcosa di simile a Gpt-3, ovvero uno strumento che sarà messo a disposizione degli sviluppatori per generare applicazioni dedicate. Insomma, per ora gestire questo problema sembra abbastanza semplice: più avanti, potrebbe non esserlo.
La gestione della potenza del sistema non è l’unico ostacolo che OpenAI si trova a fronteggiare: Dall-E 2, come molte intelligenze artificiali, nasce con una serie di bias, soprattutto per quello che riguarda la rappresentazione delle donne e delle minoranze. Su Vox, la giornalista statunitense Sigal Samuel, ha definito il sistema “una nuova dimostrazione dei bias dell’intelligenza artificiale”. In particolare, nell’articolo si fa riferimento a una prova di generazione di immagini per la parola chiave “avvocato”, in cui compaiono solo uomini bianchi, o “assistente di volo” in cui, al contrario, vengono rappresentate esclusivamente donne bianche.
Fonte La Repubblica del 21/05/2022
VIDEO E PHOTO GALLERY
AIDR WEB TV
ITALIAN DIGITAL REVOLUTION
EVENTI ED INIZIATIVE
ITALIAN DIGITAL REVOLUTION
COME ASSOCIARSI
Condividi