Adobe MAX 2023: intelligenza artificiale e Sneaks

Scopriamo insieme tutte le novità presentate agli Adobe MAX 2023

Anna Grazia Longobardi
weBeetle
6 min readOct 19, 2023

--

Alla conferenza Adobe Max 2023, è stata presentata l’ultima versione di Adobe Creative Cloud, con oltre 100 nuove funzionalità in Photoshop, Illustrator, Premiere Pro e oltre, inclusive delle nuove funzionalità generative Firefly AI. Per chi non la conoscesse, Adobe MAX è una conferenza annuale organizzata da Adobe Systems, uno degli eventi più importanti nel campo della creatività digitale, del design e della tecnologia.

Durante la conferenza, c’è una parte speciale dell’evento, ovvero gli Adobe Sneaks. Si tratta di una sessione in cui vengono presentate anteprime di nuove e innovative tecnologie e funzionalità che potrebbero essere integrate nei prodotti Adobe in futuro.

Durante questa sessione, i team di ricerca e sviluppo di Adobe condividono progetti sperimentali e prototipi a cui stanno lavorando. Queste anteprime possono includere nuovi strumenti, funzioni di intelligenza artificiale, tecnologie di realtà aumentata o virtuale e altre innovazioni che possono trasformare il modo in cui i creativi lavorano con i software Adobe.

Non tutte le Sneaks presentate diventano necessariamente prodotti finali, ma offrono uno sguardo intrigante su ciò su cui Adobe sta concentrando la propria ricerca e sviluppo. Questa sessione è molto apprezzata dai partecipanti di Adobe MAX, proprio perchè offre una visione in anteprima di potenziali rivoluzioni nel campo della creatività digitale.

Durante gli Sneaks di quest’anno sono state presentate:

Project Fast Fill

Presentatore: Gabriel Huang è un ingegnere di ricerca presso Adobe con focus sui video. Ha contribuito a tecnologie all’avanguardia che rivoluzionano l’editing degli effetti video, rendendolo più facile e accessibile.

Questo strumento permette agli editor di rimuovere oggetti o cambiare elementi dello sfondo nei video con la stessa facilità, qualità e fluidità con cui si editano immagini fisse.

Il progetto Fast Fill sfrutta il Generative Fill, alimentato da Adobe Firefly, per integrare la tecnologia di intelligenza artificiale generativa nelle applicazioni di editing video. Ciò rende semplice per gli utenti utilizzare semplici comandi di testo per sostituire le texture nei video, anche su superfici complesse e in condizioni di luce variabili. Gli utenti possono utilizzare questo strumento per modificare un oggetto su un singolo fotogramma e l’edit verrà automaticamente propagato nel resto dei fotogrammi del video, risparmiando agli editori video una notevole quantità di tempo nell’editing delle texture.

Project Draw And Delight

Presentatore: Souymodip Chakraborty è un informatico presso Adobe. I suoi interessi sono nell’ambito della computer graphic e dell’elaborazione geometrica.

Con il progetto Draw And Delight, i creator possono utilizzare l’intelligenza artificiale generativa per guidarli lungo il percorso creativo, aiutando a trasformare le idee iniziali — spesso rappresentate come scarabocchi o appunti grezzi — in schizzi rifiniti e accurati.

Questa tecnologia fornisce agli utenti la capacità di arricchire le istruzioni basate sul testo con suggerimenti visivi, come schizzi grezzi e pennellate. Draw And Delight utilizza quindi la potenza di Adobe Firefly per generare vettori di alta qualità di illustrazioni o animazioni in diverse palette di colori, stili, pose e sfondi.

Project Neo Sneak

Presentatore: Inigo Quilez è un ingegnere di ricerca principale presso Adobe specializzato in animazioni 2D e 3D. È il creatore di strumenti di animazione VR e ha avuto alcuni dei sui lavori in evidenza in diversi blockbuster animati e film in VR.

Integrare elementi tridimensionali in design bidimensionali (infografiche, poster, loghi o persino siti web) può essere difficile da padroneggiare e spesso richiede ai designer di imparare nuovi flussi di lavoro o competenze tecniche.

Il progetto Neo consente ai designer di creare contenuti bidimensionali utilizzando forme tridimensionali senza dover imparare strumenti e metodi tradizionali di creazione 3D. Questa tecnologia sfrutta il meglio dei principi 3D, consentendo ai designer di creare facilmente e velocemente forme bidimensionali con prospettive a uno, due o tre punti. I designer che utilizzano questa tecnologia sono in grado anche di collaborare con i loro stakeholder e apportare modifiche ai mockup a livello vettoriale, in modo da poter modificare rapidamente i progetti.

Project Scene Change

Presentatore: Zhan Xu è un ricercatore presso Adobe Research. Il suo lavoro si concentra sull‘editing video e sull’aspetto “tridimensionale” dell’editing.

La composizione è una parte essenziale della cinematografia; consente ai registi e ai video creator di sviluppare una narrazione ed è fondamentale per mantenere gli spettatori coinvolti nella storia.

Il progetto Scene Change rende semplice comporre un soggetto e una scena da due video separati — ripresi con diverse traiettorie di telecamera — in una scena unica con un movimento di telecamera sincronizzato.

L’intelligenza artificiale crea una rappresentazione tridimensionale della scena di sfondo da un’immagine preregistrata, come se fosse stata catturata da una telecamera in movimento libero, quindi compone il soggetto ripreso separatamente, con ombre corrette, in una nuova scena con movimento compatibile. Questo elimina qualsiasi limitazione dovuta al movimento della telecamera e consente ai video editor di inserire un soggetto in un nuovo ambiente con un movimento di telecamera realistico.

Project Primrose

Presentatrice: Christine Dierk è una ricercatrice presso Adobe, specializzata in interazione uomo-macchina e iniziative di ricerca hardware.

Il progetto Primrose, presentato agli Sneaks come un abito interattivo, rende tutto ciò possibile con tessuti indossabili e flessibili, non emittenti, che consentono a tutta la superficie di visualizzare contenuti creati con Adobe Firefly, Adobe After Effects, Adobe Stock e Adobe Illustrator. I designer possono integrare questa tecnologia in abbigliamento, mobili e altre superfici per sbloccare infinite possibilità di stile.

Project Glyph Ease

Presentatore: Difan Liu è un ricercatore presso Adobe, dove si concentra sull’editing di immagini, grafica vettoriale e video.

Il progetto Glyph Ease utilizza l’intelligenza artificiale generativa per creare lettere personalizzate in formato vettoriale, che possono poi essere utilizzate e modificate. Tutto ciò che un designer deve fare è creare tre lettere di riferimento in uno stile scelto da forme vettoriali esistenti o da quelle disegnate a mano su carta, e questa tecnologia crea automaticamente le restanti lettere nello stesso stile. Una volta create, i designer hanno la flessibilità di modificare il nuovo carattere, poiché le lettere appariranno come testo attivo che può essere ridimensionato, ruotato o spostato nel progetto.

Project Poseable

Presentatrice: Yi Zhou è una ricercatrice presso Adobe. La sua ricerca è incentrata sugli avatar virtuali. Lavora principalmente su modelli 3D, ricostruzione di capelli e corpo umano, sintesi di movimenti umani e animazione 3D.

Il progetto Poseable permette a chiunque di progettare rapidamente prototipi e storyboard in 3D in pochi minuti grazie all’intelligenza artificiale generativa.

Invece di dover dedicare tempo a modificare i dettagli di una scena — lo sfondo, gli angoli e le pose diverse dei singoli personaggi o il modo in cui il personaggio interagisce con gli oggetti circostanti nella scena — gli utenti possono accedere a modelli di posa di personaggi basati sull’IA e utilizzare modelli di generazione di immagini per renderizzare facilmente scene in 3D con personaggi.

Project Res Up

Presentatore: Yang Zhou è un ricercatore presso Adobe, dove si occupa della generazione video basata su generazione video basata su deep leaning.

Il progetto Res Up è uno strumento di ingrandimento video che utilizza una tecnologia basata sull’intelligenza artificiale per convertire video a bassa risoluzione in video ad alta risoluzione per diverse applicazioni. Possono anche ingrandire e ritagliare i video e migliorarne la risoluzione a piena definizione con dettagli visivi ad alta fedeltà e coerenza temporale. Questo è ottimo per coloro che vogliono dare nuova vita a video più datati o per evitare video sfocati quando vengono riprodotti in versioni ingrandite su schermi HD.

Project Dub Dub Dub

Presentatore: Zeyu Jin è un ricercatore senior presso Adobe Research. La sua ricerca si concentra sul miglioramento dell’audio a qualità da studio, valutazione della qualità dell’audio e generazione personalizzata della voce.

Il progetto Dub Dub Dub utilizza l’intelligenza artificiale generativa per doppiare automaticamente video o clip audio in più di 70 lingue e oltre 140 dialetti. Utilizza la traduzione speech-to-speech per tradurre automaticamente e abbinare la voce, il tono, la cadenza e l’acustica del video originale, che esso sia completamente nuovo o provenga dagli archivi video dell’utente. Tutto ciò che gli utenti devono fare è premere un pulsante per doppiare automaticamente il contenuto, trasformando questo processo storicamente laborioso e costoso in uno che può essere completato in pochi minuti.

Project See Through

Presentatore: Eric Kee è un ricercatore presso Adobe. I suoi interessi sono fotografia computazionale, apprendimento automatico e percezione visiva.

l progetto See Through semplifica il processo di pulizia delle foto dai riflessi utilizzando l’intelligenza artificiale. I riflessi vengono rimossi automaticamente e, opzionalmente, salvati come immagini separate per scopi di modifica. Ciò offre agli utenti maggior controllo su quando e come i riflessi appaiono nelle loro foto.

Project Stardust

Presentatrice: Aya Philémon è una product manager presso Adobe che mira a dare agli altri la possibilità di sfruttare al massimo il loro potenziale creativo. I suoi progetti di ricerca sono ispirati sia dalle sue esperienze professionali che personali.

Il progetto Stardust è un motore di modifica conscio degli oggetti che utilizza l’intelligenza artificiale e l’IA generativa per rivoluzionare l’editing delle immagini. Questa tecnologia automatizza alcune parti del processo di modifica dell’immagine che talvolta possono richiedere molto tempo, come riempire gli sfondi, ritagliare contorni per la selezione, mescolare l’illuminazione e il colore, e altro ancora. Inoltre, le funzionalità di IA generativa consentono di aggiungere oggetti e apportare trasformazioni creative. Stardust rende l’editing delle immagini più intuitivo, accessibile ed efficiente in termini di tempo per qualsiasi utente, a prescindere dal livello di competenza.

--

--