People Mauro Martino

Mauro
Martino

IBM Research AI, Northeastern University

Mauro Martino è il fondatore e direttore del Visual Artificial Intelligence Lab all’IBM Research, con sede a Cambridge, US, e Professor of Practice presso la Northeastern University a Boston. E’ un pioniere nell'uso della rete neurale artificiale nel campo della scultura. Le sue opere di AI interattiva sono utilizzate da milioni di persone, alcuni esempi: Watson TED (watson.ted.com), News Explorer (news-explorer.mybluemix.net), Forma Fluens (formafluens.io), AI Portraits (aiportraits.com).

I suoi lavori sono stati pubblicati su importanti riviste scientifiche, citati in numerose conferenze come Nature, Science, PNAS, NeurIPS e su diversi libri riguardanti i data visualization: "Data Visualization", "The Truthful Art", "The Best American Infographics" editi tra il 2015 e il 2016.

Mauro è un designer pluripremiato i cui progetti hanno ricevuto la medaglia d'oro al The 2017 Vizzies Visualization Challenge della National Science Foundation, l’Innovation by Design Award di Fast Company e il Kantar Information is Beautiful Award. I suoi progetti sono stati esposti in festival e mostre internazionali tra cui Ars Electronica, RIXC Art Science Festival, Global Exchange presso il Lincoln Center, The Serpentine Gallery a Londra, 123 DATA, Parigi.

 

Quante volte diciamo frasi di rito ad altre persone? Quante volte ci sforziamo di comunicare con profondità i nostri sentimenti e di capire veramente gli altri? Empatia e umanità sintetica ci sveglieranno dal torpore emotivo in cui molto spesso cadiamo.

— Mauro Martino
L'intervista

Una chiacchierata con Mauro Martino

Si parla tanto di intelligenza artificiale e molti ne sono spaventati, ma come possiamo definire questa rivoluzione in poche parole?
_

Come campo di ricerca scientifica l'intelligenza artificiale sta riscuotendo tantissimo interesse. Penso che molto presto vedremo questa disciplina espandersi in tutte le facoltà universitarie, dalla giurisprudenza alla medicina. Di certo non esiste un'intelligenza artificiale equivalente a quella umana. Molto spesso abusiamo di questo termine, in realtà si tratta fondamentalmente di modelli statistici in grado di elaborare in tempo reale dati non strutturati.

La cosa sconvolgente è constatare che non ci serve l'intelligenza artificiale per sostituire la maggior parte dei lavori svolti dalle persone. Credo che la paura nasca da qui. Dante scrive - “fatti non foste a viver come bruti, ma per seguir virtute e canoscenza”. Ci siamo dimenticati di elevare il nostro spirito e stiamo vivendo come bruti, svolgendo lavori ripetitivi e stupidi.

 

La teoria oggi sostiene che l’unico limite dell’AI è la mancanza di empatia e umanità, ma è davvero un limite?
_

Empatia e umanità possono essere simulate. La lettura dei movimenti del corpo, delle micro espressioni facciali e della voce possono essere interpretate con accuratezza. Possiamo allenare modelli matematici a riconoscere i sentimenti legati a questi dati e a reagire con azioni, e parole che modifichino la situazione emotiva corrente.

Quante volte diciamo frasi di rito ad altre persone? Quante volte ci sforziamo di comunicare con profondità i nostri sentimenti e di capire veramente gli altri? Empatia e umanità sintetica ci sveglieranno dal torpore emotivo in cui molto spesso cadiamo.

Stiamo costruendo macchine che simulano e non sono, che pretendono e non sanno. Il nostro orgoglio ci spingerà ad essere meno banali e prevedibili. Creativi sempre! Umani sempre!

 

Qual’è il presente dell’AI? Come un designer potrebbe usare l’AI oggi, per aumentare la propria produttività e creatività?
_

A piccoli passi ci stiamo muovendo verso l’intelligenza artificiale, siamo agli inizi e nessuno in questo momento può essere ottimista o pessimista. Per ora abbiamo modelli che apprendono dal mondo reale, guardando e ascoltando. Imparano a riconoscere e riprodurre sempre meglio oggetti, situazioni, emozioni, parole, frasi. Ora è faticoso e costoso addestrarli, e diversi modelli non dialogano bene tra di loro.

I migliori risultati sono probabilmente nel campo visivo, per questo i designers dovrebbero essere i primi a utilizzare questa tecnologia. Grazie ai modelli GAN (Generative Adversarial Network) possiamo giocare con le forme e i colori fondendoli e sfumando i confini tra diverse classi di oggetti. L’AI è la nuova musa del designer.

Nel progetto abbiamo bisogno di riferimenti culturali visivi per concepire una evoluzione dell’oggetto creato. Grazie all'AI posso creare immagini artificiali di tutto quello che esiste e che non esiste, posso farmi guidare in percorsi visivi arditi e inusuali. Il designer deve fare l’esperienza di questo universo visivo multidimensionale. Il latent space, in cui si muovono le immagini generate dai GAN, sembra nato per i designer e per ispirare la loro creatività. Non si tratta solo di esperienze passive, posso controllare le immagini generate dall’AI attraverso il mio gesto progettuale. Il disegno, la forma primordiale di espressione progettuale, diventa la bacchetta magica con cui direzionare la straripante produzione di immagini dell’AI. Credo ci possa essere un dialogo perfetto tra chi padroneggia il segno progettuale, inteso come capacità di progetto attraverso il disegno, e un AI che immagazzina in sé ogni possibile forma. Esempio: Il designer inizia a disegnare un nuovo abito, una scarpa, un tavolo, una sedia, un poster, un sito web, uno storyboard di un film.. l’AI osserva il disegno e fornisce consigli su come potrebbe essere l’oggetto; lo riproduce come un rendering iper realistico, e ne mostra diverse versioni e variazioni. Più il mio disegno diventa accurato e ricco di dettagli, più i suggerimenti e le preview iper realistiche seguono il mio stile e il mio senso estetico. Il sistema può essere addestrato sulla mia collezione di disegni, rendering, foto e carpire il mio stile progettuale e iniziare a suggerire forme e colori sempre più coerenti, o dissonanti nel caso volessi capire cosa non disegnerò mai.

 



© Fuorisalone.it — Riproduzione riservata. — Pubblicato il 20 marzo 2019