Vedere una foto post prodotta prima di scattarla, su smartphone? Al MIT ci sono riusciti

Vedere una foto post prodotta prima di scattarla, su smartphone? Al MIT ci sono riusciti

di Alessandro Bordin, pubblicata il

“Interessante progetto del MIT pensato per la smartphone photography: un algoritmo particolare fornisce l'anteprima in tempo reale di come sarà l'immagine con la post produzione, prima dello scatto. Ecco come funziona”

Nel corso del Siggraph 2017 di Los Angeles un gruppo di lavoro del MIT (Massachusetts Institute of Technology), in collaborazione con Adobe e altre realtà, ha mostrato una tecnologia interessante riguardante la smartphone photography. Cerchiamo prima di capire si cosa si tratta e che problemi intende risolvere.

Esistono da tempo tecnologie che possono farci vedere l'anteprima di una fotografia in seguito ad una eventuale post-produzione, basti pensare ai numerosi plug-in di Photoshop e non solo per inquadrare ciò di cui stiamo parlando. Problema: sono operazioni complesse che richiedono una grande potenza elaborativa, che possiamo definire proibitiva per gli smartphone. Non solo: ciò avviene partendo da foto in archivio, quindi con un'immagine fatta e finita già esistente.

Ebbene, il gruppo di lavoro del MIT ha realizzato qualcosa di davvero interessante: un algoritmo particolare fornisce l'anteprima in tempo reale di come sarà l'immagine con la post produzione, prima dello scatto, il tutto su smartphone. Oltre al risultato finale risulta interessante capire come siano riusciti a superare alcuni problemi davvero spinosi, come la potenza elaborativa necessaria per l'anteprima in tempo reale, così come per tutto il meccanismo di machine learning che ci sta dietro.

Cerchiamo si semplificare un discorso molto più complesso (in fondo includiamo anche un video). L'algoritmo agisce su diversi livelli, partendo da un input (di fatto ciò che si inquadra, non esistendo ancora la fotografia). L'analisi in tempo reale della scena avviene prima di tutto su una versione a bassa risoluzione dell'input: in questo caso bastano e avanzano le potenzialità computazionali degli smartphone, utili a trasformare in matrici e stringhe dal basso "peso" computazionale molti parametri per determinare la scena. Il software prevede migliaia di "scene" già in memoria, ma dal peso in MB irrisorio, poiché già trasformate a monte per creare uno storico utilizzabile come confronto.

Al MIT insomma hanno lavorato mettendo a confronto immagini ad alta risoluzione prima e dopo la post-produzione, creando un archivio successivamente integrato nella app utilizzata come esempio, realizzato con parametri facilmente elaborabili.

Non finisce qui però: l'input viene contemporaneamente "mappato" in bianco e nero per salvare dettagli che di solito si perdono nelle anteprime a bassa risoluzione. A questo punto il software è pronto per mettere a confronto la scena con quelle in archivio, tenendo presente anche l'anteprima in bianco e nero, restituendo a schermo e in tempo reale la scena già post-prodotta ritenuta più adatta in base allo storico, ma anche a quelle scattate sullo smartphone in precedenza (ecco perché si parla anche di machine learning).

Ecco come appare sul display: lo screenshot superiore mostra l'anteprima, sotto con la funzionalità disabilitata. Un progetto che riteniamo interessante (molto più di quello segnalato ieri sul Computational Zoom), ora non resta che attendere per vedere se sarà una funzionalità prevista su qualche smartphone o disponibile attraverso una specifica app.


Commenti (3)

Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - Info
Per contattare l'autore del pezzo, così da avere una risposta rapida, si prega di utilizzare l'email personale (vedere in alto sotto il titolo). Non è detto che una domanda diretta inserita nei commenti venga verificata in tempi rapidi. In alternativa contattare la redazione a questo indirizzo email.
Commento # 1 di: palmy pubblicato il 04 Agosto 2017, 14:20
Originariamente inviato da: Redazione di Hardware Upgrade
Link alla notizia: http://www.fotografidigitali.it/new...citi_70396.html

Interessante progetto del MIT pensato per la smartphone photography: un algoritmo particolare fornisce l'anteprima in tempo reale di come sarà l'immagine con la post produzione, prima dello scatto. Ecco come funziona

Click sul link per visualizzare la notizia.


Carina l'idea, poi magari farsi affiancare da un fotografo per capire cosa significa un buon prodotto di post-produzione potrebbe aiutare al successo di un'eventuale App
Dall'esempio proposto nell'articolo è meglio la funzionalità disabilitata che quella proposta dall'algoritmo con quei colori assurdi
Commento # 2 di: onka pubblicato il 04 Agosto 2017, 14:36
è lo sfondo di windows?
Commento # 3 di: ginogino65 pubblicato il 05 Agosto 2017, 09:18
Non capisco a cosa serve questa funzione, non è che si sta parlando di pellicola analogica, in cui abbiamo un numero esiguo di foto da fare (12,24,32) e quindi sapere come verrà elaborata la foto, ci permette di risparmiare un prezioso scatto, ma col digitale, una foto in più cosa cambia.