Strana impugnatura e nuovo Foveon X3: ecco Sigma dp2 quattro

Strana impugnatura e nuovo Foveon X3: ecco Sigma dp2 quattro

di Roberto Colombo, pubblicata il

“Sigma rinnova la sua gamma di compatte APS-C a partire da dp2 quattro che si fa notare per una nuova implementazione del sensore Foveon X3 e per forme molto particolari”


Commenti (20)

Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - Info
Per contattare l'autore del pezzo, così da avere una risposta rapida, si prega di utilizzare l'email personale (vedere in alto sotto il titolo). Non è detto che una domanda diretta inserita nei commenti venga verificata in tempi rapidi. In alternativa contattare la redazione a questo indirizzo email.
Commento # 11 di: umby85 pubblicato il 11 Febbraio 2014, 11:14
Guardate su Youtube il video dal titolo: "Sigma DP 1 & 2 Merrill Field Test with Nick Devlin".
Mi chiedo comunque quanto costino queste macchine fotografiche e quanto possano davvero essere utili (rapporto qualità/prezzo anche rispetto ad altri prodotti professionali).
Commento # 12 di: +Benito+ pubblicato il 11 Febbraio 2014, 16:31
Originariamente inviato da: tuttodigitale
In realtà è molto molto semplice.
Non c'è bisogno di nessun algoritmo particolare.
le informazioni ci sono tutte per ogni singolo pixel.
prendiamo una matrice 2x2:
per costruire il primo pixel prendiamo il primo sub-pixel blu, e l'unico verde e rosso che sta sotto di esso.
per costruire il secondo prendiamo un secondo sub-pixel blu e riprendiamo le solite informazioni sul verde e rosso.
ecc ecc.


detta così non sembra sciocco, dato che la luce che passa sotto è via via minore, il blu se ne prende 1/4 in partenza, il verde che come nella matrice bayer deve essere in sovrannumero se ne prende 4x superficie ma con intensità ridotta, il rosso che deve prenderne come il blu ha bisogno di 4x superficie.

Da cui, a spanne, ogni strato assorbe il 30% di fotoni.
Commento # 13 di: CrapaDiLegno pubblicato il 11 Febbraio 2014, 16:58
Originariamente inviato da: tuttodigitale
giusto
Per avere maggior prestazioni agli alti iso, è cosa saggia e giusta aumentare la sensibilità del verde...a questo proposito è stato fatto un pixel binning 2x2 a livello HW, ovviamente si è perso in risoluzione.
Anche la saturazione del rosso già a 1600iso era critica nel precedente foveon, questa modifica va a quadruplicare il rapporto S/N.

come vedi, e hai giustamente intuito, la maggior luminanza è da ricercarsi proprio dalla riduzione delle informazioni disponibili sul canale rosso e verde...


il vecchio foveon da 15MP non offre certamente una risoluzione inferiore, almeno di non usare solo il canale blu...
PS i FOVEON x3, compreso questo, non hanno bisogno di demosaicing, nè in bianco e nero nè a colori.

La scelta di Sigma è intelligente:
non avrebbe avuto molto senso aumentare ancora di più la risoluzione dell'immagine su una compatta: il vecchio FOVEON è un 15x3MP in grado di tener testa per risoluzione ai sensori da 36MP. Questo è un foveon 20MPx3, potenzialmente in grado di rivaleggiare sul piano della risoluzione con sensori da 50MP....Saggia la scelta di limitare la risoluzione di origine mostruosa per una maggior sensibilità e versatilità dovuta al dimezzamento delle informazioni (bisogna salvare raw da 20+5+5MP e non da 20+20+20...).
Alla fin dei conti un sensore bayern da 24MP è un 6+12+6: sulla carta il foveon rimane strafavorito quando si parla di precisione dei colori, chissà se raggungerà la concorrenza in fatto di sensibilità.

Non è vero neanche quello che dici. Se gli strati sotto hanno 1/4 della risoluzione di quello sopra, in qualche modo la minore quantità di informazioni deve essere compensata usando un algoritmo che prenda in considerazione anche i "mega pixel" vicini.
Non è che basta avere un solo colore su 3 a 4 volte la risoluzione per ricostruire l'immagine con 4x le informazioni su tutti i colori.
Con il filtro bayer, poiché i pixel hanno la stessa dimensione è possibile interpolare raggruppando via via i 4 pixel in maniera diversa mantenendo l'errore spaziale al minimo.
Con il FOVEON l'interpolazione per estrarre il quadruplo delle informazioni sui livelli sottostanti è più complessa (o in alternativa il risultato è meno preciso che dir si voglia).

Ripensandoci, se il primo strato è quello blu, non applicare nessun tipo di demosaicizzazione (o interpolazione) vuol dire che si avrà una foto in B&W basata sulla sola componente blu. Se si vuole usare anche le altre due componenti per aumentare la precisione della luminanza serve fare una interpolazione. Alternativamente si può fare una foto in B&W senza interpolazione usando il secondo strato, ma la risoluzione si riduce a 4,9MPixel.
Commento # 14 di: +Benito+ pubblicato il 12 Febbraio 2014, 09:50
mmm non ne so molto ma provo a seguirti perchè è una cosa interessante.

Quello che immagino è che il canale blu, pixel per pixel, sia preso dal primo strato. Il canale verde, invece, sia uguale ogni 4 pixel, mentre il canale rosso uguale per 4 pixel.
Quindi forse il risultato non è una schifezza visto che complessivamente hai comunque 4 pixel diversi. Anche le macchine con il filtro bayer non rendono effettivamente su ogni pixel dell'immagine una misura esatta dei fotoni per canale che giungono in una posizione del sensore quindi in un certo senso il risultato potrebbe essere equivalente.
Commento # 15 di: zappy pubblicato il 12 Febbraio 2014, 10:14
Originariamente inviato da: tuttodigitale
giusto
Per avere maggior prestazioni agli alti iso, è cosa saggia e giusta aumentare la sensibilità del verde...a questo proposito è stato fatto un pixel binning 2x2 a livello HW, ovviamente si è perso in risoluzione.
Anche la saturazione del rosso già a 1600iso era critica nel precedente foveon, questa modifica va a quadruplicare il rapporto S/N.

come vedi, e hai giustamente intuito, la maggior luminanza è da ricercarsi proprio dalla riduzione delle informazioni disponibili sul canale rosso e verde...

non ho capito. stai dicendo che per avere maggior luminanza sono stati ingranditi i pixel verdi per captare più luce rispetto a quelli blu?
cioè si cattura + luce ma si perde in risoluzione perchè i pixel verdi hanno maggior superficie?
Commento # 16 di: CrapaDiLegno pubblicato il 12 Febbraio 2014, 14:02
Originariamente inviato da: zappy
non ho capito. stai dicendo che per avere maggior luminanza sono stati ingranditi i pixel verdi per captare più luce rispetto a quelli blu?
cioè si cattura + luce ma si perde in risoluzione perchè i pixel verdi hanno maggior superficie?

Sì esatto, l'idea è proprio quella. Maggiore è la dimensione della superficie maggiore è la luce catturata per unità di tempo e guadagno e quindi minore è il rumore prodotto (sia di tipo termico, elettrico o di quantizzazione).

@Benito
Sì, infatti come ho detto con il filtro Bayer si fa una interpolazione con le informazioni dei pixel, ma poiché per ogni pixel ho una quantità di informazioni che è sempre in rapporto RGB 1:2:1 e qualsiasi sia il gruppo di 4 pixel che si prendono si hanno sempre le stesse informazioni, l'errore spaziale introdotto è minimo e l'operazione è definibile "omogenea".
Con questo Foveon invece il rapporto informazioni RGB é 1:1:4 ma i valori possono cambiare radicalmente tra un pixel (definito di dimensione di quello blu) e il successivo visto che l'informazione spaziale sugli altri piani è molto minore (1/4).
Non so se mi sono spiegato chiaramente: con il filtro Bayer definizione e luminanza hanno lo stresso rapporto, con questo Foveon invece si ha un rapporto di 4 a 1.
Commento # 17 di: tuttodigitale pubblicato il 12 Febbraio 2014, 15:23
Originariamente inviato da: CrapaDiLegno
Non è vero neanche quello che dici. Se gli strati sotto hanno 1/4 della risoluzione di quello sopra, in qualche modo la minore quantità di informazioni deve essere compensata usando un algoritmo che prenda in considerazione anche i "mega pixel" vicini.
Non è che basta avere un solo colore su 3 a 4 volte la risoluzione per ricostruire l'immagine con 4x le informazioni su tutti i colori.

bah...se è SIGMA a dire che non viene usata alcun tipo di interpolazione per ricostruire l'immagine nel suo comunicato ufficiale, tu chi sei per dire il contrario?
Originariamente inviato da: SIGMA* Finally, unlike the data from other sensors, which requires artificial interpolation to &
no interpolation[/B]. The unique technological principle of this sensor produces consistently outstanding image quality.


Fare la media della media non è necessario, e non è assolutamente detto che migliori la qualità dell'immagine, anzi.
Quella di Sigma deve essere innanzitutto vista come una mossa in grado di rendere competitivo sul piano di sensibilità il suo sensore e allo stesso tempo di proporlo come soluzione da 20MP.

Originariamente inviato da: CrapaDiLegno
Con il filtro bayer, poiché i pixel hanno la stessa dimensione è possibile interpolare raggruppando via via i 4 pixel in maniera diversa mantenendo l'errore spaziale al minimo.
Con il FOVEON l'interpolazione per estrarre il quadruplo delle informazioni sui livelli sottostanti è più complessa (o in alternativa il risultato è meno preciso che dir si voglia).

con il foveon non mancano i dati sul colore come nel sensore bayer, ma ci sono anche se solo come media.
Nel bayer vanno ricostruiti, mediante le informazioni fornite da quelli adiacenti...e non si fa neppure una media semplice, ma si tenta di mantenere alto il contrasto. Ecco perchè non darei per scontato che fare una media della media sia una cosa buona.
A parte non è vero che l'errore spaziale nei sensori bayer viene mantenuto al minimo. http://blog.francescophoto.it/2009/...ne-dei-sensori/, si perde tant
a parità di risoluzione nominale non vedo perchè questo nuovo foveon non possa fare meglio del classico sensore bayer considerando l'enorme differenza di qualità che c'è tra un Foveon x3 vecchio tipo e un bayer a parità di numero fotodiodi.
Poi mi dici in fin dei conti quali gravi conseguenze ha sull'immagine la sola perdita di risoluzione? A parte una minor presenza di dettagli nessuna...

Originariamente inviato da: +Benito+
Quello che immagino è che il canale blu, pixel per pixel, sia preso dal primo strato. Il canale verde, invece, sia uguale ogni 4 pixel, mentre il canale rosso uguale per 4 pixel.
Quindi forse il risultato non è una schifezza visto che complessivamente hai comunque 4 pixel diversi. Anche le macchine con il filtro bayer non rendono effettivamente su ogni pixel dell'immagine una misura esatta dei fotoni per canale che giungono in una posizione del sensore quindi in un certo senso il risultato potrebbe essere equivalente.

il risultato sulla carta è superiore per 3 motivi:
1)la media è comprensiva anche del valore reale di quello specifico punto immagine, cosa che nel bayer non c'è.
2) i 3 strati producono 3 immagini complete, anche se a differenti risoluzioni. In questo caso abbiamo 3 immagini una a 20 e 2 a 5MP.La filtratura di bayer invece prevede la produzione di una sola immagine ad alta risoluzione, ma con pixel che hanno solo l'informazione di un colore primario.
3) la risoluzione dovrebbe rimanere molto elevata

Originariamente inviato da: +Benito+
detta così non sembra sciocco, dato che la luce che passa sotto è via via minore, il blu se ne prende 1/4 in partenza, il verde che come nella matrice bayer deve essere in sovrannumero se ne prende 4x superficie ma con intensità ridotta, il rosso che deve prenderne come il blu ha bisogno di 4x superficie.

Da cui, a spanne, ogni strato assorbe il 30% di fotoni.

Ogni singolo fotodiodo del FOVEON è in grado in linea teorica di assorbire il 100% dei fotoni della luce visibile cosa che non avviene nel bayer, che può catturare solo una porzione dello spettro visibile a causa dei filtri (verde-rosso-blu) applicati.
L'accoppiamento in HW dei canali di lettura del rosso e del verde di 4 fotodiodi adiacenti permette di aumentare il rapporto segnale rumore.
Ora non so quanto la scelta sia dovuta alla minore percentuale di cattura a relativi strati di profondità, delle lunghezze onde più corte rispetto a quelle più lunghe.
Il problema potrebbe anche essere dovuto alla maggior complessità intrinseca del chip con relativo aumento del noise. Quel che è certo che per migliorare la sensibilità (nota dolente dei FOVEON), la scelta più ovvia è quella di aumentare quella relativa del canale verde, dato che rispetto al blu e al rosso l'occhio umano è più sensibile.
Originariamente inviato da: CrapaDiLegno
spaziale introdotto è minimo e l'operazione è definibile "omogenea".
Con questo Foveon invece il rapporto informazioni RGB é 1:1:4 ma i valori possono cambiare radicalmente tra un pixel (definito di dimensione di quello blu) e il successivo visto che l'informazione spazi

stai facendo passare un vantaggio quello del contrasto a livello fotografico come uno svantaggio, complimenti.

Originariamente inviato da: CrapaDiLegno
Non so se mi sono spiegato chiaramente: con il filtro Bayer definizione e luminanza hanno lo stresso rapporto, con questo Foveon invece si ha un rapporto di 4 a 1.

quello che dici non ha assolutamente senso.
La definizione è definita dalla curva MTF, e tiene conto di due variabili quali il contrasto e la risoluzione....

Il nuovo foveon come il bayer ha la risoluzione spaziale (i famosi MP) e quella dei singoli colori asimettrica.
nel foveon originale questo era 1: (1:1:1)
in quello nuovo è diventato un 1: (1:0,25:0,25)
nel sensore di tipo bayer è un 1: (0,5:0,25,0,25)
bastano questi numeri per capire quale dei due è meglio.
Commento # 18 di: zappy pubblicato il 13 Febbraio 2014, 10:06
Originariamente inviato da: CrapaDiLegno
Sì esatto, l'idea è proprio quella. Maggiore è la dimensione della superficie maggiore è la luce catturata per unità di tempo e guadagno e quindi minore è il rumore prodotto (sia di tipo termico, elettrico o di quantizzazione).


ok, quindi sacrifichi (drasticamente) la definizione della luminanza (G) per aumentare la sensibilità.

Tuttavia è noto che l'occhio umano è sensibile soprattutto alla variazione (e quindi alla risoluzione) della luminanza, e molto meno alle variazioni (=risoluzione) della crominanza (R e B). Infatti gli algoritmi di compressione jpg e mpg si basano proprio sul dimezzamento delle risoluzioni di R e B rispetto a G per ottenere la famosa "compressione lossy"...

In tutto ciò quindi non capisco il criterio di 'sto sensore: la risoluzione G è molto più bassa di R e B, ma la compressione jpg poi dimezza R e B... quindi alla fine la risoluzione reale del file che si ottiene mi sembra che sia quella del sensore G, ovvero sui 5 Mpx...
Commento # 19 di: tuttodigitale pubblicato il 15 Febbraio 2014, 08:49
Originariamente inviato da: zappy
ok, quindi sacrifichi (drasticamente) la definizione della luminanza (G) per aumentare la sensibilità.

aspetta chiariamo i termini:
definizione è cosa assai diversa dalla risoluzione. La prima è una unità derivata la seconda no.
La definizione è composta da due componenti: risoluzione e contrasto e viene definita dalla curva MTF (importantissimo il valore di risoluzione con il mantenimento del 50% del contrasto originale, che poi è quella usata di solito per definire un pò tutto in elettronica).
Ora con un target bianco e nero, ma pure a colori visto che è praticamente impossibile trovare uno privo completamente della componente blu, la risoluzione limite, quella raggiunta a MTF0, rimane invariata.

Originariamente inviato da: zappy
Tuttavia è noto che l'occhio umano è sensibile soprattutto alla variazione (e quindi alla risoluzione) della luminanza, e molto meno alle variazioni (=risoluzione) della crominanza (R e B). Infatti gli algoritmi di compressione jpg e mpg si basano proprio sul dimezzamento delle risoluzioni di R e B rispetto a G per ottenere la famosa "compressione lossy"...

La risoluzione di luminanza è dettata dallo strato blu.
ora il paragone con il sensore con matrice bayer non ha ragione di esistere...
Il verde, invece del blu e del rosso, viene usato non per aumentare la risoluzione di luminanza, ma proprio per catturare più luce, perchè un fotone con una lunghezza onda di 530nm vale per l'occhio umano quanto 10 fotoni a 630 o 450nm....

Originariamente inviato da: zappy
In tutto ciò quindi non capisco il criterio di 'sto sensore: la risoluzione G è molto più bassa di R e B, ma la compressione jpg poi dimezza R e B... quindi alla fine la risoluzione reale del file che si ottiene mi sembra che sia quella del sensore G, ovvero sui 5 Mpx...

Fermo restando che la soluzione ideale in termini di definizione resta il vecchio Foveon,
le differenze e i vantaggi dell'approccio di quello nuovo rispetto al bayer sono molto evidenti.
Un sensore da 24MP con sensore Bayer è in grado di registrare a fronte di una risoluzione teorica di 24MP solo 13,4Milioni di punti (viene mantenuto solo il 75% del LPH).... che alla fine è poco di più del numero del fotodiodi che catturano il verde, che di fatto definiscono anche se non completamente, la risoluzione di luminanza del sensore.
questo è lo scotto da pagare di non avere una sola matrice monocromatica completa nell'immagine.
E' evidente che il nuovo FOVEON pur avendo a parità di MP la stessa risoluzione di luminanza del predecessore non può per ovvi motivi avere la stessa definizione, poichè il contrasto è mitigato dalle due componenti, G e R, a bassa frequenza.
Ma attenzione, anche il sensore bayer non è esente da questo limite...
L'interpolazione, generando valori intermedi e comunque approssimati, non può in alcun modo mantenere il contrasto inalterato.
Questo è anche il motivo per il quale il FOVEON da 14,5MP distacca e di brutto per definizione un bayer da 24Milioni di pixel con il classico target bianco-nero, pur non potendo catturare in realtà un numero di dettagli superiori.
Ora avrei qualche dubbio che un foveon quattro con la stessa risoluzione da 14,5MP del predecessore sia in grado di tener testa ad un sensore da 24MP tradizionale, ma questa è stata incrementata di un buon 30%....

Ps si noti che stiamo parlando solo di risoluzione e contrasto senza tenere minimamente conto della piacevolezza dell'immagine...l'assenza di moiré ai fini fotografici è un vantaggio da prendere seriamente in considerazione.
Commento # 20 di: tuttodigitale pubblicato il 15 Febbraio 2014, 14:51
In definitiva il FOVEON usa un sottocampionamento 4:2:0 in HW. Certamente la differenza con un 4:4:4 non è risibile. Ma se pensiamo che la differenza tra un jpeg e un tiff a 8 bit è all'atto pratico inesistente si intuisce facilmente quanto il sensore con matrice bayer faccia da collo di bottiglia. La scelta di Sigma è da appoggiare se la sensibilità subirà un incremento importante.
« Pagina Precedente     Pagina Successiva »