Sigma acquisisce la statunitense Foveon

Sigma acquisisce la statunitense Foveon

di Roberto Colombo, pubblicata il

“Sigma ha acquisito il 100% di Foveon, l'azienda statunitense che sviluppa i sensori utilizzati nelle sue fotocamere”

Sigma ha acquisito il 100% delle azioni di Foveon, azienda statunitense che sviluppa i sensori impiegati dal produttore di fotocamere nipponico nelle sue reflex e compatte, tra cui le ultime uscite SD15 e DP2.

Le due aziende hanno collaborato per diversi anni per lo sviluppo di sensori e dalla partnership è nato il ben noto Foveon X3, elemento sensibile a tre strati, che permette di superare alla base problemi quali gli artefatti dell'algoritmo di demosaicing, offrendo inoltre una nitidezza maggiore.

Dopo l'acquisizione Foveon continuerà a portare avanti lo sviluppo degli elementi sensibili nel suo stabilimento di San Jose, ma in più stretta collaborazione con Sigma, in direzione di una maggiore integrazione tra il sensore e le fotocamere e le ottiche del produttore giapponese. Inoltre non è escluso che la partnership possa mettere in cantiere progetti in merito a nuovi tipi o formati di sensori.


Commenti (13)

Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - Info
Per contattare l'autore del pezzo, così da avere una risposta rapida, si prega di utilizzare l'email personale (vedere in alto sotto il titolo). Non è detto che una domanda diretta inserita nei commenti venga verificata in tempi rapidi. In alternativa contattare la redazione a questo indirizzo email.
Commento # 1 di: Paganetor pubblicato il 12 Novembre 2008, 11:06
non è necessariamente una buona notizia: se prima il Foveon (teoricamente) poteva finire su macchine di marca diversa (e non solo Sigma), così facendo temo rimarrà un prodotto Sigma (con tutti i limiti del caso: quante macchine vendono all'anno? e rispetto ai colossi come Canon, Nikon, Olympus, Sony ecc.?)

comunque aspettiamo e vediamo se tirano fuori qualcosa di nuovo...
Commento # 2 di: the_joe pubblicato il 12 Novembre 2008, 11:12
Originariamente inviato da: Paganetor
non è necessariamente una buona notizia: se prima il Foveon (teoricamente) poteva finire su macchine di marca diversa (e non solo Sigma), così facendo temo rimarrà un prodotto Sigma (con tutti i limiti del caso: quante macchine vendono all'anno? e rispetto ai colossi come Canon, Nikon, Olympus, Sony ecc.?)

comunque aspettiamo e vediamo se tirano fuori qualcosa di nuovo...


E' quello che pensavo anche io, si fossero decisi a costruire un po' di questi sensori da vendere o provare a venderli a costruttori terzi oltre a Sigma, magari adesso avremmo qualche macchina in più e loro un po' più di soldi in cassa per portare avanti lo sviluppo di questo promettente (promesse promesse e ancora promesse) sensore........

Purtroppo limitatarne la diffusione alle capacità di Sigma credo sia penalizzante, vedi la Reflex venduta in pochi esemplari e con difetti di gioventù che altri avrebbero risolto in pochissimo tempo, e non ultimo il fatto di avere un attacco ottiche proprietario che ne limita l'utilizzo alle ottiche Sigma....
Commento # 3 di: S1L3Nt pubblicato il 12 Novembre 2008, 12:17
E perchè mai? Sony non vende forse i suoi sensori a terze parti? E Kodak? E Panasonic? E Samsung?
Sigma ha i soldi e la capacità produttiva per mettere sul mercato un Foveon finalmente competitivo e sicuramente non sbarrerà la strada ai produttori interessati. D'altronde già vendono obiettivi per tutti i sistemi...
Commento # 4 di: leddlazarus pubblicato il 12 Novembre 2008, 12:23
questo foveon che sulla carta sembrrebbe fare faville, poi non si è rivelato molto valido.

altrimenti perchè nikon o canon l'avrebbero snobbato cosi?

cmq la teoria è buona e se ci si pensa i sensori tradizionali sono ben al di sotto delle risoluzioni che poi sfornano.
infatti per ogni pixel reale ne servono ben 4 sul sensore (griglia 2x2 di cui 2 verdi 1 rosso e 1 blu) quindi un sensore di 15 mpixel da 4752 x 3168 (eos 50d) sarebbe effettivamente 2376x1584 cioè 3,8 Mpix.

poi il processore da 4 pixel/sensore estrae 4 pixel/immagine, ma sono comunque "finti"
Commento # 5 di: S1L3Nt pubblicato il 12 Novembre 2008, 13:10
L'hanno snobbato perchè ha costi elevati di produzione e di sviluppo. Inoltre Sony, Canon, Panasonic etc. producevano CCD e CMOS già da un bel po' di tempo. Ti pare che interrompevano tutto per passare al Foveon? W il marketing dei megapixel!

Approfondiendo il discorso sulla risoluzione:
In rosso i [B][COLOR="Red"]rapporti teorici[/COLOR][/B], in verde i [B][COLOR="Green"]rapporti reali[/COLOR][/B]
Link ad immagine (click per visualizzarla)

"È importante notare che la “definizione” aggiuntiva catturata da un CCD con più Mp potrebbe deludere chi si aspetta un nettissimo cambiamento. Infatti, passando da 2 MP a 5 Mp si potrebbe pensare che un oggetto fotografato raddoppi (e oltre) la sua dimensione e sia quindi stampabile a grandezza più che doppia. Si potrebbe pensare che un’immagine a 2 Mp sia stampabile agevolmente a 9x12 e quella a 5 Mp a 18x24. Invece, la risoluzione del CCD è aumentata solo della radice quadrata di 5/2 e cioè di 1,6 volte, valore inferiore a quello che ci saremmo aspettati (2.5).
[...]
Come si può vedere dalla tabella, i rapporti reali (tra risoluzioni orizzontali) sono molto deludenti rispetto all’aumento di Megapixel e sono tanto più deludenti (in percentuale) quanto più l’aumento è forte. In altre parole, passando da 2 MP a 5 Mp, l’aumento non è del doppio, ma è pari alla radice quadrata del rapporto (5/2.5), cioè 1,4 volte e così passando da 1 MP a 14 Mp, non sarà di 14 volte, ma di appena 3,7 !"
[Fonte: http://www.nonsolocittanova.it/sensori.htm]
Commento # 6 di: yossarian pubblicato il 12 Novembre 2008, 13:44
Originariamente inviato da: leddlazarus
questo foveon che sulla carta sembrrebbe fare faville, poi non si è rivelato molto valido.

altrimenti perchè nikon o canon l'avrebbero snobbato cosi?

cmq la teoria è buona e se ci si pensa i sensori tradizionali sono ben al di sotto delle risoluzioni che poi sfornano.
infatti per ogni pixel reale ne servono ben 4 sul sensore (griglia 2x2 di cui 2 verdi 1 rosso e 1 blu) quindi un sensore di 15 mpixel da 4752 x 3168 (eos 50d) sarebbe effettivamente 2376x1584 cioè 3,8 Mpix.

poi il processore da 4 pixel/sensore estrae 4 pixel/immagine, ma sono comunque "finti"


non è corretto prendere la risoluzione e dividere epr 4; ogni punto o subpixel, tranne quelli ai bordi del sensore, sono utilizzati per interpolare i valori con i subpixel vicini; quindi una risoluzione dichiarata di 15 Mpixel è effettivamente di 15 Mpixel (per ogni sensore si dichiarano 2 numeri: la risoluzione teorica, che considera anche i subpixel sui bordi alla stregua di pixel completi e la risoluzione reale, che non considera i subpixel ai bordi come pixel completi, ed è inferiore alla prima). Poi, vale il discorso fatto da S1L3Nt, in quanto la dimensione dell'oggetto fotografato è limitata dal valore più basso tra quelli delle due dimensioni del sensore
Commento # 7 di: leddlazarus pubblicato il 12 Novembre 2008, 14:36
Originariamente inviato da: yossarian
non è corretto prendere la risoluzione e dividere epr 4; ogni punto o subpixel, tranne quelli ai bordi del sensore, sono utilizzati per interpolare i valori con i subpixel vicini; quindi una risoluzione dichiarata di 15 Mpixel è effettivamente di 15 Mpixel (per ogni sensore si dichiarano 2 numeri: la risoluzione teorica, che considera anche i subpixel sui bordi alla stregua di pixel completi e la risoluzione reale, che non considera i subpixel ai bordi come pixel completi, ed è inferiore alla prima). Poi, vale il discorso fatto da S1L3Nt, in quanto la dimensione dell'oggetto fotografato è limitata dal valore più basso tra quelli delle due dimensioni del sensore



infatti i sensori sono effettivamente da X mpix pero' il singolo pixel del sensore non è realmente un pixel immagine e
hai detto bene "interpolare" quindi i punti dell'immagine sono calcolati quindi non "reali".

prova ad ingrandire un sensore e capisci quello che ti dico, ma che puoi trovare dovunque sulla rete.

se un pixel di una immagine ha profondità colore minima di 24 bit (8+8+8) e un pixel del sensore puo' essere solo rosso , verde o blu con profondità di 8 bit, dimmi come fa un immagine catturata da un sensore da X mpix ad essere realmente da X mpix.
dietro c'è il lavoro del processore della macchina (oppure il PC in caso di RAW) che elabora le informazioni ed ottiene l'immagine finale.
che poi sia una ottima approssimazione va bene, ma i mpix ottenuti non sono proprio "reali".
Commento # 8 di: leddlazarus pubblicato il 12 Novembre 2008, 14:43
Originariamente inviato da: S1L3Nt
L'hanno snobbato perchè ha costi elevati di produzione e di sviluppo. Inoltre Sony, Canon, Panasonic etc. producevano CCD e CMOS già da un bel po' di tempo. Ti pare che interrompevano tutto per passare al Foveon? W il marketing dei megapixel!


se effettivamente la qualità era quella che ci si aspettava, non penso che almeno per le top di gamma, non si poteva adottare tale sensore.

sai cosa se ne fregava il professionista di spendere un tot in + se realmente ne valeva la pena. soprattutto quando si arriva a cifre oltre i 3000-4000€

è che non ne valeva la pena perchè si è dimostrato sulla strada meno performante di quello "classico".
Commento # 9 di: yossarian pubblicato il 12 Novembre 2008, 15:25
Originariamente inviato da: leddlazarus
infatti i sensori sono effettivamente da X mpix pero' il singolo pixel del sensore non è realmente un pixel immagine e
hai detto bene "interpolare" quindi i punti dell'immagine sono calcolati quindi non "reali".

prova ad ingrandire un sensore e capisci quello che ti dico, ma che puoi trovare dovunque sulla rete.

se un pixel di una immagine ha profondità colore minima di 24 bit (8+8+8) e un pixel del sensore puo' essere solo rosso , verde o blu con profondità di 8 bit, dimmi come fa un immagine catturata da un sensore da X mpix ad essere realmente da X mpix.
dietro c'è il lavoro del processore della macchina (oppure il PC in caso di RAW) che elabora le informazioni ed ottiene l'immagine finale.
che poi sia una ottima approssimazione va bene, ma i mpix ottenuti non sono proprio "reali".


nel primo pixel jho i subpixel (R1, G1, B1, G1'), nel secondo pixel ho i subpixel (R2, G2, b2, G2') ecc; il primo pixel è formato esattamente dall'interplùolazione dei valori nella prima parentesi; il secondo pixel sulla stessa riga dall'interpolazione dei valori di luminanza e crominanza dei subpixel (G1, B1, R2, G2'); quindi, con 6 subpixel ho ottenuto 2 pixel; e questo eprchè siamo sul bordo, per cui i subpixel R1 e G1' non vengono riutizzati. L'interpolazione è normale che avvenga in ogni caso; questo avviene anche con i sensori foveon, perchè si devono ricavare tutti i colori a partire dai 3 utilizzati di base e dalle rispettive variazioni di intensità luminosa.
Che i sensori non abbiano effettivamente x Mpixel è risaputo, ma a partire dagli x milioni di punti si riescono a ricavare quasi x milioni di pixel reali
Commento # 10 di: steel123456 pubblicato il 12 Novembre 2008, 18:58
infatti

infatti è vero!!!
« Pagina Precedente     Pagina Successiva »