Il sensore fotografico del futuro sarà un chip di memoria?

Il sensore fotografico del futuro sarà un chip di memoria?

di Andrea Bai, pubblicata il

“Un gruppo di ricercatori sta studiando la possibilità di utilizzare chip di memoria privi di package al posto dei sensori fotografici”

Un chip di memoria al posto di un sensore fotografico. Nessun delirio frutto di una notte brava a base di alcolici: si tratta di un progetto di ricerca portato avanti da un team della Technical University of Delft, nei Paesi Bassi, coordinato da Edoardo Charbon, che sta indagando la possibilità di realizzare sensori di immagine in maniera più economica e più semplice rispetto alle attuali tecnologie CCD o CMOS.

L'idea portata avanti da Charbon si basa su un principio che in realtà è già conosciuto. Da tempo è infatti noto che i chip di memoria sono estremamente sensibili alla radiazione luminosa: la rimozione della parte nera del loro package e l'eventuale esposizione alla luce fa si che i fotoni della radiazione diano luogo ad una corrente in ogni cella di memoria, modificando la carica conservata in esse. "La luce, semplicemente, distrugge l'informazione" ha dichiarato Martin Vetterli, membro del team.

In una pubblicazione presentata in occasione di una conferenza a Kyoto, gli sviluppatori hanno dichiarato che il nuovo sensore chiamato "gigavision" potrà rendere possibile la realizzazione di telefoni cellulari o dispositivi simili in grado di scattare fotografie qualitativamente superiori rispetto a quanto possibile con la tecnologia disponibile ai giorni nostri. Charbon ha inoltre dichiarato che il dispositivo è in grado di operare meglio sia alle alte sia alle basse luci, dove normalmente le fotocamere digitali hanno problemi di resa, in special modo nelle incarnazioni economiche.

Sulla base di ciò il gruppo dei ricercatori ha avuto modo di notare che osservando con attenzione una cella di memoria di un chip esposto alla radiazione luminosa è possibile stabilire, dall'informazione presente nelle celle, se ciascuna di esse si trova in un'area illuminata oppure no: in questo modo, di fatto, si ottiene la conservazione di un'immagine digitale.

E' tuttavia un po' azzardato parlare di "immagine" dal momento che ciascuna cella può conservare solamente un valore binario (uno zero od un uno) corrispondente pertanto alla presenza o all'assenza di luce. Affinché sia possibile ottenere i valori di luminosità di una scala di grigi, il team di ricerca sta portando avanti lo sviluppo di un algoritmo software in grado di analizzare un array di 100 pixel e determinare, su base statistica, il valore di "grigio" dell'array. L'aspetto positivo, comunque, sta nel fatto che l'immagine viene creata direttamente in maniera digitale: gli attuali sensori CCD o CMOS, infatti, registrano il valore di luminosità di ciascun pixel con un segnale analogico, che necessita di essere convertito con tutte le ricadute negative introdotte da una conversione da analogico a digitale.

Il team ha comunque sottolineato che maggiore è il numero di "pixel binari" a disposizione, migliore è la resa del "sensore gigavision" nelle alte e nelle basse luci. Questa caratteristica permette l'eventuale impiego di questo particolare tipo di sensore (ammesso che riesca a trovare la strada della produzione commerciale) in ambiti quale la produzione di immagini HDR, particolarmente importante per l'imaging medicale.

Uno dei problemi principali che il team dovrà affrontare è pero rappresentato dalla bassa sensibilità dei pixel, le cui dimensioni sono piuttosto contenute: il numero di fotoni che può essere raccolto da ciascuno di loro è pertanto piuttosto esiguo e, per questo motivo, dar luogo ad un segnale particolarmente rumoroso.

Il gruppo di ricerca ha comunque affermato che il progetto non è semplicemente un esercizio di stile accademico e che pianificano di poter realizzare una versione del chip gigavision entro la fine dell'anno e di renderlo operativo nella prima parte del 2010.


Commenti (14)

Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - Info
Per contattare l'autore del pezzo, così da avere una risposta rapida, si prega di utilizzare l'email personale (vedere in alto sotto il titolo). Non è detto che una domanda diretta inserita nei commenti venga verificata in tempi rapidi. In alternativa contattare la redazione a questo indirizzo email.
Commento # 1 di: SwatMaster pubblicato il 26 Ottobre 2009, 14:49
Che cavolo, abbiamo parlato stamattina in uni di CCD, quantizzazione, campionamento e rumore... E già questi mi tirano fuori una nuova tecnologia?
Commento # 2 di: demon77 pubblicato il 26 Ottobre 2009, 14:56
Non male davvero!
Non ho ben chiaro come una cella di memoria possa immagazzinare però un dato connesso con la quantità effettiva di luce che lo colpisce dando quindi le sfumature.. mah!

Attendo con curiosità i primi prototipi!

(comunque mi sono appena svenato per comprarmi la nikon D5000 e col CA**O che la cambio, manco se inventano il sensore definitivo!!)
Commento # 3 di: Matalf pubblicato il 26 Ottobre 2009, 15:00
finalmente potremo rispondere a tutti quei noob che si avvicino alla nostra reflex e ci chiedono:


"Ma quanti gigaBYTE è?"

Commento # 4 di: Genesio pubblicato il 26 Ottobre 2009, 15:26
"l team di ricerca sta portando avanti lo sviluppo di un algoritmo software in grado di analizzare un array di 100 pixel e determinare, su base statistica, il valore di "grigio" dell'array"

ma non è più semplice e corretto mettere una matrice di 16x16 pixel, ognuno con un filtro grigio diverso e determinare così quale si accende e quale rimane buio?
usate pure la mia idea geniale, non ho intenzione di brevettarla

cmq, bello, bello.

Ma a cosa serve avere una macchina da 200Megapixel se comunque la lente non è in grado (di solito) di risolverne 15???

piuttosto interessante per gli ISO alti
Commento # 5 di: GiulianoPhoto pubblicato il 26 Ottobre 2009, 15:41
l'importante che l'algoritmo venga sviluppato di pari passo con questa nuova tencnologia...
Commento # 6 di: SingWolf pubblicato il 26 Ottobre 2009, 18:10
Originariamente inviato da: Matalf
finalmente potremo rispondere a tutti quei noob che si avvicino alla nostra reflex e ci chiedono:


"Ma quanti gigaBYTE è?"



LOL.


Ale!
Commento # 7 di: Mietzsche pubblicato il 26 Ottobre 2009, 20:02
Originariamente inviato da: Genesio
ma non è più semplice e corretto mettere una matrice di 16x16 pixel, ognuno con un filtro grigio diverso e determinare così quale si accende e quale rimane buio?
usate pure la mia idea geniale, non ho intenzione di brevettarla


Mi sa che è proprio quello che vogliono fare!
Un array di 100 pixel significa sicuramente un 10x10. Si dovrebbe mettere su ognuno una lente diversa (da più chiaro a più scuro) per determinare il punto di "soglia".
Così facendo si riuscirebbe ad ottenere un range dinamico arbitrario (teoricamente illimitato verso le alte luci) a seconda di quanto le lenti più scure lascino o meno passare la luce.
Il problema sarà sicuramente il costo per la realizzazione di queste lenti con attenuazione una diversa dall'altra e la sensibilità minima (pixel con lente più trasparente) dato che se un macropixel sarà 100x100 celle, il singolo dovrà essere piccolissimo!
Forse per applicazioni HDR con lunghe esposizioni può avere un futuro ...

Originariamente inviato da: Genesio
Ma a cosa serve avere una macchina da 200Megapixel se comunque la lente non è in grado (di solito) di risolverne 15???
piuttosto interessante per gli ISO alti

In realtà se ci saranno 200Megapixel otterrai un'immagine a 200/100=2Megapixel!
Altro che iso alti, la vedo molto più da 25 iso o cose del genere!
Commento # 8 di: II ARROWS pubblicato il 26 Ottobre 2009, 20:27
Ragazzi, che invenzione straordinaria!

Le fotografie in bianco e nero!
Commento # 9 di: marchigiano pubblicato il 26 Ottobre 2009, 23:24
Originariamente inviato da: demon77
Non male davvero!
Non ho ben chiaro come una cella di memoria possa immagazzinare però un dato connesso con la quantità effettiva di luce che lo colpisce dando quindi le sfumature.. mah!

Attendo con curiosità i primi prototipi!

(comunque mi sono appena svenato per comprarmi la nikon D5000 e col CA**O che la cambio, manco se inventano il sensore definitivo!!)


in questo caso la cella di memoria non immagazzina niente ma viene usata per leggere la luce, poi ci sarà un bus che trasporta i dati a una memoria normale che immagazzina

speriamo in un bel sviluppo anche nella fascia alta per questo sensore...

Originariamente inviato da: Genesio
Ma a cosa serve avere una macchina da 200Megapixel se comunque la lente non è in grado (di solito) di risolverne 15???

piuttosto interessante per gli ISO alti


forse perchè le lenti risolvono più di 15mp?

Originariamente inviato da: II ARROWS
Ragazzi, che invenzione straordinaria!

Le fotografie in bianco e nero!


uuuuuu che genio... perchè secondo te attualmente i sensori delle fotocamere vedono i colori?
Commento # 10 di: Oldbiker pubblicato il 27 Ottobre 2009, 06:08
Difficile, per me, fare considerazioni tecniche, data l'estrema povertà del testo, in parte ambiguo.
E'possibile avere un link ove poter leggere per bene ciò che han detto?

Mi sembra, comunque, di capire che siamo davanti a celle on/off, in cui l'off rappresenta l'incontro della luce con la cella e l'on la non-luce. In pratica, un puro bianco/nero.
Quando l'otturatore si chiude, cosa succede? Tutte le celle tornano nello stato 'on', o conservano l'informazione? Mah, non l'ho capito, quindi non ho neanche capito come possa venir letta l'informazione.
Il problema della stesa dei filtri non esiste perché già gli attuali sensori hanno la matrice di filtri a colori RGGB: il problema è la densità del filtro, per poter ottenere le gradazioni. Credo nasca da qui l'idea dell'analisi statistica su una matrice di 'almeno' 100 celle.

Mah...mi sembra tutto molto fumoso, soprattutto vista la fonte: non raramente i nostri cugini d'oltralpe sono un po' ciaciaroni:-)
« Pagina Precedente     Pagina Successiva »
BenQ Monitor