Rambus Binary Pixel: la gamma dinamica dell'occhio umano anche sui cellulari

Rambus Binary Pixel: la gamma dinamica dell'occhio umano anche sui cellulari

di Roberto Colombo, pubblicata il

“Rambus promette con la sua tecnologia Binay Pixel di portare anche sui sensori dei cellulari la stessa gamma dinamica dell'occhio umano, in foto e video, senza necessità di post produzione”

Le prestazioni della fotocamera sono ormai da tempo uno dei metri di giudizio per catalogare un cellulare: se negli anni passati si è assistito a una vera e propria corsa ai megapixel stipati nei piccoli sensori integrati negli smartphone ora l'attenzione si è spostata, fortunatamente, altrove. Come già successo sulle fotocamere, concetti come la gamma dinamica e il contenimento del rumore agli alti ISO sono diventati importanti anche per i phoneographers. Nokia con PureView, HTC con UltraPixel, Sony con la capacità di registrare video HDR: tutti i grandi produttori stanno cercando la loro strada per dare nuovo appeal fotografico ai propri smartphone.

Rambus è un'azienda californiana che abbiamo incontrato al Mobile World Congress di Barcellona e che sta lavorando nella stessa direzione. Rambus è un'azienda a tutto tondo ed è molto nota nel mondo della tecnologia, ad esempio è nota per vedere le sue memorie utilizzate in prodotti come Sony Playstation. È una compagnia che punta molto sulla ricerca e sviluppo e sulla registrazione di brevetti dai quali ricavare poi importanti profitti grazie alle royalties.

Rambus sta sviluppando la tecnologia Binary Pixel, che mira ad estendere in modo netto la gamma dinamica che un sensore è in grado di riprendere in real-time, senza post produzione. Al momento la compagnia ha costruito un proof-of-concept test-chip con cui sta mostrando la sua tecnologia ai diversi produttori, puntando molto sul vantaggio di poter integrare in modo semplice il proprio prodotto all'interno dei SoC attuali e dei processi produttivi utilizzati dall'industria. Sulla nostra pagina Facebook abbiamo pubblicato il video che mostra le potenzialità della nuova tecnologia, a confronto diretto con le prestazioni attuali: sempre con il beneficio del dubbio, ma vale la pena di essere visto, lo trovate a questo indirizzo.

Binary Pixel è una tecnologia che ottimizza a livello del singolo pixel la cattura della luce: con un approccio 'attivo' a livello del fotodiodo la tecnologia è in grado di lavorare sulla sensibilità in modo intelligente evitando, ad esempio, la saturazione del singolo sito, che porta alla pelatura delle alte luci. In questo modo il sensore è in grado di riprendere foto e filmati HDR in tempo reale e con una singola esposizione. Sono tre i punti chiave su cui lavora la tecnologia: Binary Operation, Variable Temporal Oversampling, Spatial Oversampling.

Nel primo caso la risposta di ogni fotodiodo viene modulata in base al raggiungimento di determinate soglie in modo da massimizzare la sensibilità quando i fotoni incidenti sono pochi ed evitare invece illa saturazione precoce quando il pixel è fortemente illuminato. A questa tecnologia si aggiunge un oversampling temporale, con più letture durante la singola esposizione: anche in questo caso si evita più facilmente la saturazione dei fotodiodi e si riesce a mantenere alta la sensibilità e l'amplificazione nelle zone scure dell'immagine. La tecnica dello Spatial Oversampling è simile come approccio a quanto visto con Nokia PureView e HTC Ultrapixel: in questo caso ogni pixel è suddiviso in sub-pixel, sempre con l'intento di avere un controllo più fine delle'esposizione nel singolo sito.

Come dicevamo Rambus sta mostrando la sua tecnologia ai produttori, concentrandosi per ora su sensori di dimensioni ridotte, per cellulari e compatte: la tecnologia è però scalabile e applicabile ai processi CMOS per la produzione di sensori anche di maggiori dimensioni. Rambus non esclude quindi la possibilità di vedere un giorno anche prodotti come le reflex utilizzare la tecnologia Binary Pixel per offrire una gamma dinamica comparabile con quella dell'occhio umano.


Commenti (6)

Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - Info
Per contattare l'autore del pezzo, così da avere una risposta rapida, si prega di utilizzare l'email personale (vedere in alto sotto il titolo). Non è detto che una domanda diretta inserita nei commenti venga verificata in tempi rapidi. In alternativa contattare la redazione a questo indirizzo email.
Commento # 1 di: emanuele83 pubblicato il 07 Marzo 2013, 10:53
Originariamente inviato da: Redazione di Hardware Upgrade
Link alla notizia: http://www.fotografidigitali.it/new...lari_46134.html

Rambus promette con la sua tecnologia Binay Pixel di portare anche sui sensori dei cellulari la stessa gamma dinamica dell'occhio umano, in foto e video, senza necessità di post produzione

Click sul link per visualizzare la notizia.


Complimenti per averci fornito più informazioni rispetto a quelle trovabili in rete sul sito Rambus, ogni vostro articolo dovrebbe essere così!

Beh insomma come si diceva già da anni ormai il prossimo step sarà l'aumento della gamma dinamica e della sensibilità riducendo il rumore, grazie ancora alla miniaturizzazione e alla corsa ai megapixel. Purtroppo il mercato e l'oligopolio di casa nikon (sony) e canon è tiranno e innovazioni del genere le vedremo sui corpi macchina reflex tra 5 anni e forse tra 10 a prezzi abbordabili.
Commento # 2 di: JackZR pubblicato il 07 Marzo 2013, 14:39
Per ottenere foto migliori basterebbe montare sensori più grandi e ridurre (sì ho proprio detto ridurre) il numero di megapixel.
Commento # 3 di: emanuele83 pubblicato il 07 Marzo 2013, 14:42
Originariamente inviato da: JackZR
Per ottenere foto migliori basterebbe montare sensori più grandi e ridurre (sì ho proprio detto ridurre) il numero di megapixel.


Manda una mail a canon e sony che non ci hanno proprio pensato. Poco importa che poi occorra avere lenti pesanti ed ingombranti...
Commento # 4 di: Baboo85 pubblicato il 07 Marzo 2013, 22:13
Be', mica dicono che un occhio umano sano in media e' come un sensore a 52 Mpx (altri dicono che l'occhio in se' potrebbe essere da 576 Mpx ma poi il cervello elabora le informazioni e si riducono), direi che la strada e' ancora lunga, per il mercato consumer...
Commento # 5 di: LMCH pubblicato il 08 Marzo 2013, 05:30
Originariamente inviato da: Baboo85
Be', mica dicono che un occhio umano sano in media e' come un sensore a 52 Mpx (altri dicono che l'occhio in se' potrebbe essere da 576 Mpx ma poi il cervello elabora le informazioni e si riducono), direi che la strada e' ancora lunga, per il mercato consumer...


In realtà c'è un "trucco": la retina ha una maggior densità di recettori vicino alla parte centrale (eccetto il punto cieco) con una densità poi che decresce gradualmente.

Infatti abbiamo solo circa 6 milioni di coni (recettori dei colori primari) e 125 milioni di bastoncelli (recettori di luminosità ... ci mancano più di 400 milioni di recettori per arrivare a 576mpx !

Ma quando fissiamo qualcosa lo vediamo con la parte centrale "ad altissima risoluzione" e lo ricordiamo mentre l'occhio passa a fissare qualcosa d'altro "attirato" sui nuovi punti di messa a fuoco dal motion detect intrinseco delle parti periferiche della retina a più bassa risoluzione (ma che proprio per questo è come se avessero un filtro per il motion detect "in hardware".

Quindi quando guardiamo una scena i nostri occhi in automatico "fanno spazzate ad altissima risoluzione" sulle parti interessanti e/o che si stanno muovendo e noi vediamo un immagine virtuale "costruita" nel nostro cervello come se fosse tutta ad altissima risoluzione.
Commento # 6 di: emanuele83 pubblicato il 08 Marzo 2013, 09:22
Originariamente inviato da: LMCH
In realtà c'è un "trucco": la retina ha una maggior densità di recettori vicino alla parte centrale (eccetto il punto cieco) con una densità poi che decresce gradualmente.

Infatti abbiamo solo circa 6 milioni di coni (recettori dei colori primari) e 125 milioni di bastoncelli (recettori di luminosità ... ci mancano più di 400 milioni di recettori per arrivare a 576mpx !

Ma quando fissiamo qualcosa lo vediamo con la parte centrale "ad altissima risoluzione" e lo ricordiamo mentre l'occhio passa a fissare qualcosa d'altro "attirato" sui nuovi punti di messa a fuoco dal motion detect intrinseco delle parti periferiche della retina a più bassa risoluzione (ma che proprio per questo è come se avessero un filtro per il motion detect "in hardware".

Quindi quando guardiamo una scena i nostri occhi in automatico "fanno spazzate ad altissima risoluzione" sulle parti interessanti e/o che si stanno muovendo e noi vediamo un immagine virtuale "costruita" nel nostro cervello come se fosse tutta ad altissima risoluzione.


Rimane il fatto che il metodo acquisizione, campionamento ed elaborazione è diverso. prima di tutto la retina sovracampiona rispetto alla risoluzione della lente, secondo la componente di luminanza è molto più alta (bastoncelli) ma la crominanza, concentrata nella fovea è comunque diversificata in base a differenti coni che percepiscono ognuno un colore diverso. un po come il bayer pattern, se non fosse ocn un algoritmo di demosaicing migliore per questo imho l'aumento di MPx insieme a nuove tecniche di campionamento, modulazione e demosaicing, sono la chiave per avere migliore gamma dinamica, e risoluzione spaziale. una cosa in cui i sensori sono migliori rispetto all'occhio sono solo gli alti iso