La doppia fotocamera? La situazione si è sbloccata ma non in tempo per iPhone 6S

La doppia fotocamera? La situazione si è sbloccata ma non in tempo per iPhone 6S

di Roberto Colombo, pubblicata il

“Con la produzione definitiva dei nuovi iPhone 6s già avviata, sembra impossibile che la doppia fotocamera possa già arrivare sul mercato nel 2015, molto probabilmente si dovrà attendere la nuova versione del telefono della Mela per vederla all'oper”

Al momento dell'acquisizione di LinX si era molto discusso in merito alla possibilità che il prossimo iPhone 6S potesse integrare una fotocamera composita, ossia basata su un reticolo di più lenti, da due in su. Apple era al lavoro da anni su una tecnologia di quel tipo, ma con l'acquisizione della compagnia israeliana dovrebbe essere riuscita a risolvere, stando ai bene informati, i problemi di poca nitidezza delle immagini prodotte, proprio sfruttando la proprietà intellettuale delle tecnologie LinX.

Un altro problema che finora ha frenato lo sbarco della fotocamera composita sugli iPhone è stata la mancanza di fornitori in grado di raggiungere standard qualitativi sufficienti, ma anche questo problema, secondo le fonti taiwanesi, pare essere stato superato e quindi la strada verso il mercato spianata.

A questo punto però, con la produzione definitiva dei nuovi iPhone 6s già avviata, sembra quasi impossibile che la doppia fotocamera possa già arrivare sul mercato nel 2015, molto probabilmente si dovrà attendere la successiva versione del telefono della Mela per vederla all'opera.


Commenti (37)

Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - Info
Per contattare l'autore del pezzo, così da avere una risposta rapida, si prega di utilizzare l'email personale (vedere in alto sotto il titolo). Non è detto che una domanda diretta inserita nei commenti venga verificata in tempi rapidi. In alternativa contattare la redazione a questo indirizzo email.
Commento # 1 di: demon77 pubblicato il 30 Giugno 2015, 15:09
Io non ho ben chiaro come funziona ed in che modo possa migliorare la nitidezza..
Quattro fotocamere VICINE non sono sovrapposte.. e quindi restituiscono immagini diverse tra loro..
Commento # 2 di: maxsy pubblicato il 30 Giugno 2015, 15:21
Originariamente inviato da: demon77
Io non ho ben chiaro come funziona ed in che modo possa migliorare la nitidezza..
Quattro fotocamere VICINE non sono sovrapposte.. e quindi restituiscono immagini diverse tra loro..


ha poca importanza...per gli utenti apple 2 sara' meglio di 1. punto!... e questo (la apple lo sà bene) gia basta per cambiare device a soli 12 mesi dal precedente.
sara' l'iphone con lE migliorI fotocamerE di sempre.
Commento # 3 di: Simonex84 pubblicato il 30 Giugno 2015, 15:40
Originariamente inviato da: maxsy
ha poca importanza...per gli utenti apple 2 sara' meglio di 1. punto!... e questo (la apple lo sà bene) gia basta per cambiare device a soli 12 mesi dal precedente.
sara' l'iphone con lE migliorI fotocamerE di sempre.


Ma aspetta almeno la seconda pagina per scrivere il solito inutile flame sull'idiozia degli utenti Apple, al secondo post è troppo presto
Commento # 4 di: LMCH pubblicato il 30 Giugno 2015, 15:44
Originariamente inviato da: demon77
Io non ho ben chiaro come funziona ed in che modo possa migliorare la nitidezza..
Quattro fotocamere VICINE non sono sovrapposte.. e quindi restituiscono immagini diverse tra loro..


Immagini diverse della stessa scena.

Applicando algoritmi di feature matching tra le 2 (o più immagini scattate nello stesso istante si possono ricavare informazioni sulla profondità degli oggetti inquadrati, identificare automaticamente i riflessi (e ridurli), aumentare in generale la resa cromatica
ed applicare pure algoritmi di superrisoluzione in modo da estrarre maggiori dettagli dalla fusione dei dati delle due immagini (nota bene: fusione DEI DATI nel senso di informazioni contenute nelle immagini, non dei semplici pixel come succede con le foto panoramiche in cui si fa solo uno stitching).
Commento # 5 di: Phoenix Fire pubblicato il 30 Giugno 2015, 15:49
Originariamente inviato da: Simonex84
Ma aspetta almeno la seconda pagina per scrivere il solito inutile flame sull'idiozia degli utenti Apple, al secondo post è troppo presto


quotone, finchè si scherza ok, ma questo è flame puro


@LMCH
Pensavo a cose del genere infatti, cmq domanda dato che mi sembri ferrato, visto la vicinanza dei due obiettivi, secondo te quanto può migliorare l'immagine?
Commento # 6 di: recoil pubblicato il 30 Giugno 2015, 15:55
Originariamente inviato da: demon77
Io non ho ben chiaro come funziona ed in che modo possa migliorare la nitidezza..
Quattro fotocamere VICINE non sono sovrapposte.. e quindi restituiscono immagini diverse tra loro..


non so, non è che vogliono usare la doppia fotocamera in modo simile a come fa HTC con M8?
Commento # 7 di: the_joe pubblicato il 30 Giugno 2015, 15:57
Ma invece della doppia fotocamera, un sensore con superficie doppia non era meglio?
Commento # 8 di: <Predator> pubblicato il 30 Giugno 2015, 16:00
L'acquisizione da parte di Apple nel 2012 dell'azienda AuthenTec ha portato i suoi frutti, oggi abbiamo a disposizione sensori di impronte che funzionano piuttosto bene.
Con l'acquisizione della israeliana LinX Imaging, vedremo in futuro cosa ci proporanno di bello lato fotocamera.
D'altronde dovrà pur esserci un motivo che invoglia a cambiare il proprio terminale magari vecchio di 4 anni.
Commento # 9 di: demon77 pubblicato il 30 Giugno 2015, 16:04
Originariamente inviato da: the_joe
Ma invece della doppia fotocamera, un sensore con superficie doppia non era meglio?


In generale assolutamente si.
Il problema è che aumentando il sensore per questioni di ottica aumenta notevolmente lo spessore complessivo del pacchetto.. cosa non buona.
Già ad iphone 6 "spunta fuori" l'obiettivo..
Commento # 10 di: demon77 pubblicato il 30 Giugno 2015, 16:06
Originariamente inviato da: LMCH
Immagini diverse della stessa scena.

Applicando algoritmi di feature matching tra le 2 (o più immagini scattate nello stesso istante si possono ricavare informazioni sulla profondità degli oggetti inquadrati, identificare automaticamente i riflessi (e ridurli), aumentare in generale la resa cromatica
ed applicare pure algoritmi di superrisoluzione in modo da estrarre maggiori dettagli dalla fusione dei dati delle due immagini (nota bene: fusione DEI DATI nel senso di informazioni contenute nelle immagini, non dei semplici pixel come succede con le foto panoramiche in cui si fa solo uno stitching).


Capito il discorso in generale.. ma nello specifico confuso quanto prima..

Va beh.. si trova in rete qualche sample di come funziona o semplicemente dei risultati rispetto ad una foto "normale"?
« Pagina Precedente     Pagina Successiva »