Il 4K? Completamente inutile. Parola di tre importanti registi
di Roberto Colombo, pubblicata il 24 Ottobre 2014, alle 14:11
L'Ultra HD si è diffuso per la spinta dell'industria video, non per reali esigenze dei registi, per i quali a volte la risoluzione è già quasi fin troppa con le apparecchiature standard. Ecco l'opinione di tre importanti cineasti: Geoff Boyle, Rodney Charters, Bill Benett
Commenti (147)
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - Info
Per contattare l'autore del pezzo, così da avere una risposta rapida, si prega di utilizzare l'email personale (vedere in alto sotto il titolo). Non è detto che una domanda diretta inserita nei commenti venga verificata in tempi rapidi. In alternativa contattare la redazione a questo indirizzo email.
Per contattare l'autore del pezzo, così da avere una risposta rapida, si prega di utilizzare l'email personale (vedere in alto sotto il titolo). Non è detto che una domanda diretta inserita nei commenti venga verificata in tempi rapidi. In alternativa contattare la redazione a questo indirizzo email.
Commento # 91
di: Raghnar-The coWolf-
pubblicato il 26 Ottobre 2014, 19:31
Originariamente inviato da: ficofico
Comuque volevo segnalare questo test
http://www.hdtvtest.co.uk/news/4k-r...01312153517.htm
Su 49 persone messe davanti ad un tv 4k 55 pollici con demo 4k e un tv 1080p 55 pollici con demo 1080p ad una distanza di 2,74 metri , solo una si è confusa su quale fosse il tv 4k, 48 hanno visto il maggior dettaglio del tv 4k, questo dimostra che non bisogna stare ad un metro di distanza per vedere le differenze tra 4k e 1080p e che non serve per forza un 79 pollici per vedere le stesse differenze...
http://www.hdtvtest.co.uk/news/4k-r...01312153517.htm
Su 49 persone messe davanti ad un tv 4k 55 pollici con demo 4k e un tv 1080p 55 pollici con demo 1080p ad una distanza di 2,74 metri , solo una si è confusa su quale fosse il tv 4k, 48 hanno visto il maggior dettaglio del tv 4k, questo dimostra che non bisogna stare ad un metro di distanza per vedere le differenze tra 4k e 1080p e che non serve per forza un 79 pollici per vedere le stesse differenze...
"Last but not least, resolution is only one of the many attributes of picture quality, [U]and not the most important one[/U]. Amongst the swarm of 4K televisions on exhibit, it was actually a full HD 1080p set – the LG 55EA980W OLED TV – that hogged the attention of those attending the event, largely due to its ability to render true 0 cd/m2 blacks, contributing to an unrivalled contrast performance (which most video enthusiasts agree is the principal determinant of image quality)"
1080p è compresso, ed è ovvio che quadruplicando il bitrate di un formato compresso migliori la qualità visibilmente indipendentemente dalla risoluzione. Una compressione migliore anzichè 4K potrebbe (potrebbe) portare più qualità d'immagine.
E anche la maggiore risoluzione alla fine ha il pregio di dare più contrasto, più che la risoluzione in se, ma nessuno sa se un pannello FullHD costruito con la stessa disponibilità tecnologica dei 4K, basandosi su un supporto con lo stesso bitrate dei 4K ma in FullHD meno compresso, non superi questi ultimi in termini di colori e contrasto e quindi qualità d'immagine.
Sicuramente così sarebbe per un eventuale 8K: un 4K 2.0 meno compresso su un pannello di qualità migliore sarebbe decisamente meglio di un 8K.
Commento # 92
di: ficofico
pubblicato il 26 Ottobre 2014, 20:12
Può essere stata la compressione ma dubito, ho seguito per anni doom9 e usato avisynth e smanettato con x264 all'inverosibile, quando un bluray ad esempio è encodato bene, è molto ma molto difficile riuscire a scorgere differenze tra il formato senza compressione e quello compresso, non è certo lampante e in ogni caso le differenze si vedono per lo più su immagini in movimento veloce, non certo su primi piani o immagini per lo più statiche (che sono poi quelle dove la differenza di risoluzione è più lampante in ogni caso)
Usando il buon vecchio x264 e usandolo con impostazioni di qualità inferiori a 16, la qualità di compressione è così elevata che è impossibile accorgersi delle differenze, è semplicemente overkill e solo uno spreco di spazio... questo non lo dico io, lo scrive lui da sempre
https://www.google.it/#q=dark+shikari
Se hanno usato un bluray fatto appena appena bene, non può essere la compressione a inficiare il risultato..
https://trac.ffmpeg.org/wiki/Encode/H.264
Un occhio veramente ma veramente allenato può arrivare fino a crf 16, poi diventa impossibile scorgere differenze..
Questo per dire che filmati compressi che si vedono come l'originale esistono, non è vera l'equazione che se è compresso allora si vedrà peggio, è vero che peserà meno, ma se compresso bene si vedrà in maniera identica... scorgere poi differenze da 2,75 metri usando un buon bluray è davvero impossibile...
Usando il buon vecchio x264 e usandolo con impostazioni di qualità inferiori a 16, la qualità di compressione è così elevata che è impossibile accorgersi delle differenze, è semplicemente overkill e solo uno spreco di spazio... questo non lo dico io, lo scrive lui da sempre
https://www.google.it/#q=dark+shikari
Se hanno usato un bluray fatto appena appena bene, non può essere la compressione a inficiare il risultato..
https://trac.ffmpeg.org/wiki/Encode/H.264
Choose a CRF value
The range of the quantizer scale is 0-51: where 0 is lossless, 23 is default, and 51 is worst possible. A lower value is a higher quality and a subjectively sane range is 18-28. Consider 18 to be visually lossless or nearly so: it should look the same or nearly the same as the input but it isn't technically lossless.
The range of the quantizer scale is 0-51: where 0 is lossless, 23 is default, and 51 is worst possible. A lower value is a higher quality and a subjectively sane range is 18-28. Consider 18 to be visually lossless or nearly so: it should look the same or nearly the same as the input but it isn't technically lossless.
Un occhio veramente ma veramente allenato può arrivare fino a crf 16, poi diventa impossibile scorgere differenze..
Questo per dire che filmati compressi che si vedono come l'originale esistono, non è vera l'equazione che se è compresso allora si vedrà peggio, è vero che peserà meno, ma se compresso bene si vedrà in maniera identica... scorgere poi differenze da 2,75 metri usando un buon bluray è davvero impossibile...
Commento # 93
di: marchigiano
pubblicato il 26 Ottobre 2014, 22:06
che bitrate medio è 16?
Commento # 94
di: DJ_4L13n
pubblicato il 26 Ottobre 2014, 22:19
Originariamente inviato da: Insert coin
Sacrosanto, ma se il film e' un capolavoro ed in piu' si vede da favola e' ancora meglio, non credi?
Prendi Nosferatu del 1922....anche se lo guardi in 4K non cambia niente...
Commento # 95
di: DJ_4L13n
pubblicato il 27 Ottobre 2014, 01:50
Commento # 96
di: ficofico
pubblicato il 27 Ottobre 2014, 08:19
che bitrate medio è 16?
Dipende dalle sorgente ovviamente, dalla risoluzione, da quante scene movimentate ci sono....E' quel bitrate medio che x264 (in questo caso) deve utilizzare per convertire il formato originale in uno compresso senza che il secondo appai visivamente più compresso rispetto al primo, anche se lo è...., varia quindi di volta in volta...
Commento # 97
di: Raghnar-The coWolf-
pubblicato il 27 Ottobre 2014, 08:19
Originariamente inviato da: ficofico
Può essere stata la compressione ma dubito, ho seguito per anni doom9 e usato avisynth e smanettato con x264 all'inverosibile, quando un bluray ad esempio è encodato bene, è molto ma molto difficile riuscire a scorgere differenze tra il formato senza compressione e quello compresso, non è certo lampante e in ogni caso le differenze si vedono per lo più su immagini in movimento veloce, non certo su primi piani o immagini per lo più statiche (che sono poi quelle dove la differenza di risoluzione è più lampante in ogni caso)
Usando il buon vecchio x264 e usandolo con impostazioni di qualità inferiori a 16, la qualità di compressione è così elevata che è impossibile accorgersi delle differenze, è semplicemente overkill e solo uno spreco di spazio... questo non lo dico io, lo scrive lui da sempre
https://www.google.it/#q=dark+shikari
Se hanno usato un bluray fatto appena appena bene, non può essere la compressione a inficiare il risultato..
https://trac.ffmpeg.org/wiki/Encode/H.264
Un occhio veramente ma veramente allenato può arrivare fino a crf 16, poi diventa impossibile scorgere differenze..
Questo per dire che filmati compressi che si vedono come l'originale esistono, non è vera l'equazione che se è compresso allora si vedrà peggio, è vero che peserà meno, ma se compresso bene si vedrà in maniera identica... scorgere poi differenze da 2,75 metri usando un buon bluray è davvero impossibile...
Usando il buon vecchio x264 e usandolo con impostazioni di qualità inferiori a 16, la qualità di compressione è così elevata che è impossibile accorgersi delle differenze, è semplicemente overkill e solo uno spreco di spazio... questo non lo dico io, lo scrive lui da sempre
https://www.google.it/#q=dark+shikari
Se hanno usato un bluray fatto appena appena bene, non può essere la compressione a inficiare il risultato..
https://trac.ffmpeg.org/wiki/Encode/H.264
Un occhio veramente ma veramente allenato può arrivare fino a crf 16, poi diventa impossibile scorgere differenze..
Questo per dire che filmati compressi che si vedono come l'originale esistono, non è vera l'equazione che se è compresso allora si vedrà peggio, è vero che peserà meno, ma se compresso bene si vedrà in maniera identica... scorgere poi differenze da 2,75 metri usando un buon bluray è davvero impossibile...
Loseless rispetto a cosa? Trattatato come? Visto Dove?
Il 264 è uno dei formati di compressione video possibili, ed è innegabile la differenza, se vista su uno schermo opportuno, di un BD con un sorgente nativo in 4:4:4 (prendi una foto con buona cromia e sviluppala su un Tiff 10 bit per canale, comprimila in 4:2:0, e vedrai che già sul tuo iMac che non è proprio l'apice tecnologico degli schermi, la differenza è abissale), che in un BD ci starebbero 10 minuti e non so se basterebbe una HDMI 2 per riprodurlo (sia FullHD che 4K usano 4:2:0).
E i colori non hanno nulla a che vedere con l'acuità visiva, con la risoluzione della scena, la distanza di visione o i filtri. Colori migliori vengono sempre percepiti da un oocchio vagamente allenato (o di donna :P).
E col 4:2:0 perdi nativamente non solo in qualità cromatica e risoluzione (dimezzi automaticamente la risoluzione verticale e orizzontale, ecco perchè in realtà la differenza si vede, ma è colpa del Codec che de facto dimezza la risoluzione nativa. un FullHD 4:4:4 ha quasi la stessa risoluzione di Airy di un 4K 4:2:0!!) ma anche in riproduzione del blur.
Se poi confronti un sorgente già in 4:2:0 già compresso con un H.264, magari pure su uno schermo così così, ci credo che 16 a essere loseless.
Commento # 98
di: ficofico
pubblicato il 27 Ottobre 2014, 08:54
Ascolta, rimaniamo al test fatto da hdtvtest che stiamo commentando, hanno preso un filmato 4k e hanno preso un bluray 1080p, il bluray è sicuramente 8 bit, il 4k dove stà scritto che sia 10 o 12 bit?
Io ti ho citato la pagina ufficiale di ffmpeg dove si scrive chiaramente che è possibile encodare e comprimere un filmato facendolo dimagrire corposamente senza che l'occhio umano riesca a percepire le differenze, lo scrivono loro saranno competenti? ci sarà da credergli?
Se i due filmati hanno lo stesso spazio colore, dare la colpa alla compressione del bluray al fatto che la gente è riuscita a vedere le differenze con un filmato nativo 4k fà ridere per me, è molto ma molto probile che se lo stesso test fosse stato fatto tra due filmati 1080p uno con compressione bluray e l'altro con il doppio del bitrate, nessuno sarebbe in grado di scorgere differenze tra un filmato e l'altro...
Edit: Ho capito meglio cosa hanno fatto.... hanno preso le demo da qua
http://ftp.nluug.nl/pub/graphics/bl...emo/movies/ToS/
Provengono dallo stesso master renderizzato con blender, gli stessi creatori hanno in quel ftp uplodato la versione 4k e la versione 1080p e quelli di hdtvtest le hanno mostrate sui due televisori diversi.. Il master proviene da file tiff a 16 bit
Io ti ho citato la pagina ufficiale di ffmpeg dove si scrive chiaramente che è possibile encodare e comprimere un filmato facendolo dimagrire corposamente senza che l'occhio umano riesca a percepire le differenze, lo scrivono loro saranno competenti? ci sarà da credergli?
Se i due filmati hanno lo stesso spazio colore, dare la colpa alla compressione del bluray al fatto che la gente è riuscita a vedere le differenze con un filmato nativo 4k fà ridere per me, è molto ma molto probile che se lo stesso test fosse stato fatto tra due filmati 1080p uno con compressione bluray e l'altro con il doppio del bitrate, nessuno sarebbe in grado di scorgere differenze tra un filmato e l'altro...
Edit: Ho capito meglio cosa hanno fatto.... hanno preso le demo da qua
http://ftp.nluug.nl/pub/graphics/bl...emo/movies/ToS/
Provengono dallo stesso master renderizzato con blender, gli stessi creatori hanno in quel ftp uplodato la versione 4k e la versione 1080p e quelli di hdtvtest le hanno mostrate sui due televisori diversi.. Il master proviene da file tiff a 16 bit
Commento # 99
di: AceGranger
pubblicato il 27 Ottobre 2014, 09:47
Originariamente inviato da: Bivvoz
Però continua a sembrarmi una scemenza, pure io uso programmi di cad e simili e mi sembra un po' assurdo spendere un sacco di soldi per un monitor quando basterebbe fare interfacce più intelligenti.
Piuttosto prendo 2 monitor fhd e li affianco, spendo pure meno.
Piuttosto prendo 2 monitor fhd e li affianco, spendo pure meno.
Comodo avere un desktop 3840 x 1080 per i programmi cad
Hai risparmiato ma hai una soluzione piu pietosa dell'altra, e in entrambi i casi hai comunque un desktop che è la meta di un 4K; se lo fai con dei 27" non vai molto lontano, hai un 2880x2560 che mantiene gli stessi difetti della soluzione precedente e in piu, se li prendi con caratteristiche simili ai monitor 4K professionali, vai spendere poco meno se non uguale.
Puoi fare tutte le interfacce "intelligenti" che vuoi, puoi anche eliminarle e andare solo di shortcut, rimarrai sempre con una limitante bassa risoluzione.
Commento # 100
di: Raghnar-The coWolf-
pubblicato il 27 Ottobre 2014, 09:49
Originariamente inviato da: ficofico
Ascolta, rimaniamo al test fatto da hdtvtest che stiamo commentando, hanno preso un filmato 4k e hanno preso un bluray 1080p, il bluray è sicuramente 8 bit, il 4k dove stà scritto che sia 10 o 12 bit?
Non e' solo 8 bit. e' 8 bit 4:2:0. E' diverso.
E il 4k e' 4:2:0 anche lui perche' questo e' il formato.
Originariamente inviato da: ficofico
Io ti ho citato la pagina ufficiale di ffmpeg dove si scrive chiaramente che è possibile encodare e comprimere un filmato facendolo dimagrire corposamente senza che l'occhio umano riesca a percepire le differenze, lo scrivono loro saranno competenti? ci sarà da credergli?
si' ma la cosa tricky e' se parti ad encodare un filmato 4:2:0 o un filmato 4:4:4.
E dato che comunque lo standard Blu Ray e' 4:2:0 sia HD che 4k (e fra l'altro ,lo standard BD e' 4:2:0 24p in 1080p!) e' su quello che si fa il discorso.
Originariamente inviato da: ficofico
Se i due filmati hanno lo stesso spazio colore
E' appunto quello il fatto. Quello che dico non e' che il 4K non sia meglio del FullHD con le attuali compressioni (la scelta di spazio colore E' una compressione!).
Ma che sfruttando una compressione diversa, o per essere piu' precisi una scelta spazio colore e scalatura della risoluzione piu' ampia, [U]lasciando invariata la banda[/U] un FullHD possa risultare visivamente migliore di un 4K. (anche il progressivo e' scalato, un frame 1080p 4:2:0 non e' uguale a una foto 2Megapixel!)
Quello che dico non e' che abbiamo saturato l'occhio e ulteriori miglioramenti tecnologici non servono a nulla. Quello che dico e' che i miglioramenti tecnologici, quindi stesso bitrate del 4K, stessi pannelli da 4 mila euro, possono essere portati in direzioni diverse da quello dell'aumento crudo di risoluzione con risultati probabilmente piu' apprezzabili.
Non ne ho la certezza, ho considerazioni dettate dalla mia esperienza in cinematografia, dove i monitor di regia hanno davvero una qualita' differente da qualsiasi cosa puoi vedere al di fuori, anche senza un confronto fianco a fianco, perche' non sono riproduzioni 4:2:0 ma sono prese dirette almeno in 4:2:2 e non in 24p ma i 200Hz sono usati come 100p. Certo, quegli schermi e struttura costa cifre allucinanti anche solo a noleggiarli, ma c'e' una serie di motivi economici per questo.
In linea di principio anche un cinema fatto bene ha una qualita' decisamente migliore di un home theater, per lo stesso motivo.
E da considerazioni di tipo generale. L'informazione sulla risoluzione se non e' saturata dall'occhio umano quasi lo e', quindi hai tantissima informazione nel bitrate di un 4K che viene persa. Al contrario per l'informazione di colore e blur siamo ben lontani da saturarla su un BD.
Non ne ho la certezza, magari alla Sony hanno gia' fatto tutti i conti e han scientificamente dimostrato che il 4K 4:2:0 e' il migliore compromesso col bitrate permesso tecnologicamente.
Ma ho seri dubbi questo sia cosi', e piu' che un sospetto che il 4K sia uscito perche' un FullHD 2.0 non se lo sarebbe cagato nessuno, anche a vedersi meglio dell'attuale 4K, perche' non ha lo stesso appeal commerciale, ed inoltre che tutto il fatto sta nel mostrare e vendere schermi giganti ai grandi magazzini, dove le distanze di visione non sono assolutamente adeguate, e un 60"/80" 4K allora si' fa tutta un'altra figura visto a mezzo metro.
In ogni caso ben venga, il 4K in ambito produttivita' e' comunque utile per ingrandire gli schermi a parita' di visione e i prezzi si stanno gia' abbattendo, ed inoltre il FullHD domestico ora costa proprio una scemata.
Edit: Ho capito meglio cosa hanno fatto.... hanno preso le demo da qua
http://ftp.nluug.nl/pub/graphics/bl...emo/movies/ToS/
Provengono dallo stesso master renderizzato con blender, gli stessi creatori hanno in quel ftp uplodato la versione 4k e la versione 1080p e quelli di hdtvtest le hanno mostrate sui due televisori diversi.. Il master proviene da file tiff a 16 bit
http://ftp.nluug.nl/pub/graphics/bl...emo/movies/ToS/
Provengono dallo stesso master renderizzato con blender, gli stessi creatori hanno in quel ftp uplodato la versione 4k e la versione 1080p e quelli di hdtvtest le hanno mostrate sui due televisori diversi.. Il master proviene da file tiff a 16 bit
il master si', ma cio' che gli hanno mandato comunque proviene da un 4:2:0 24p a meno che non abbiano utilizzato anziche' dei player dei computer e delle connessioni ad hoc.

