Página 1 de 7 12345 ... ÚltimoÚltimo
Resultados 1 al 10 de 67

Tema: Duda con HDR

  1. #1

    Predeterminado Duda con HDR

    Hola,

    Recientemente he adquirido un ASUS VG27AQ y aún estoy trasteando con las combinaciones de configuración entre GSYN, Adaptative-Syn, ELMB SYNC, HDR y demás. Menudo lio, con lo fácil que era todo antes...

    Pues resulta que estoy un poco confundido con el HDR ya que al actibarlo parece que la pantalla se oscurece o como si tuviese los colores menos vivos. ¿No se supone que el HDR era para lo contrario?

    Saludos

  2. #2
    El señor de los forillos Avatar de Conrado77
    Ubicación
    Barcelona
    Edad
    42
    Mensajes
    2,500

    Predeterminado Re: Duda con HDR

    Cita Iniciado por estimador Ver mensaje
    Pues resulta que estoy un poco confundido con el HDR ya que al actibarlo parece que la pantalla se oscurece o como si tuviese los colores menos vivos. ¿No se supone que el HDR era para lo contrario?
    Sí, pero tienes que poner una fuente que sea HDR. Si simplemente activas el HDR en Windows para seguir haciendo lo que haces, sin más, entonces lo vas a ver como dices. Para sacar provecho de HDR se requiere una fuente de vídeo HDR.

    Tienes que probar con alguna película o juego con HDR. Para el caso del cine, que es con lo que yo estoy más familiarizado, necesitas un reproductor software que te permita hacer el passthrought de los metadatos HDR. Mi consejo es que pruebes con MPC-HD+madVR (ambos son "gratuitos"). En madVR asegúrate de tenerlo configurado así (el resto de pestañas las puedes dejar por derfecto):



    En el la configuración de MPC-HD asegúrate de que madVR es el filtro externo seleccionado:



    Ahora ya solo te queda buscar algún vídeo con HDR. En la industria del cine son las películas UHD las que llevan contenido HDR. Por ejemplo, ésta que me llegó ayer de USA (en España también se editan, pero ésa en concreto aquí no ha salido):



    También hay videojuegos HDR. Pero es el cine donde más partido se le saca a esta tecnología. De hecho, al HDR10 "estándar" ya se le han sumado HDR10+ y Dolby Vision (ambos con metadatos dinámicos). Pero todo esto es para el cine. El mundo de los monitores está un poco en pañales a este respecto.

    En cualquier caso, para reproducir contenido HDR siempre tendrás que activar primero el HDR en Windows. Aunque algunos reproductores, como PowerDVD 19 (cuyo HDR sólo funciona con gráficas Intel), te lo activan automáticamente cuando detectan una fuente HDR y un hardware compatible. Y luego ya puedes lanzar MPC+madVR (más la película que sea) o bien ejecutar un juego que tenga HDR.

    Recuerda que HDR requiere una gráfica compatible. No sé qué gráfica tienes. Pero si Windows te deja activar el HDR, es que la tuya es compatible. En nVIDIA HDR funciona a partir de Maxwell v2.0 (por ejemplo, mi GTX 980 TI es compatible). En AMD a partir de Polaris. Y en Intel a partir de HD 620 (Kaby Lake).

    Ahora mismo, aparte de MPC-HD+madVR, el mejor reproductor software 4K HDR es DVDFab Player 6 (es de pago). Sobre todo para los que tienen gráficas nVIDIA. En la configuración del programa sólo tienes que asegurarte de tener activado el soporte HDR. Es decir, así:



    Y un último apunte. Tampoco te esperes nada del otro mundo con el HDR de los monitores. Es el denominado "fake HDR" o "compatible con HDR". Los monitores con paneles de 8 bit y 300 nits no están realmente preparados para HDR (se requieren paneles de 10 bit y al menos 1.000 nits). Pero bueno, alguna cosa sí notarás. Hasta hace poco yo tenía un monitor fake HDR. Por el momento no hay monitores con certificación UltraHD Premium. Pero no tardarán en salir. Por eso nVIDIA acaba de presentar su G-Sync Ultimate acorde con la especificación UltraHD Premium. nVIDIA es una de las empresas que forma parte de la UHD Alliance.

    PD: me parece que en Netflix ya hay hay películas 4K HDR. Yo no tengo Netflix. Soy de la vieja escuela y sigo con el formato físico (disco en mano). Muchos también los paso por el ordenador.
    Última edición por Conrado77; 16/02/2020 a las 23:26
    CPU: Intel i7-7700K @ 4,8GHz | RL: Alphacool Eisbaer 360 CPU | Placa: ASUS Z270-WS | Memoria: 32GB (4x8GB) Crucial Ballistix Sport LT 3200MHz CL16 | Gráfica: EVGA GTX 980 Ti 6GB CLASSIFIED | SSD NVMe: 3 x Intel 660p 2TB (2 x RAID 0) | Caja: InWin GRone | Fuente: SilverStone Strider S 850W 80+ GOLD | Monitor: ASUS ROG Swift PG248Q G-Sync | SO: Windows 10 LTSC

  3. #3
    El señor de los forillos Avatar de AgaporniPower
    Ubicación
    House Baenre, Menzoberranzan
    Mensajes
    3,038

    Predeterminado Re: Duda con HDR

    Cita Iniciado por Conrado77 Ver mensaje
    Los monitores con paneles de 8 bit y 300 nits no están realmente preparados para HDR (se requieren paneles de 10 bit y al menos 1.000 nits). Pero bueno, alguna cosa sí notarás. Hasta hace poco yo tenía un monitor fake HDR. Por el momento no hay monitores con certificación UltraHD Premium. Pero no tardarán en salir. Por eso nVIDIA acaba de presentar su G-Sync Ultimate acorde con la especificación UltraHD Premium. nVIDIA es una de las empresas que forma parte de la UHD Alliance.
    No, a lo citado en negrita y rojo, se entiende. Léete los requisitos de la certificación UltraHD Premium de la que hablas. Y ojo... son los requisitos para la certificación (para la pegativa), no para que "se vea bien" sin artefactos raros.

    En general si dices "10bit y elevado brillo y contraste simultáneamente, mucho mas allá de los 300nits y 2000:1 típicos de un monitor normal" (o frase similar) no te pillas los dedos con los detalles. Luego si quieres entrar al detalle mejor, pero el "detalle" que has puesto es incompleto y lleva a equívocos o incluso a la compra de productos mediocres, como por ejemplo: 1000nits, 10bit pero contraste mediocre por problemas con el FALD... y que hasta donde yo se la certificación UltraHD Premium no especifica (zonas, radio del halo, brillo del halo)...es decir, es una pegatina "generosa con el fabricante" por decirlo de alguna forma.
    Pero no es mas que un consejo que se puede ignorar.

  4. #4
    El señor de los forillos Avatar de Conrado77
    Ubicación
    Barcelona
    Edad
    42
    Mensajes
    2,500

    Predeterminado Re: Duda con HDR



    Hay demasiada literatura y vídeos al respecto por la web. Con paneles de 8 bits y 300 nits de media el "HDR" del cine es un desastre. De ahí la coletilla fake HDR que se otorga a los paneles "compatibles con HDR".

    Por exeriencia propia: con un monitor fake HDR (la práctica totalidad de los que hay ahora mismo con soporte HDR por debajo de los 1.000€) lo mejor es hacer el tone mapping (pasar de HDR a SDR). Tengo cerca de 300 discos UHD(s) y la mayoría da pena verlos en un monitor fake HDR. Exepto algunos títulos, como Joker, cuyo HDR es de sólo 334 nits, si no me falla la memoria (la película tiene una fotografía bastante oscura). No todos los títulos UHD requieren los mismos niveles de brillo. El UHD de Starship Troopers, por ejemplo, está codificado a la friolera de 3995 nits (esa información la da madVR: durante la proyección hay que pulsar CTRL+J).

    Un ejemplo que tengo a mano ahora mismo. En el UHD de Zero Dark City (La noche más oscura) el HDR viene a 1.613 nits (la captura es haciendo el tone mapping):



    Con un monitor fake HDR de 300 nits no hace falta ni intentar ver esa película en formato UHD HDR. Mucho mejor adquirir la versión Blu-ray a 1080p y sin HDR (también se incluye en el armaray UHD).

    Hasta hace 2 semanas yo tenía el Viewsonic XG324OC. Cuando ponía algún disco UHD el pobre se las veía y deseaba para interpretar los metadatos HDR. Al llevar un panel de sólo 8 bit y 300 nits muchas escenas con luces altas se veían quemadas. La experiencia HDR daba pena en comparación con la OLED UltraHD Premium que tengo en la salita.

    En este foro lo hemos comentado hasta la saciedad los "pocos" que compramos películas en formato UltraHD HDR. Para disfrutar de una verdadera experiencia HDR, al menos en el cine, o te pillas una tele con certificado UltraHD Premium o lo llevas claro (no se trata de una mera pegativa ).

    Todo esto no son juicios de valor (opiniones) ni actos de fe. Son cuestiones de hecho.

    La Red está llena de información al respecto. Quien quiera puede bucear por ese foro y leer lo que todo el mundo dice al respecto (vivencias en primera persona). Además de teoría, la gente comenta sus experiencias con teles fake HDR. En algunos hilos también hay capturas donde se ve la diferencia.

    No veo demasiado sentido a debatir sobre si es o no necesario adquirir un dispositivo de visualización (TV, monitor, reproductor de Blu-ray UHD o proyector) con certificado UltraHD Premium para disfrutar de una buena experiencia HDR, HDR+ o Dolby Vision (si es el caso). Quien desee ampliar información, que busque por la Red. Así de sencillo. Aunque no hay nada como vivirlo en primera persona.

    EDITO:

    Sí que hay monitores con certificado UltraHD Premium, es decir, con paneles de 10 bit y al menos 1.000 nits de brillo. Además de los dos que aparecen al final del vídeo de más arriba, el ASUS ROG Swift PG27UQ 27", que cuesta la friolera de 1.999€ en PCC. Lleva el nuevo módulo G-Sync Ultimate de nVIDIA. Y ya sólo ese módulo añade 500$ al precio del monitor. De ahí que estos monitores sean tan caros. Recuérdese que nVIDIA es una de las empresas de la UHD Alliance, que es la que ha establecido el estándar UltraHD Premium.

    Última edición por Conrado77; 17/02/2020 a las 22:12 Razón: Ortografía
    CPU: Intel i7-7700K @ 4,8GHz | RL: Alphacool Eisbaer 360 CPU | Placa: ASUS Z270-WS | Memoria: 32GB (4x8GB) Crucial Ballistix Sport LT 3200MHz CL16 | Gráfica: EVGA GTX 980 Ti 6GB CLASSIFIED | SSD NVMe: 3 x Intel 660p 2TB (2 x RAID 0) | Caja: InWin GRone | Fuente: SilverStone Strider S 850W 80+ GOLD | Monitor: ASUS ROG Swift PG248Q G-Sync | SO: Windows 10 LTSC

  5. #5
    El señor de los forillos Avatar de AgaporniPower
    Ubicación
    House Baenre, Menzoberranzan
    Mensajes
    3,038

    Predeterminado Re: Duda con HDR

    Cita Iniciado por Conrado77 Ver mensaje

    Hasta hace 2 semanas yo tenía el Viewsonic XG324OC. Cuando ponía algún disco UHD el pobre se las veía y deseaba para interpretar los metadatos HDR. Al llevar un panel de sólo 8 bit y 300 nits muchas escenas con luces altas se veían quemadas. La experiencia HDR daba pena en comparación con la OLED UltraHD Premium que tengo en la salita.

    En este foro lo hemos comentado hasta la saciedad los "pocos" que compramos películas en formato UltraHD HDR. Para disfrutar de una verdadera experiencia HDR, al menos en el cine, o te pillas una tele con certificado UltraHD Premium o lo llevas claro (no se trata de una mera pegativa ).

    Todo esto no son juicios de valor (opiniones) ni actos de fe. Son cuestiones de hecho.
    Como veo que eres incapaz de comprender/entender de lo que te hablan y te dedicas a meter parrafadas sin contenido como otro que yo me se, tu caso creo que lo dejo por imposible.

    @estimador: mas que 1000 nits "sí o sí", busca otras cosas o acabaras con una guarrada de halos en escenas oscuras debido al FALD en paneles con poco contraste, incluso con la pegatinita UltraHD Premium (que no obliga a nada en algunos aspectos porque está hecha a la medida del fabricante: zonas, radio del halo, brillo del halo...)
    Obviamente y aunque haya personas que no lo asimilan aunque se lo expliques, no me refiero a que cojas un "fake HDR" 300nit/1000:1.. entre otras cosas porque eso contradice lo que he explicado. Me refiero a que un panel con altísimo contraste como algunas TVs VA de 5000:1 o mas, fald de miles de zonas y... pongamos un brillo máximo de 600 u 800nit con un tonemapping en la LUT3D del fabricante para HDR es INFINITAMENTE superior a un 1000nits VA contraste normalito y 500 zonas con su superpegatina UltraHD premium.

    Los 1000nits, y contraste acorde de 1M:1 estático (Sony/Eizo con el doble panel de Pana), sin halos si fald, se lo dejamos a los de grading y sus presupuestos de 5 cifras.
    Última edición por AgaporniPower; 18/02/2020 a las 07:46

  6. #6
    Sin vida social Avatar de -Katsuo
    Ubicación
    Prision gamma
    Mensajes
    390

    Predeterminado Re: Duda con HDR

    ► El HDR está muy verde todavía y su uso actual es casi experimental. Donde de verdad se nota, (efecto espectacular), es un cine IMAX de última generación. Por lo tanto, ponerse quisquilloso por ver quien cita mejor los requisitos técnicos adecuados para los nuevos y futuros estándares HDR, no tiene mucho sentido. El forero Conrado77 ha expresado su opinión de forma correcta y muy bien argumentada. Criticarle diciendo que escribe parrafadas sin contenido es pasarse tres pueblos.
    ​• Galactus: ASRock Z390 Extreme4 - 8600K 4,5 GHz - G.Skill DDR4 ​16 GB 3200 MHz - Gtx 980 Ti - Eizo FX2431 - Eizo S2433W

    Magnatron: Asus Rampage Extreme III - Xeon X5675 4,8 GHz HT Off - G.Sk​ill DDR3 12 GB 2125 MHz - Gtx 970 - Samsung 2233RZ

  7. #7

  8. #8
    Sin vida social Avatar de -Katsuo
    Ubicación
    Prision gamma
    Mensajes
    390

    Predeterminado Re: Duda con HDR

    ► Para cuando se estandarice el uso de las técnicas de Alto Rango Dinámico, ya sea en películas, series, videojuegos, etc. lo normal es que pasemos a un espacio de color superior, como es el BT.2020, (también llamado Rec.2020), pero primero la tecnología tiene que avanzar y darnos unos monitores/televisores a un precio asequible para el mercado general.

    ► Cuando lo habitual sea comprarnos un visualizador con panel OLED o panel Micro-Led, (seguramente convivan los dos), y un LCD nos parezca algo de la prehistoria, será ahí cuando tengamos las características HDR y espacio de color ampliado como un estándar. Y pueden pasar muchos años hasta que eso suceda.





    ► Actualmente, querer HDR de calidad y tecnología LCD es una utopía, imposible por la incapacidad técnica del LCD y su concepto de retro-iluminación. Lo que están haciendo actualmente las compañías con los monitores/teles, intentando llegar a x intensidad de brillo, o x profundidad de contraste, es una aberración y una chapuza histórica. El resultado es que estamos asistiendo al nacimiento de unos visualizadores totalmente descompensados, con más defectos en la fabricación de sus paneles que nunca, ángulos de visión horribles, (panel IPS incluídos), fugas de luz crónicas, (panel VA también), mala uniformidad del brillo, etc.

    ► La vía de escape que tiene la tecnología LCD es su conversión a Micro-Led... la cual es ir miniaturizando progresivamente los Leds que forman sus paneles traseros de iluminación, hasta que el llamado Local Dimming, evolucione a un Led por píxel y ya no sea necesario poner una pantalla de cristal líquido delante que contenga los píxels.

    ► Eso es algo que ya hace la tecnología OLED desde el inicio, usando diodos de origen orgánico, (contraste infinito, ángulos/uniformidad de visión perfectos, respuesta del píxel ultra-rápida), pero tiene el problema que si aumentan mucho el brillo los quemados permanentes del panel estan asegurados. Entonces, tenemos por un lado a una tecnología OLED frenada, y por otro a una ya obsoleta retroiluminación-LCD que necesita reconvertirse a Micro-Led.

    ► Lo que hay ahora es un HDR basado en el cinéfilo espacio de color DCI-P3, que necesita 10 Bits por canal RGB para ser cubierto con garantías, aunque la gran mayoría de visualizadores usa una configuración de 8+2 Bits mediante FRC/Dithering. En la práctica es lo mismo que un panel nativo de 10 Bits, porque es imposible apreciar las diferencias en tiempo real. Por eso, aunque el panel sea 8+2 Bits, muchas compañías declaran 10 Bits.
    ​• Galactus: ASRock Z390 Extreme4 - 8600K 4,5 GHz - G.Skill DDR4 ​16 GB 3200 MHz - Gtx 980 Ti - Eizo FX2431 - Eizo S2433W

    Magnatron: Asus Rampage Extreme III - Xeon X5675 4,8 GHz HT Off - G.Sk​ill DDR3 12 GB 2125 MHz - Gtx 970 - Samsung 2233RZ

  9. #9
    El señor de los forillos Avatar de AgaporniPower
    Ubicación
    House Baenre, Menzoberranzan
    Mensajes
    3,038

    Predeterminado Re: Duda con HDR

    Cita Iniciado por -Katsuo Ver mensaje
    ► Para cuando se estandarice el uso de las técnicas de Alto Rango Dinámico, ya sea en películas, series, videojuegos, etc. lo normal es que pasemos a un espacio de color superior, como es el BT.2020, (también llamado Rec.2020), pero primero la tecnología tiene que avanzar y darnos unos monitores/televisores a un precio asequible para el mercado general.
    -Ya estamos en él. Es el contenedor. No hay que "pasar a" nada.
    Por poner un símil que se entienda: Imagina que todos los visores de imagen tuvieran gestion de color (todas las TVs que quieren mostrar HDR tienen una LUT3D) y que todas las cámaras hasta de móviles guardaran por defecto las images como AdobeRGB (el contenedor de ese video es Rec2020, los números están codificados así). Aunque el contenedor sea AdobeRGB, muchos dispositivos sólo pueden capturar sRGB pero la foto se guarda convertida a AdobeRGB (video P3 , que cae dentro de rec2020). Cada PC mostrará de esa foto lo que pueda, y cuando no pueda cortará (cliping) o deformará (tonemapping en HDR). Creo que el símil se entiende.
    No hay que cambiar nada para pasar a Rec2020 porque ya estás en él. A medida que un fabricante pueda ofrecer mas espacio de color, o hará.

    -Hay motivos fisiológicos, de cómo somos los humanos, que ponen serias dudas sobre Rec2020 "completo". Rec2020 se pensó mas como contenedor que otra cosa. Sirve de poco o nada una pantalla Rec2020 100% donde tú, tus hijos, tu vecino, tus padres o tus amigos veis cada uno una cosa distinta. La edición y etalonaje se vuelve muy dificil por no decir imposible.
    Se llama fallo metamérico por observador y con pantallas Rec2020 100% de cobertura ese problema se produce SEGURO porque los primarios RGB son espectrales (luz monocromática).
    La cobertura en % Rec2020 de las pantallas aumentará pero no esperes ir mucho mas allá de cierto % porque no es un problema tecnológico sino de los humanos, de nuestro sistema visual. Coincidimos en cómo vemos ciertas cosas pero a medida que nos acercamos a lo que sería luz monocromática... ahi empezamos a ver cosas diferentes.

    Quien quiera ver la "estadística humana", el RIT tiene estudios demoledores acerca de pantallas con primarios cuya distribución espectral de potencia esta muy concentrada en un rango muy pequeño de longitudes de onda.


    Y el resto... es que es siempre lo mismo. Cuanto mas imágenes pone más indica que menos idea tiene de lo que está hablando... especialmente si pone un dibujito 2D de Rec2020 "como argumento" y no cae en donde están los primarios RGB.... porque se ve. Están en el borde. Son luz monocromática, fotones con la misma longitud de onda. Eso causa problemas porque "tu" visión, la mía y la del vecino es ligeramente distinta por longitud de onda. Si vemos cosas iguales o parecidas es porque esa luz que llega a nuestro ojo está repartida en un rango mas o menos amplio de longitudes de onda y las pequeñas diferencias por cada longitud de onda quedan mas o menso compensadas.
    Esto se ha hablado y explicado a Katsuo en mas hilos, muchos, quizás demasiados, pero no parece capaz de comprenderlo ni aun linkándole el PDF: "Modeling Observer Variability and Metamerism Failure in Electronic Color Displays"
    A ver si en el próximo hilo pilla ya que es eso de Rec2020, si tiene sentido ir mas allá de P3/AdobeRGB/eciRGBv2, qué se gana, qué se pierde y a donde no tiene ningún sentido llegar mientras los humanos sigamos teniendo los ojos y cerebro que tenemos.
    Última edición por AgaporniPower; 19/02/2020 a las 07:44

  10. #10

    Predeterminado Re: Duda con HDR

    Gracias a todos los la info aportada. Voy a releerla un par de veces, ya que hay mucha miga aquí

Página 1 de 7 12345 ... ÚltimoÚltimo

Permisos de publicación

  • No puedes crear nuevos temas
  • No puedes responder temas
  • No puedes subir archivos adjuntos
  • No puedes editar tus mensajes
  •