Ir al contenido

publicidad

Foto

Nvidia detalla la disponibilidad de DLSS


  • Por favor identifícate para escribir un tema
  • Por favor identifícate para responder
41 respuestas en este tema

  • Abadox

  • Moderador
  • MERISTATION TEAM

  • vida restante: 100%
  • Registrado: 26 mar 2016
  • Mensajes: 9.425
#1

Escrito 14 febrero 2019 - 12:34

La verde tiene que hacerlo mejor si quiere vender más RTX.

 

nvidia-4789237.jpg

 

Parece que no pasa ni un día sin que hablemos de Nvidia, pero la compañía norteamericana sigue en el punto de mira por sus tecnologías de última generación: DLSS y raytracing en tiempo real. El último juego en recibir la bendición/maldición es Metro Exodus (cuyo análisis podéis leer aquí), que llega al mercado mañana, y la verde ya ha lanzado el nuevo paquete de controladores para preparar a sus gráficas de cara al lanzamiento. Según las notas del parche, promete ofrecer una “experiencia de juego óptima al usar DLSS y raytracing en Battlefield V y Metro Exodus”. Pero lo interesante es cómo se implementa el DLSS con los juegos según la resolución y las tarjetas gráficas.

 

Por un lado, tenemos el caso de Battlefield V. Nvidia asegura que el DLSS mejora el rendimiento en un 50 %, y añade que “ahora puedes jugar a Battlefield V con trazado de rayos DXR con las opciones en Alto, mayores resoluciones y niveles de detalle […] gracias a la inclusión de DLSS”. Ahora bien, hay que matizar que no todas las gráficas se llevan bien con la combinación de DLSS y raytracing en todas las resoluciones.

 

Las cosas son así, según Nvidia:

  • 3840x2160: todas las gráficas RTX
  • 2560x1440: RTX 2060, 2070 y 2080
  • 1920x1080: RTX 2060 y 2070

 

Luego están las configuraciones recomendadas para obtener 60 fps:

  • RTX 2060: 2560x1440, calidad Alta, DXR Medio, DLSS activado
  • RTX 2070: 2560x1440, calidad Ultra, DXR Medio, DLSS activado
  • RTX 2080: 2560x1440, calidad Ultra, DXR Ultra, DLSS activado
  • RTX 2080 Ti: 3840x2160, calidad Ultra, DXR Ultra, DLSS activado

 

En el caso de Metro Exodus, hay dos niveles de detalle para el trazado de rayos: Alto y Ultra. Nvidia dice que la diferencia no es muy obvia cuando estamos en movimiento (o sea, la mayor parte del tiempo), por lo que recomienda Alto para mejorar la tasa de fotogramas. No obstante, si activamos el DLSS, en este caso obtendríamos un 30 % más de rendimiento según la verde. Curiosamente, en el caso del juego de 4A Games, Nvidia no habla de “mejor experiencia visual”, sino de “una sensación de ansiedad que te sumerge en el juego”. Interesante cambio de tercio, ¿no? Aunque es verdad que en las comparativas se ve que las escenas iluminadas con trazado de rayos hay una mayor sensación de oscuridad en interiores y espacios tapados, claro.

 

Es fantástico que Nvidia siga trabajando para llevar al mercado una mejor experiencia visual y que la acompañe de una solución ideal para evitar perder rendimiento de juego, pero todavía tiene mucho que hacer. Los usuarios no están convencidos porque, aparte del coste de las nuevas gráficas, todavía no hay más que dos juegos que hagan uso de estas tecnologías. Para cuando sí los haya, además, es posible que las RTX hayan empezado a ajustar su precio. La implantación de RTX es modestísima, y eso lo vimos ayer gracias a la encuesta de hardware de Steam.

 

 

3Djuegos.

 

32909706158_0e1e956e05_b.jpg

 

  • Volver arriba

  • albertobat

  • TERRESTRIS VERITAS

  • vida restante: 100%
  • Registrado: 14 jul 2006
  • Mensajes: 15.354
#2

Escrito 14 febrero 2019 - 12:43

El DLSS me parece una función bastante más interesante, por su rendimiento, incluso que el RTX. Puede que los que llevaran todos estos años diciendo que no querían ver ninguna técnica de reescalado en PC frente a la resolución nativa no les interese, pero es un buen subidón de rendimiento el ejecutar juegos a 2K, por ejemplo, y recontruirlos a 4K con una técnica así y que, además, parece dar buenos resultados (pese a que implique que se deba implementar de una manera particular y no siempre se lleve bien en todos los casos, como indica la noticia).


Editado por albertobat, 14 febrero 2019 - 12:43 .

Intel Core I7 4790K // Gigabyte Gtx 1080Ti Aorus // 16GB DDR3 G.Skill RipjawsZ 2400Mhz CL10 // Thermaltake Thoughpower 750W Grand RGB // SSD Kingston Hyper X 128GB (SO) // SSD Samsung EVO 850 500GB (Game)

  • Volver arriba

  • Lentillas

  • Space Oddity

  • vida restante: 100%
  • Registrado: 17 oct 2012
  • Mensajes: 16.252
#3

Escrito 14 febrero 2019 - 12:48

Han puesto ahora la opción de usar DLSS y en EOL la gente está echando pestes, dicen que aunque mejora mucho el rendimiento se pierde demasiada calidad de imagen para que merezca la pena, y de todos modos creo que también leí que de todas todas con el último parche se ha perdido rendimienot, les he preguntado si las pruebas las han hecho con los nuevos drivers o algunos más viejos...


VuluZ9H.jpg

  • Volver arriba

  • albertobat

  • TERRESTRIS VERITAS

  • vida restante: 100%
  • Registrado: 14 jul 2006
  • Mensajes: 15.354
#4

Escrito 14 febrero 2019 - 12:55

Han puesto ahora la opción de usar DLSS y en EOL la gente está echando pestes, dicen que aunque mejora mucho el rendimiento se pierde demasiada calidad de imagen para que merezca la pena, y de todos modos creo que también leí que de todas todas con el último parche se ha perdido rendimienot, les he preguntado si las pruebas las han hecho con los nuevos drivers o algunos más viejos...

Es posible que pase como con otros mecanismos de reconstrucción (como Checkerboard y derivados), que funcionan muy bien en ciertos juegos y no tan bien en otros, que en un motor se adaptan bien y en otros no tanto, que a veces van perfectos en estático y en movimiento añaden problemas, que incluso funcionan bien en unas consolas y no tan bien en otras... de ahí que requiera dedicación por parte de la desarrolladora, y evidentemente no van a dar el mismo resultado que una imagen nativa a 4K.


Intel Core I7 4790K // Gigabyte Gtx 1080Ti Aorus // 16GB DDR3 G.Skill RipjawsZ 2400Mhz CL10 // Thermaltake Thoughpower 750W Grand RGB // SSD Kingston Hyper X 128GB (SO) // SSD Samsung EVO 850 500GB (Game)

  • Volver arriba

  • Lentillas

  • Space Oddity

  • vida restante: 100%
  • Registrado: 17 oct 2012
  • Mensajes: 16.252
#5

Escrito 14 febrero 2019 - 13:05

Es posible que pase como con otros mecanismos de reconstrucción (como Checkerboard y derivados), que funcionan muy bien en ciertos juegos y no tan bien en otros, que en un motor se adaptan bien y en otros no tanto, que a veces van perfectos en estático y en movimiento añaden problemas, que incluso funcionan bien en unas consolas y no tan bien en otras... de ahí que requiera dedicación por parte de la desarrolladora, y evidentemente no van a dar el mismo resultado que una imagen nativa a 4K.

 

El tema es que toda la forma en la que se presentó el DLSS sonaba muy bien pero un tanto confusa, por ahí había imágenes de "4K DLSS vs 4K TAA" mostrando un "2x performance", lo cual suena a cuento chino. Por un lado se ha estado vendiendo como que el DLSS al no hacer un "antialiasing" sino reconstruir los fotogramas utilizando deep learning da un resultado que luce como algo intermedio entre tu resolución y una superior mientras ganas rendimiento al quitar el antialiasing. Lo que pasa es que viendo lo del versus ese me da que realmente aplicaron DLSS sobre una imagen nativa a 4K, quedando el trabajo para los Tensor Cores, y luego TAA sobre una imagen nativa a 4K, dando mucho trabajo a los CUDAs para filtrar la imagen y por tanto penalizando absurdamente el rendimiento.

 

Porque vamos, para que haya consenso en que ganando bastante rendimiento no merece la pena, a mí me suena a vendida de moto de las gordas. 


VuluZ9H.jpg

  • Volver arriba

  • DrJugon

  • BIG BOSS

  • vida restante: 100%
  • Registrado: 19 mar 2014
  • Mensajes: 6.843
#6

Escrito 14 febrero 2019 - 13:17

Todas estas tecnologías suelen tener siempre alguna pega que hace que sea mejor ir con lo tradicional. Siempre me viene a la cabeza cuando sacaron el "Temporal Anti Aliasing" que se suponía que cogía muestras para el antialiasing de dos fotogramas distintos y mejoraba el rendimiento. Todo muy bonito hasta que lo activas y ves que aumenta el input lag, con lo cual ya tiene un uso muy limitado y sabes que probablemente nunca va a ser una tecnología que sustituya completamente a la anterior porque es "lo comido por lo servido".


105125.png


¡¡¡Guía para ocear gráficas Nvidia!!!  

  • Volver arriba

  • Lentillas

  • Space Oddity

  • vida restante: 100%
  • Registrado: 17 oct 2012
  • Mensajes: 16.252
#7

Escrito 14 febrero 2019 - 13:29

Todas estas tecnologías suelen tener siempre alguna pega que hace que sea mejor ir con lo tradicional. Siempre me viene a la cabeza cuando sacaron el "Temporal Anti Aliasing" que se suponía que cogía muestras para el antialiasing de dos fotogramas distintos y mejoraba el rendimiento. Todo muy bonito hasta que lo activas y ves que aumenta el input lag, con lo cual ya tiene un uso muy limitado y sabes que probablemente nunca va a ser una tecnología que sustituya completamente a la anterior porque es "lo comido por lo servido".

 

¿Cómor? No hay ningún antialiasing que aumente el input lag. Obviamente impactará en el rendimiento, tendrás menos FPS y por tanto habrá más milisegundos de diferencia, pero es lo mismo que si subes el postprocesado, o la calidad de las texturas, yo qué sé. Lo único que mete input lag sí o sí son el monitor, la sincronización vertical y los modos en ventana. Otra cosa es la posibilidad de ajustar una cantidad de fotogramas pre-renderizados, que mejoran la fluidez de la imagen, pero claro, a costa de input lag, pero no tiene nada que ver con el antialiasing.


VuluZ9H.jpg

  • Volver arriba

  • DrJugon

  • BIG BOSS

  • vida restante: 100%
  • Registrado: 19 mar 2014
  • Mensajes: 6.843
#8

Escrito 14 febrero 2019 - 13:43

¿Cómor? No hay ningún antialiasing que aumente el input lag. Obviamente impactará en el rendimiento, tendrás menos FPS y por tanto habrá más milisegundos de diferencia, pero es lo mismo que si subes el postprocesado, o la calidad de las texturas, yo qué sé. Lo único que mete input lag sí o sí son el monitor, la sincronización vertical y los modos en ventana. Otra cosa es la posibilidad de ajustar una cantidad de fotogramas pre-renderizados, que mejoran la fluidez de la imagen, pero claro, a costa de input lag, pero no tiene nada que ver con el antialiasing.

 

Todo mete input lag. Desde el filtrado de texturas hasta el postprocesado pasando por el antialiasing (el MSAA también mete, pero menos que el TAA). Cada vez que pones un setting un escalón por encima en calidad (y por consiguiente en complejidad de cálculo) aumentas el input lag. Y si no métete a jugar al counter o a algún otro juego de precisión forzando el TAA desde el panel de control nvidia, ya verás qué risa cuando te empiecen a dar mochas y ni las veas venir. :sisi:


105125.png


¡¡¡Guía para ocear gráficas Nvidia!!!  

  • Volver arriba

  • Lentillas

  • Space Oddity

  • vida restante: 100%
  • Registrado: 17 oct 2012
  • Mensajes: 16.252
#9

Escrito 14 febrero 2019 - 13:48

Todo mete input lag. Desde el filtrado de texturas hasta el postprocesado pasando por el antialiasing (el MSAA también mete, pero menos que el TAA). Cada vez que pones un setting un escalón por encima en calidad (y por consiguiente en complejidad de cálculo) aumentas el input lag. Y si no métete a jugar al counter o a algún otro juego de precisión forzando el TAA desde el panel de control nvidia, ya verás qué risa cuando te empiecen a dar mochas y ni las veas venir. :sisi:

 

A ver, a más FPS, menos retardo entre fotogamas, y menos input lag, pero insisto en que es la forma más enrevesada de verlo, normalmente cuando se habla de input lag se buscan mejoras al no utilizar mejoras de la pantalla, usar monitores con menos milisegundos per sé, etc. El input lag que te comes "crudo", vaya. Si fuera por rascar algún FPS, claro, ponlo todo en bajo y a tomar por culo. Lo que no sé es si forzando cosas a través del panel de Nvidia puedes estar provocando un input lag indeseable e impropio de ese antialiasing y/o juego. No por nada lo estás forzando. 


VuluZ9H.jpg

  • Volver arriba

  • DrJugon

  • BIG BOSS

  • vida restante: 100%
  • Registrado: 19 mar 2014
  • Mensajes: 6.843
#10

Escrito 14 febrero 2019 - 13:57

A ver, a más FPS, menos retardo entre fotogamas, y menos input lag, pero insisto en que es la forma más enrevesada de verlo, normalmente cuando se habla de input lag se buscan mejoras al no utilizar mejoras de la pantalla, usar monitores con menos milisegundos per sé, etc. El input lag que te comes "crudo", vaya. Si fuera por rascar algún FPS, claro, ponlo todo en bajo y a tomar por culo. Lo que no sé es si forzando cosas a través del panel de Nvidia puedes estar provocando un input lag indeseable e impropio de ese antialiasing y/o juego. No por nada lo estás forzando. 

 

A ver, si está ahí la posibilidad será para que la uses. Si ahora resulta que el controlador de gráficos ofrece unas posibilidades que son contraproducentes, pues que lo avisen o algo, digo yo.

 

De todas formas, que te hablo en plan porque yo soy muy de trastear con todas las opciones, sé que nadie usa el TAA para el counter en su día a día. Simplemente me dio por activarlo una vez a ver qué tal, y joder, es que no se puede apuntar a un barco.


105125.png


¡¡¡Guía para ocear gráficas Nvidia!!!  

  • Volver arriba

  • Lentillas

  • Space Oddity

  • vida restante: 100%
  • Registrado: 17 oct 2012
  • Mensajes: 16.252
#11

Escrito 14 febrero 2019 - 14:26

A ver, si está ahí la posibilidad será para que la uses. Si ahora resulta que el controlador de gráficos ofrece unas posibilidades que son contraproducentes, pues que lo avisen o algo, digo yo.

 

De todas formas, que te hablo en plan porque yo soy muy de trastear con todas las opciones, sé que nadie usa el TAA para el counter en su día a día. Simplemente me dio por activarlo una vez a ver qué tal, y joder, es que no se puede apuntar a un barco.

 

Insisto en que la opción es forzar, no lo activas, lo fuerzas. Y probablemente cuando pases el ratón por encima o pinches en la información se te avise de que al forzar puedes dar con comportamientos erráticos.


VuluZ9H.jpg

  • Volver arriba

  • DrJugon

  • BIG BOSS

  • vida restante: 100%
  • Registrado: 19 mar 2014
  • Mensajes: 6.843
#12

Escrito 14 febrero 2019 - 14:50

Insisto en que la opción es forzar, no lo activas, lo fuerzas. Y probablemente cuando pases el ratón por encima o pinches en la información se te avise de que al forzar puedes dar con comportamientos erráticos.

 

Mira, hasta el android cuando activas las opciones de desarrollador en cualquier dispositivo te avisa de que la puedes liar o puedes provocar cosas raras. Con esto, nada de nada. Esa opción está ahí como si pones la de activar vsync o poner el filtrado de texturas en alta calidad, cosas que se entiende son muy normalitas y características propias del controlador de gráficos.

 

Que dará buena calidad de imagen con menos impacto que el antialiasing traicional, tal vez. Ahora, que mete input lag? Por un tubo. Y si lo piensas tiene sentido pues está el sistema calculando propiedades gráficas no de un fotograma, sino de varios. Es como activar un postprocesado (que ya mete lo suyo) pero encima con carácter retroactivo, que hasta que no hay más de un frame renderizado y listo no se puede completar. Con lo cual eso ya te lo dice todo.

 

Volviendo al tema del hilo, que es el DLSS, pues nadie se cree que eso vaya a ser gratis o algo "on the fly" sin ninguna pega por otro lado.


105125.png


¡¡¡Guía para ocear gráficas Nvidia!!!  

  • Volver arriba

#13

Escrito 14 febrero 2019 - 20:54

Cuando se ve mejor el agua de half life 2 de 2004 que además podía reflejar objetos dinamicos con menor coste, como el helicóptero, que la del Battlefield con raytracing

hqdefault.jpg

Cuando el agua en Battlefield parece petroleo como en gears of war de 360 de 2006

Battlefield_V.jpg



WHYBBHp.jpg



Cuando en el primer splinter cell y en doom 3 había sombras de las buenas, stencil shadows, que se descartaron en doom 3 reedición bfg por ser ineficiente pasando a usar lo normal en consolas

realtime-shadowing-techniques-shadow-vol

large4.jpg

Cuando tienes iluminación global en tiempo real de calidad como la del cryengine con SVOTI a mucho menor coste que el raytracing

screenshot0000.jpg

Cuando con voxel conetracing tienes esta calidad de A.O.


compare.JPG



Y llega nvidia y te lo vende diciendo que no es una mejora gráfica sino de "ansiedad inmersiva", como si no hubiera ya reflejos ssr o los de hl2 mucho más rápidos para ver enemigos reflejados

Sabes que es la mayor vendida de humo desde la nube multiplicadora de potencia de xbox one.

Editado por xarmanista, 14 febrero 2019 - 23:04 .

*Imagen retirada por moderación por pasarse de las medidas permitidas de forma descomunal*

                                                              *Sólo xarmanista causa tanto escozor*

M5A97 Evo R2  8 GB 2133 Mhz CL9   FX8320 3,5 Ghz   Geforce 1080 + 1060 CUDA/Physx 

 

http://static1.games...81919-dEADT.png

  • Volver arriba

#14

Escrito 14 febrero 2019 - 21:16

El DLSS me parece una función bastante más interesante, por su rendimiento, incluso que el RTX. Puede que los que llevaran todos estos años diciendo que no querían ver ninguna técnica de reescalado en PC frente a la resolución nativa no les interese, pero es un buen subidón de rendimiento el ejecutar juegos a 2K, por ejemplo, y recontruirlos a 4K con una técnica así y que, además, parece dar buenos resultados (pese a que implique que se deba implementar de una manera particular y no siempre se lleve bien en todos los casos, como indica la noticia).

Normal, la carta de presentación fué el desastre de quantum break.

Pero luego veias rainbow six en ps4 con una nativa de 960x540 al que solo le faltaba sharpen y decías "algo no me cuadra con el borrosum brake". Lástima que las consolas no tengan reshade a gusto del usuario para meterle sharpen y rematar el rainbow

Y en el caso del dlss al usar IA no hay ghosting como al combinar fotogramas haciendo checkerboard.

También es una mejora sobre el TAA por lo mismo, evita ghosting. Y era lo que mejor filtraba el checkerboard.

También teóricamente es como usar la nativa con supersampling x4 ocultando a la vez los fallos del reescalado x8 por IA

Editado por xarmanista, 14 febrero 2019 - 21:19 .

*Imagen retirada por moderación por pasarse de las medidas permitidas de forma descomunal*

                                                              *Sólo xarmanista causa tanto escozor*

M5A97 Evo R2  8 GB 2133 Mhz CL9   FX8320 3,5 Ghz   Geforce 1080 + 1060 CUDA/Physx 

 

http://static1.games...81919-dEADT.png

  • Volver arriba

  • DrJugon

  • BIG BOSS

  • vida restante: 100%
  • Registrado: 19 mar 2014
  • Mensajes: 6.843
#15

Escrito 19 febrero 2019 - 15:40

Dejo esto por aquí, anda que no se veía venir. Y que no me contraten a mí de analista.

 

https://pacot.es/t/d...n-gordo/35916/5

 

@xarmanista, @Lentillas, @albertobat, @Abadox.


105125.png


¡¡¡Guía para ocear gráficas Nvidia!!!  

  • Volver arriba


  • Por favor identifícate para escribir un tema
  • Por favor identifícate para responder
publicidad

0 usuarios están leyendo este tema

0 miembros, 0 invitados, 0 usuarios anónimos