Ir al contenido

publicidad

Foto

Merecerá la pena jugar en pc si esto continua así...


  • Por favor identifícate para escribir un tema
  • Por favor identifícate para responder
105 respuestas en este tema

  • vilax

  • SPARTAN-II

  • vida restante: 100%
  • Registrado: 28 mar 2016
  • Mensajes: 2.240
#16

Escrito 30 octubre 2018 - 17:29

El Red Dead Redemption 2 es 4k nativos constantes en la xbox X, y debe ser lo más pepinillo actualmente... no se le puede permitir a nvidia y amd seguir pretendiendo que es una resolución exótica, lo único mounstroso que tiene una 2080ti es el precio y su nivel de desempeño viene con mucho retraso.

Las RTX no creo que se puedan tener como referencia en cuanto rendimiento por que no se han centrado en eso.

Nvidia con esta generacion en vez de ir a lo logico e intentar estandarizar los 4k con mas potencia bruta, que creo que es lo que la mayoria habria preferido, pues se ha ido por los cerros de ubeda con el ray tracing, y eso se traduce en sacrificios.

Si todo el espacio que han usado para RT y tensor cores lo hubiesen usado para meter shaders otro gallo cantaria y tal vez si estariamos hablando de unas bichas para 4k, por que la arquitectura turing mala no parece. No hay mas que ver que la 2080, con un buen puñado menos shaders que la 1080ti (600 shaders menos) y frecuencias calcadas por lo general rinde mejor.

 

Asi normal que la gente las vea como uno de los peores productos que ha lanzado nvidia, mucha gente invirtiendo en monitores 4k y ahora los desarrolladores que estan metiendo RTX dicen que se centran en 1080p y 60fps para jugar con el RT..., dile a esa persona con un panel 4k que se vuelva a jugar a 1080p...

 

Ya veremos en lo que acaba esto del RT, esta claro que es el fururo y algun dia habia que poner la primera piedra. Ahora mismo las RTX es de lo unico que pueden presumir, o mas bien ya se vera si pueden presumir cuando lleguen los primeros juegos con RTX.

Lo dicho, una columpiada de nvidia, no solo con el precio, si no con la apuesta que ha hecho.


Spoiler
  • Volver arriba

  • Lukilla

  • Lord Boros

  • vida restante: 100%
  • Registrado: 09 ene 2006
  • Mensajes: 7.745
#17

Escrito 30 octubre 2018 - 20:51

El Rt no viene en ningún futuro cercano, porque ¿en qué nodo de fabricación vienen las gráficas de $200-300 y 288 rt cores? (lo necesario para un solo efecto RT en 4k y 60fps en juegos diseñados para bases de consolas antiguas de 5 años), o ¿cómo detienes a los desarrolladores de reemplazar técnicas lentas e ineficientes por otras mucho más rápidas?, parece contraproducente meter algo que tratarán de evitar.


  • Volver arriba

  • mereyyei

  • Witch

  • vida restante: 100%
  • Registrado: 22 sep 2007
  • Mensajes: 1.534
#18

Escrito 30 octubre 2018 - 21:04

Pero es que este tema como todo,es relativo.Estamos hablando de 1300 € por una gráfica que si,que es una burrada,pero es que eso son los extremos.

 

Hace poco trasteando un poco con el configurador de Pccomponentes (más por fantasía que otra cosa,porque ahora mismo no tengo ni un duro :D ) monté un PC para tirar lo que hay y lo que vendrá como te dé la gana,RV y hasta algo de 4K por 1500 €,incluyendo un buen monitor.

 

Está claro que estamos viviendo tiempos complicados con el hardware,pero depende de con cuanto se vaya a conformar cada uno.Yo lo que tengo claro es que la próxima vez que vaya a invertir en un PC pra juegos,será cuando pueda permitirme gastar lo suficiente para no tener que racanear en ningún componente.Paso de medianías ajustándome el bolsillo.Un saludo :gafas:


  • Volver arriba

  • vilax

  • SPARTAN-II

  • vida restante: 100%
  • Registrado: 28 mar 2016
  • Mensajes: 2.240
#19

Escrito 30 octubre 2018 - 22:04

El Rt no viene en ningún futuro cercano, porque ¿en qué nodo de fabricación vienen las gráficas de $200-300 y 288 rt cores? (lo necesario para un solo efecto RT en 4k y 60fps en juegos diseñados para bases de consolas antiguas de 5 años), o ¿cómo detienes a los desarrolladores de reemplazar técnicas lentas e ineficientes por otras mucho más rápidas?, parece contraproducente meter algo que tratarán de evitar.

Claro que no, cuando hablo de futuro hablo a largo plazo en futuras graficas, no de las actuales RTX, estas graficas huele a la legua que van a ir muy justas para 4 efectillos. Al final se van a quedar en tierra de nadie, ni son mucho mejores en rasterizcion ni mucho menos van a ser buenas para RT. 

 

Lo del RT, en cierto modo, puede ser similar a las gforce 3 con los primeros shaders, los primeros juegos que hacian uso de shaders lo hacian de una forma muy limitada. Hoy en dia no hay juego que no este lleno hasta las trancas de efectos shaders por todos lados.

Quien sabe, segun como cuaje la cosa del RTX o el DXR, tal vez en 10-15 años estemos hablando de iluminacion completa por RT. 


Spoiler
  • Volver arriba

  • Lukilla

  • Lord Boros

  • vida restante: 100%
  • Registrado: 09 ene 2006
  • Mensajes: 7.745
#20

Escrito 31 octubre 2018 - 01:27

Yo también estoy hablando de futuras gráficas, en que nodo una futura gráfica mainstream podría ofrecer los 288 rt cores que se necesitan para un efecto (cuatro simultáneos ni en sueños). Hoy día $250 usd te darían para 18rt. En 7nm podrían acomodar el doble por el mismo precio... buenos para unos reflejitos a 30fps y 1080p (fácil estimar debido al funcionamiento paralelo de este tipo de núcleos. 72rt para 1080p/60fps con un efecto es el target de square y Dice, en Piranha van a 30fps con dos efectos a 1080p). Pero de ahí en delante, 5nm y 3nm se presumen harto complicados y posiblemente caros, pero suponiendo que de alguna manera sale bien, los 1.5nm se ubican hasta el 2030... la capacidad actual RT de la 2080ti no alcanzaría el mainstream hasta dentro de 12 años... ¿Y quién coño va a querer jugar a 4k con 15fps en el 2030 para tener un reflejo ray tracing?  X-D ... entonces si llega a ser posible tener un par de efectos RT en el mainstream no sería sino hasta que las gpu vengan con procesadores quánticos o lo que siga, por lo tanto creer que estamos soportando la tecnología es dudoso, estas arquitecturas estarán totalmente abandonadas para entonces  X-D

 

Bueno, solo me gustaría que la gente que dice que el rt es el futuro lo pensase un poquito más. Hay un video por ahí de Neil Degrasse Tyson donde pone muchos ejemplos sobre como la gente tiende a infra-predecir el alcance de la tecnología, hasta cierto punto donde se le muestra algo trabajando, de ahí en delante la mente se fuga y empieza a sobre-profetizar de maneras totalmente alucinantes  8D


Editado por Lukilla, 31 octubre 2018 - 02:51 .

  • Volver arriba
    • vilax ha dado sus dieses

  • vilax

  • SPARTAN-II

  • vida restante: 100%
  • Registrado: 28 mar 2016
  • Mensajes: 2.240
#21

Escrito 31 octubre 2018 - 17:09

Yo también estoy hablando de futuras gráficas, en que nodo una futura gráfica mainstream podría ofrecer los 288 rt cores que se necesitan para un efecto (cuatro simultáneos ni en sueños). Hoy día $250 usd te darían para 18rt. En 7nm podrían acomodar el doble por el mismo precio... buenos para unos reflejitos a 30fps y 1080p (fácil estimar debido al funcionamiento paralelo de este tipo de núcleos. 72rt para 1080p/60fps con un efecto es el target de square y Dice, en Piranha van a 30fps con dos efectos a 1080p). Pero de ahí en delante, 5nm y 3nm se presumen harto complicados y posiblemente caros, pero suponiendo que de alguna manera sale bien, los 1.5nm se ubican hasta el 2030... la capacidad actual RT de la 2080ti no alcanzaría el mainstream hasta dentro de 12 años... ¿Y quién coño va a querer jugar a 4k con 15fps en el 2030 para tener un reflejo ray tracing?  X-D ... entonces si llega a ser posible tener un par de efectos RT en el mainstream no sería sino hasta que las gpu vengan con procesadores quánticos o lo que siga, por lo tanto creer que estamos soportando la tecnología es dudoso, estas arquitecturas estarán totalmente abandonadas para entonces  X-D

 

Bueno, solo me gustaría que la gente que dice que el rt es el futuro lo pensase un poquito más. Hay un video por ahí de Neil Degrasse Tyson donde pone muchos ejemplos sobre como la gente tiende a infra-predecir el alcance de la tecnología, hasta cierto punto donde se le muestra algo trabajando, de ahí en delante la mente se fuga y empieza a sobre-profetizar de maneras totalmente alucinantes  8D

Tienes buena parte de razon, esta claro que el avance tecnologico que vamos a vivir en los proximos 20 años no sera igual al que hemos visto en estos ultimos 20 años. Igual no hay que ser tan optimista pero... yo tampoco seria tan pesimista.

Titan V, gpu size = 815mm2

2080ti, gpu size = 754mm2

Ambas en 12nm.

 

En RT la 2080ti cuadriplica a la titan V, que vaya, no tiene RT cores, pero ya veis, nvidia se las ha ingeniado para meter hardware dedicado a la turing para aumentar por 4 el rendimiento en ese campo, teniendo un rendimiento superior en rasterizacion y reduciendo un poco el tamaño del die. Esto ha sido de una generacion a otra, y el avance en RT no lo veo nada mal.

Ademas, si al final la iluminacion por RT se acaba imponiendo, los shaders ya no seran tan importantes, buena parte del gpu que ahora mismo se comen los shaders podria ser ocupado por RT y tensor cores. No solo eso, sacarse de la manga RT cores que tambien puedan hacer el trabajo de los actuales shaders y directamente mandar los shaders a tomar por culo; un poco como en su dia cuando teniamos los pixel y vertex shaders totalmente separados y "crearon" los unified shaders, esto ya se escapa a mi entender si es posible o no.

Claro esta, esto ultimo ya son paranoias mentales mias, como dices, profetizaciones de una mente ida.


Spoiler
  • Volver arriba

  • Lukilla

  • Lord Boros

  • vida restante: 100%
  • Registrado: 09 ene 2006
  • Mensajes: 7.745
#22

Escrito 31 octubre 2018 - 18:36

Pero no veo nada especial con respecto a la titan V, rinde mejor en juegos porque tiene mucho más boost y aunque han metido la capacidad para 4x el rendimiento en ray tracing, han dejado el cálculo de doble precisión en 1/17 (420gflops vs. 7450gflops). Ha sido una cosa por la otra, no se han sacado nada de la manga, no hay magia aquí.

 

Y la rasterización y los shaders no se van a ir a ningún lado, incluso las animaciones de pixar y dreamworks siguen usándolos. 

 

Lo más rápido que reviente el RT, mejor.  8O


  • Volver arriba

#23

Escrito 31 octubre 2018 - 21:19

Despues de leeros....creo que mi 1070 se va a quedar muuuuucho tiempo donde está y me pararé un poco para actualizar el pc del crio,tendrá que apañarse con la 750ti por un tiempo.


  • Volver arriba

  • Lans156

  • HARENA TIGRIS

  • vida restante: 100%
  • Registrado: 07 ago 2004
  • Mensajes: 9.411
#24

Escrito 31 octubre 2018 - 21:32

Con cosas peores hemos jugado siendo crios. Una 750ti es una gráfica bastante competente
  • Volver arriba

  • Ludvik

  • Diosas de Oro

  • vida restante: 100%
  • Registrado: 13 jun 2006
  • Mensajes: 2.155
#25

Escrito 01 noviembre 2018 - 00:51

Con cosas peores hemos jugado siendo crios. Una 750ti es una gráfica bastante competente

 

Y con cosas peores no hemos podido jugar. Es a lo que yo me refería. Hace diez, quince años, una gráfica te duraba X tiempo, y después ni bajar gráficos ni nada, simplemente no era capaz de correr nada, a los cinco años simplemente no tenía potencia suficiente para el software.

 

Hoy en día, con una 750ti, ¿cuál es el problema? ¿Que a 1080 corre los juegos a 30fps? ¿Que hay que bajar un poco los detalles? Es una gráfica que simplemente funciona. De hecho rinde apenas un poquito menos que una 1050.

 

¿No es precisamente ahora cuando más merece la pena jugar en PC? Prácticamente llegan todos los juegos, apenas hace falta invertir a lo largo del tiempo, y con poco se iguala técnicamente a las consolas actuales (y con poco me refiero a un ordenador de gama media-alta del 2012...).

 

Como dicen por ahí, yo entiendo la frustración, porque de hecho a mí también me molesta mucho esta situación con los precios de las gráficas y la ram. Lo que no quita que sea un gran momento a nivel de equilibrio software/hardware. 

 

Lo dicho, a más de uno se le haría el culo pepsicola hace años si las gráficas de entonces aguantaran tanto como una 750ti hoy en día... Yo tenía una radeon 9600xt que compré a principios del 2004. En 2007, 3 años después, ponías el Crysis, (o un COD4, sin irme a lo más bestia) y la gráfica simplemente te decía que no... en 3 años, si no actualizabas, no jugabas.

 

Si pienso en aquella época, y pienso ahora que mi 280X corre todo sin despeinarse, y según cuales y con qué configuración, a 60fps y 2560x1080, y alguien me dice que es la peor época para jugar en PC porque las gráficas son muy caras, pues... me entra la risa floja...

 

Todo será cuestión de ver qué pasa con el cambio de generación en consolas el año que viene, o dentro de dos a muy tardar.


  • Volver arriba
    • vilax ha dado sus dieses

  • vilax

  • SPARTAN-II

  • vida restante: 100%
  • Registrado: 28 mar 2016
  • Mensajes: 2.240
#26

Escrito 01 noviembre 2018 - 10:51

Y con cosas peores no hemos podido jugar. Es a lo que yo me refería. Hace diez, quince años, una gráfica te duraba X tiempo, y después ni bajar gráficos ni nada, simplemente no era capaz de correr nada, a los cinco años simplemente no tenía potencia suficiente para el software.

 

Hoy en día, con una 750ti, ¿cuál es el problema? ¿Que a 1080 corre los juegos a 30fps? ¿Que hay que bajar un poco los detalles? Es una gráfica que simplemente funciona. De hecho rinde apenas un poquito menos que una 1050.

 

¿No es precisamente ahora cuando más merece la pena jugar en PC? Prácticamente llegan todos los juegos, apenas hace falta invertir a lo largo del tiempo, y con poco se iguala técnicamente a las consolas actuales (y con poco me refiero a un ordenador de gama media-alta del 2012...).

 

Como dicen por ahí, yo entiendo la frustración, porque de hecho a mí también me molesta mucho esta situación con los precios de las gráficas y la ram. Lo que no quita que sea un gran momento a nivel de equilibrio software/hardware. 

 

Lo dicho, a más de uno se le haría el culo pepsicola hace años si las gráficas de entonces aguantaran tanto como una 750ti hoy en día... Yo tenía una radeon 9600xt que compré a principios del 2004. En 2007, 3 años después, ponías el Crysis, (o un COD4, sin irme a lo más bestia) y la gráfica simplemente te decía que no... en 3 años, si no actualizabas, no jugabas.

 

Si pienso en aquella época, y pienso ahora que mi 280X corre todo sin despeinarse, y según cuales y con qué configuración, a 60fps y 2560x1080, y alguien me dice que es la peor época para jugar en PC porque las gráficas son muy caras, pues... me entra la risa floja...

 

Todo será cuestión de ver qué pasa con el cambio de generación en consolas el año que viene, o dentro de dos a muy tardar.

No puedo estar mas deacuerdo.

 

Ademas es algo que no entiendo, se alaba de las consolas precisamente eso, que te las compras y juegas sin cambiar nada una buena temporada. Ahora, que alguien con un micro como un i7 2600x (8 añazos) y una grafica como una r9 280-290 (5 años) puede jugar a todo, como bien dices, ¿no lo vemos bien? Siempre lo dire, el problema de los usuarios de PC es que somos unos ansias, y a la minima queremos cambiar.

 

Oye es una pasada, que ps4 pro mueve 4k (mas bien 2k) y la one x tambien!, leñe, no te jode, salieron el año pasado y montan una grafica basada en polaris, similar a una rx580 (en el caso de la X incluso mejor). Yo no veo tanta brujeria, a una 580 le metes juegos a 2k y en muchos casos los mueve a 60fps o si es muy exigente a 30fps; le metes 4k y en buena parte de casos los mueve a 30fps, igual que una ps4 pro. La brujeria es que eso lo hicieran la ps4 o one originales, sin embargo estas desde que salieron llevan moviendose en el rango del 720/1080p (y con graficos recortados respecto a las pro y X).

Lo unico de alabar de esas consolas vitaminadas es que te ofrecen eso por poco mas 300-400€ y en pc una 580 de 8gb ella solita ya son, ahora mismo, unos 260-300€.


Editado por vilax, 01 noviembre 2018 - 10:54 .

Spoiler
  • Volver arriba

  • Sr.COCO

  • Graff

  • vida restante: 100%
  • Registrado: 14 feb 2018
  • Mensajes: 774
#27

Escrito 01 noviembre 2018 - 14:06

Yo tengo un tira y afloja con el tema PC gaming y no tiene nada que ver directamente con lo que se habla. Propongo otro debate. El streaming es el futuro, eso lo tenemos claro, pero en el caso de Microsoft y Sony ambos tienen la propiedad de las licencias que venden (de sus juegos, no los thirds). Está claro que Valve podría hacer su Stream también, pero Valve no es propietaria de lo que vende en Steam (quitando lo suyo, que si comparamos es mucho menor que los dos citados (que no en calidad ojo). Yo me planteo dejar el PCGaming por esto, vosotros que opináis?
  • Volver arriba

  • vilax

  • SPARTAN-II

  • vida restante: 100%
  • Registrado: 28 mar 2016
  • Mensajes: 2.240
#28

Escrito 01 noviembre 2018 - 20:58

El streaming es el futuro, eso lo tenemos claro

 

:sisi: Pues si, ya se ve como lo estan petando los servicios de streaming de geforce now, ps now y jump. 


Editado por vilax, 01 noviembre 2018 - 20:58 .

Spoiler
  • Volver arriba

#29

Escrito 01 noviembre 2018 - 22:08

Yo tengo un tira y afloja con el tema PC gaming y no tiene nada que ver directamente con lo que se habla. Propongo otro debate. El streaming es el futuro, eso lo tenemos claro, pero en el caso de Microsoft y Sony ambos tienen la propiedad de las licencias que venden (de sus juegos, no los thirds). Está claro que Valve podría hacer su Stream también, pero Valve no es propietaria de lo que vende en Steam (quitando lo suyo, que si comparamos es mucho menor que los dos citados (que no en calidad ojo). Yo me planteo dejar el PCGaming por esto, vosotros que opináis?

 

Es el futuro, si, que se lo digan a OnLive...

 

Respecto a que estamos en una epoca gloriosa porque se puede jugar a 1080p (resolucion mierder de plataforma peasant) con un PC del año de la polka, por favor..., es que hoy en dia deberiamos estar jugando a 4K con un equipo normalito, esa deberia ser la resolucion estandar ya en PC a estas alturas.

 

En la epoca del Crysis tambien podias jugarlo con un PC del año de la pera a resolucion peasant de la epoca, esto es, 480p, todo al minimo, framerate ridiculo..., yo lo jugue en un PIV@3'4GHz y una ATI X1950XT, procesador que salio 3 años antes que el juego y GPU lanzada 1 año antes.

 

Tambien me funcionaba en mi PIV@3'06GHz, procesador que contaba ya con 5 años y su ATI X800 pro, con 3 años, a 1280x1024 ajustes en bajo/medio y framerate rondando los 30fps salvo la parte final donde se arrastraba miserablemente. Y esto el Crysis, que tecnologicamente no es nada comparable a cualquier cosa que haya venido detras, esta a años luz comparativamente.

 

Asi que no, definitivamente no es una buena epoca para el PC por mucho que algunos a estas alturas se conformen con jugar a 1080p a 30fps y todo al minimo.


Editado por Wedge Antilles, 01 noviembre 2018 - 22:12 .

  • Volver arriba

  • Lans156

  • HARENA TIGRIS

  • vida restante: 100%
  • Registrado: 07 ago 2004
  • Mensajes: 9.411
#30

Escrito 01 noviembre 2018 - 22:29

Yo jugué en su día a Crysis en una 9550pro subida hasta las trancas, 2 gbs de RAM y un athlon 3200+. A 640.480 arrastrándose cosa mala.

Estoy de acuerdo con Wedge. Llevamos jugando a 1080p muchos años y estamos un poco estancados.
  • Volver arriba


  • Por favor identifícate para escribir un tema
  • Por favor identifícate para responder
publicidad

0 usuarios están leyendo este tema

0 miembros, 0 invitados, 0 usuarios anónimos