Jump to content
  • Buscar en
    • Más opciones...
    Encontrar resultados que contengan...
    Encontrar resultados en...

vilax

vida restante: 100%
  • Contenido

    3.000
  • Ingreso

  • Última visita

Reputación comunidad

1.274 Excellent

2 Seguidores

Acerca de vilax

  • Rango
    Corneria

Visitantes recientes al perfil

5.763 visitas al perfil
  1. Lo que te han dicho, esperate a ver que pasa con las nuevas AMD que sobre el papel pintan bastante bien y si AMD no mete la pata con el stock puede ser mejor opcion que las inexistentes graficas de nvidia.
  2. No lo deja del todo claro, Lisa su se limito a enseñar la grafica y decir que es la radeon 6000 series y segun ella, tal como ha dicho Cosi do do, la grafica mas potente de AMD hasta la fecha, para luego pasar a dar cifras de fps en borderlands, COD MW y gears 5 a 4k, como todo, tocara esperar, pero vamos, una grafica con 16gb de vram y un rendimiento a medio camino entre la 3070 y 3080 (o mas bien proximo a esta) si el precio es bueno...
  3. Para rematar un pequeño preview de lo que podemos esperar de big navi. Por curiosidad, echandole un ojo a las reviews de la 3080 donde salen el borderlands 3 y gears nos encontramos tal que asi. Borderlands 4k Big navi 61fps - 3080 70fps Gears 5 Big navi 73fps - 3080 84fps Asi que ni tan mal, a falta de ver rendimiento en RT. parece que se quedara algo por debajo de la 3080, pero no pinta nada mal, si el precio es el correcto y no hay problemas de stock ni drivers AMD puede meterle un buen bocado al mercado de gpus.
  4. Pues por ahora pintan tremendos los zen 3. Prometen un 19 de incremento de ipc y por las palabras de Lisa Su tiene pinta de que se van a llevar de calle el unico baluarte que le quedaba a intel, el rendimiento single thread. Parece que lo mas importante es que AMD se ha cargado la configuracion por CCX de los dies con las 2 memorias cache L3 compartidas, pasando a dies con un diseño mas "monolitico" con una unica memoria L3, esto deberia reducir notablemente las latencias y probablemente de ahi venga buena parte de ese ipc del que hablan.
  5. Si te ves el hilo e investigas un poco en las paginas especializadas donde se esta analizando en detalle el tema te vas a encontrar que tiene todo el sentido del mundo que hubiera graficas con problemas y otras con no y que se haya solucionado con un simple driver. Antes el boost llegaba a picos momentaneos que no todas las graficas aguantaba, no todos los chips salen igual de buenos, y unos, y seguramente por los pelos, aguantaban esos picos mientras que otras no. Los condensadores solo eran la guinda del pastel por que estos ayudan a dar un plus de estabilidad.
  6. Sacado de guru3D. En la pagina ponen una grafica comparativa de la diferencia en el comportamiento de las frecuencias antes y despues del nuevo driver. Basicamente antes con los antiguos drivers los boost llegaban a superar los 2050mhz, salta a la vista que esto es algo que solo las graficas que saliesen muy buenas podian aguantar. Con los nuevos drivers el boost el pico maximo parece situarse un poco por debajo. Dicen haber retestado los benchmarks y la perdida de rendimiento parece ser practicamente nula, supongo que sera normal si esos boost eran algo esporadico.
  7. No me veras a mi alabar las FE en cuanto a su montaje nunca. No tienes mas que buscar post mios en los que digo que nunca me pillaria una por que para desmontar son de lo peor y el hecho de que tengan pegamento para cerrarlas es imperdonable. Pero no se que tendra que ver con el tema del problema de estabilidad y como se ha solucionado. Supongo que solo quieres poner mierda por poner.
  8. Botech news (alias no lo conoce ni su p. madre) vs derbauer (probablemente uno de los tios que mas controlan de temas de hardware) Dejame que piense en que fuente me voy a mirar y creer...
  9. No, el problema es que el boost de nvidia era muy agresivo. Este boost es dinamico y pone la grafica a ciertas velocidades segun las condiciones en las que se encuentresn (carga, temperatura, consumo...) y estos boost se estaban pasando de frenada, nvidia lo que parece haber hecho es no dejar que haga esos boost tan brutos. La historia de los capacitadores al final parece que es lo que indicaban en igors lab, solo una pieza mas del puzle. Los MLCC a vistas de las pruebas de derbauer ayudan, no gran cosa, pero parece que pueden marcar la diferencia entre que la grafica aguante 20 o 30mhz mas, de ahi tal vez que las graficas con soluciones con mas MLCC no tuviesen tantos problemas (que los habia igualmente). Luego ya es añadir a la ecuacion la calidad de los chips de cada grafica. Gente a la que le toco buenos chips muy buenos o normalillos pero con buenos capacitadores no habran tenido problemas. Puede que hasta gente con malos capacidtadores pero muy buenos chips no hayan experimentado esos problemas. Luego estaran los que no han tenido chips tan buenos o chips normalillos y capacitadores malos.
  10. Como han dicho ya, una cagada igualmente y se nota la falta de testeo que han tenido las graficas con la marea de usuarios con problemas que se han visto, incluso en samples enviadas a reviews que a estos casos suelen ser graficas escogidas. Con un minimo de testeo estas cosas se tenian que haber detectado antes del lanzamiento y estar mas que corregidas, al final los usuarios haciendo el trabajo de control de calidad. Y si, aun con todo yo intentare irme a por una grafica con la supuesta mejor eleccion de capacitadores.
  11. Puedes bloquear el framerate a lo que quieras, el freesync seguira funcionando, siempre que no marques un limite muy bajo no soportado por el monitor. Los hz del monitor igualmente, puedes poner los que quieras mientras el monitor lo soporte, como por ejemplo pillar un monitor de 144hz y ponerlo a funcionar a 60hz. Aunque en este caso es innecesario, lo mas normal es que lo tengas siempre al maximo de hz y si un juego no llega a ese maximo y no quieres oscilaciones te basta con limitar los fps. ¿por que? pues por que tanto con freesync como gsync el monitor ajusta los hz al vuelo a para igualar la tasa de fps de la grafica, con lo que al limitar un juego a 60fps, aunque el monitor lo tengas puesto a 75hz, el monitor estara funcionando a 60hz. Y jugar a 30fps con los hz a 30 tambien, pero segun el monitor tal vez el freesync no funcione. Tanto freesync como gsync tienen un rango de funcionamiento de hz minimos (este varia segun el monitor), lo que te comente en el primer punto. Por poner un ejemplo, si el rango minimo del monitor son 35hz si juegas a menos de 35fps el freesync no funcionara, en ese caso el monitor pasara a funcionar como uno normal. Sobre lo de freesync con nvidia ya no estoy tan puesto, pero estoy seguro de que Cosy do do te puede orientar sin problemas.
  12. Algunos, como siempre y como ha dicho ray, sacando las cosas de contexto y llevandolas al extremo. No hay graficas explotando, ni ardiendo, ni es un problema imposible de solucionar, de hecho las que hay, aunque sea una mierda, es solucionable via driver o actualizacion de bios por que es cosa de evitar que la grafica se acerque a los 2ghz. En las proximas remesas de graficas este asunto deberia quedar en una anecdota como ya tiene pasado otras veces. Y con esto no le quiero sacar hierro al asunto, las cagadas en este mudillo, sean de quien sean, no son para excusarlas y soy el primero en criticarlas, pero querer convertirlo en una hecatombe... Yo, en cuanto lleguen los modelos con 20gb de la 3080 me pillare una, entre otras cosas por que con el monitor que tengo una AMD me supondria tirar por la borda la frecuencia adaptable y para entonces deberian estar exentas de problemas.
  13. Pues es como se tendra que arreglar, si es cosa de configuracion de capacitadores + calidad del chip, como apuntan desde Igors lab, la unica solucion sera bajar frecuencias para que no sobrepasen los 2000mhz en las graficas que ya hay en circulacion y posteriormente, con las graficas que fabriquen de aqui en adelante, testear mejor los chips para binearlos. Si estan petando tambien graficas FE y TUF de asus, como se comenta por ahi, no se reduce solo a una cuestion de capacitadores. Pero tranquilo, que en unos meses nadie se acordara, igual que la gente se olvido de los problemas iniciales con las RTX 2000 y volveran los comentarios de cuñado de siempre de que nvidia es la repolla por que son fiables a mas no poder. Como ya dije en otro hilo, en todos lados cuece habas. A ver que tal el lanzamiento de RDNA 2.0 por que ahora tiene la oportunidad de dar buena imagen, esperemos que no se repitan los fallos de RDNA 1.0 por que entre los disipadores, tanto de referencia como los custom, y el desastre de los drivers, la cosa no fue mucho mejor que este lanzamiento de nvidia. Supongo que la moraleja es que, ante nuevo hardware lo mejor es esperar, minimo, unas semanas.
  14. Algunos medios, como hardware unboxed, ya han dicho que tambien han tenido problemas con las tuf de asus y las FE, asi que no solo es cosa de los capacitadores que hayan usado. En igors lab, el que primero se fijo en el tema de los capacitadores, dicen que seguramente es una suma de capacitadores + calidad del chip, en otras palabras, graficas con la configuracion de capacitadores "mala" pueden no dar ningun problema por tener chips muy buenos mientras que otras con configuraciones de capacitadores "buenas" pueden tener igualmente problemas al tocar un chip regulero. Lo mejor por ahora es dejarlas en las estanterias un tiempo y que la cosa se aclare, y asi de paso llegan las AMD y los modelos de nvidia con mas vram. De todas formas yo el dia de mañana, visto el tema de los capacitadores, por si las moscas intetare pillar una asus tuf o al menos una con la misma configuracion que las FE de nvidia. Una chapuza de lanzamiento.
  15. Pues si que esta bien el panorama para comprarse una, menuda chapuza de lanzamiento.
  • Crear nuevo...