Jump to content
  • Buscar en
    • Más opciones...
    Encontrar resultados que contengan...
    Encontrar resultados en...

Ashtyr

vida restante: 100%
  • Contenido

    5.442
  • Ingreso

  • Última visita

Reputación comunidad

1.297 Excellent

Acerca de Ashtyr

  • Rango
    PRAESIDIUM VIGILO

Visitantes recientes al perfil

6.419 visitas al perfil
  1. La memoria tiene una velocidad fija, y es inferior en PS5 , lo que dice ahi es que no hay por donde cogerlo. Luego lo resaltado en negrita , ya me diras de donde lo has sacado 3.8 Ghz con 8 cores 8 hilos 3,66 Ghz 8 cores 17 hilos Por cierto si hacemos caso a esto PS5 no tendria SMT, no?
  2. Dentro de unos años cuando alguno vaya a usar su PS4 y vea que el mando ya no funciona por culpa de la bateria veras tu que risas, y eso sin hablar de los que ya la bateria les dure muchisimo menos que cuando estaba nueva. Pues pongo el cable !!!, te diran, no sera mejor sencillamente ponerle dos pilas y a jugar no., que va. Y encima es que las baterias son dos pilas recargables en una carcasa
  3. Muchaso USO, USO, tu puedes poner 3,5 GHZ y dejarla ahi que si no se usa no consumira y claro puedes desviar Watios a la GPU, pero encunato se use no podra mantener esa velocidad en ambas al maximo. En serio que es de primero de OC esto. Que si venga para ti la perra gorda si la GPU y la CPU se estan tocando los huevos a dos manos si , podran poner ambas al maximo si, ahora en cuanto tengan trabajo y ambos empiezen a chupar watios se acabo lo que se daba.
  4. Es que no lo estas entendiendo , SONY dice que el SOC tiene un consumo fijo, luego que la mayor parte del consumo va destinadoa a la GPU, es obvio. Te pone que para que uno pueda subir el otro no tiene que estar al maximo, por eso te dice que cuando uno no este usando todo su... llamemosle potencial, el que no use se puede destinar al otro, esto lo hace de forma automatica la consola, Luego lo que te dice es que voluntariamente un desarrollador puede capar uno de ellos a la frecuencia X para mantener el otro al maximo o subido o como quiera siempre, pero siempre con un consumo maximo que no puede pasar, y sigue sin decir en ningun momento que puedan estar ambos al maximo, y si deja bien claro al principio que para que uno este al maximo el otro no ha de estarlo. Un saludo
  5. Si es para la PS5 y realmente no tienes urgencia por cambiar, en plan se me ha roto la Tv , yo esperaria.
  6. Por fiarme me fio mas de la casa del televisor, la otra no se ni de donde sale, pero ya como tu veas. Y tela con lo que tenias, ojo que ese plasma es una bestia parda, pero claro es 1080p, y para jugar te la juegas nunca mejor dicho. Pues vas a perder en algunas cosas y ganaras en otras, pero ten en cuenta que no estas comprando una gama alta, mas bien media/baja Si pudieras estirarte mas .. .pero con 800 euros es lo que hay
  7. La parte violeta en la SONY es un reflejo de una lampara no es de la imagen, junto al blooming tienes contaminacion de las barras negras, Es una lastima, pero si no vas a verla a oscuras no es tan importante, pero el modo juego si es mejor en la q70 de todos modos
  8. Si pero no tiene ni modo de baja latencia ni variable refresh rate, ojo sobre todo a esto ultimo que para jugar es importante, ni tampoco panel de 120hz, aunque no sea a 4k . En resumen mejor la Q70y ya desde un punto de vista de ver peliculas, la SONy tiene un problema de blooming mucho mas acusado que la q70, pero mucho Un saludo
  9. Vale , voy a suponer que te la vas a comprar YA, osea que lo que te digo es a precios de hoy . Con 800 euros , y supongo que 55" pues te acota mucho la cosa Que al menos tengas VRR y ALLM, que tengas un buen panel VA, soporta 120Hz hasta 1440p , buenos negros y buen HDR pues esta es tu TV Q70R https://www.rtings.com/tv/reviews/samsung/q70-q70r-qled La tienes a poco mas de ese precio en "la casa del televisor" No es perfecta, tiene sus fallos pero por 800 euros que su uso sea juegos y peliculas, no veo nada mejor ahora mismo.
  10. Tienes un poco de lio con este tema si me permites te lo explico. Dolby vision se penso como un estandar de futuro, por eso sus limites estan pensados para televisiones que no estan disponibles ni estaran en muchos, muchos años. EN concreto DV, llegas hasta 12 bits de color y 10000 nits , actualmente no hay TV con paneles de 12 bits ni evidentemente van a mostrar 12 bits de color, pero el digamoslo asi estandar ya lo soporta para cuando esten esas Televisiones disponibles. Vale ahora mismo hay tres formatos, vamos a obviar HLG, y cosas como los distintos parametros que se aplican segun sea un LED o un OLED, HDR 10, es el primero y mas basico, simplemente pide 1000 nits de brillo y no tiene metadatos dinamicos, esto quiere decir que al principio de la reproduccion se marcaran unos valores que se mantendran durante toda la pelicula. DOLBY VISION como bien dices creado por Laboratorios Dolby, ya dije que esta pensado para que aguante el paso del tiempo por eso llega a valores actualmente irrealizables para cualquier TV, hablo de memoria en este pero creo que iba desde 0,05 nits hasta los 10000, y soporta metadatos dinamicos, es decir escena a escena la Tv se ajusta para representar mejor la imagen. Y si es de pago HDR10 + actualizacion del viejo HDR10 aumenta su soporte hasta los 4000 nits, y añade igual que el DV metadatos dinamicos, sigue siendo gratuito. Vale si hubieran paneles capaces de aprovechar el DV si se notaria una diferencia, pero no es el caso. Se han hecho varias comparayivas y las diferencias son tan minimas que diria que es imposible notarlas si no tienes las dos imagenes una al lado de la otra, y encima para mas INRI en algunas ocasiones gana uno y en otras otro, aqui os dejo una entre HDR10 , el basico, y dolby vision Contra HDR10+ la cosa es aun mas pareja. Vale entonces por que es importante el tenerlo o no? Pues simple, la mayoria de peliculas se masterizan desde 1000 a 4000 nits, esto es mas de lo que pueden la mayoria de la TV asi que para poder representarlas lo mejor posible se usa el Tone mapping, esto a groso modo es que el tlevisior analiza la señal de entrada y la intenta adecuar a sus limites, aqui hay algunas marcas que por ejemplo si su TV tiene 800 nits pues lo que pase de ahi lo clipea ( quema) y arreando, otros lo ignoran, otros lo muestran pero bajando el brillo etc etc etc Pues para eso es importante que este, ya que como cada fabricante puede hacer lo que le salga del.... y a saber como lo hacen pues mejor que sigan unas reglas impuestas como son DV o el HDR10+. Vale entonces por que dices que cuantos mas nits tenga un televisor es menos importante que este? Pues muy facil, cuanto mas nits tenga la TV menos tone mapping tendra que hacer, asi que mas fiel sera la imagen respecto a la original Y os dejo este ejemplo de una misma escena en dos televisiones diferentes, una tiene mas del doble de nits que la otra, lo que le permite mostrar las partes altas de la imagen, mientras que en el que tiene menos clippea la imagen quemando el detalle. Si, el tone mapping no hace milagros, se me olvido decirlo, ayuda pero milagros no.
  11. Si se hubiera cuidado esto cuando se debia, pero en su lugar se dejo barra libre para reirse de la gente, para ridiculizar al "contrario" y que basicamente todos los hilos fueran una puta mierda, era imposible sacar algo serio de aqui, solo insultos risas, y gilipolleces. Al final la gente normal se larga y te quedas con los gilipollas, y claro cuando ya solo quedan ellos a ver de quien se rien, y encima esa gente no te da un valor al foro, ni te va a traer hilos interesante ni nada de nada, asi que aburridos tambien ellos se piran. Si quedan los hilos oficiales pero es dificil seguirlos, y preguntar algo muchas veces se queda sin respuesta entre mensajes varios, y abrir un hilo especifico era como agitar un avispero, no valia la pena. En fin que si pasa y chapan esto no sera por que no se lo buscaron, ya sea por accion u omision.
  12. Si claro es con HDR, y es con diferencia el mejor HDR que he visto. Por eso os digo que si vais a cambiar de TV o monitor aseguraros de que tenga un buen HDR, es lo que realmente marca la diferencia.
  13. De todos los juegos que he probado tiene el mejor HDR con diferencia ABISMAL, sobre el resto, ahi juegos como Gears 5 que tiene momentos increíbles, pero otros que bluff. Pero este es increíble en cualquier momento, jugarlo en una TV con un buen HDR es como la noche y el día, brutal es poco. De verdad si tenéis que compraros una TV ahorrar hasta poder tener algo bueno, lo agradecereis a cada segundo. Un saludo.
  14. Me he puesto con el tale of a plague, de momento me ha gustado mucho, eso sí en la one S tiene un tearing para morirse, no lo hubiera notado si no fuera porque estaba fuera del modo juego, al entrar en el el freesync lo elimina por completo, pero joder el que no tenga esa posibilidad, te corta los ojos!!!.
  • Crear nuevo...