Jump to content
  • Buscar en
    • Más opciones...
    Encontrar resultados que contengan...
    Encontrar resultados en...
Enyap

Ampere un poco más cerca. Hilo Oficial. Rumores, noticias.

Publicaciones recomendadas

vilax Corneria

Publicado
vida restante: 100%
Publicado (editado)
hace 1 hora, Enyap dijo:

En el caso contrario, si respetasen miméticamente el esquema de Turing, Ampere debería llevar, para alcanzar esos 8192 shaders, 10 cluster lo que daría 120 SM y nos quedarían en el aire 8 para obtener esos 8192 shaders, con lo cual las cuentas no salen por esta vía.

 

Manteniendo el esquema actual tendrian que irse a minimo 12 clusters (10 clusters y 120sm nos darian 7680 shaders) , y ya se nos dispara la cuenta hasta los 144sm y 9216 shaders, que me parecen cifras mareantes. Esa ti vendria con 16 sm capados.

Aunque tambien podriamos estar ante un aumento de sm por cluster. Manteniendo los 64 shaders por sm, si nos vamos a 16 sm por cluster con 8 clusters tenemos exactamente esos 128sm y 8192 shaders del rumor, pero esto ya supone una ti sin capar, vuelvo a repetir que este caso lo veo poco probable.

Otra posibilidad, 14sm por cluster y 10 clusters nos dan un total de 140sm/8960 shaders, lo que nos supondria una ti con un recorte de 12 sm.

 

Lo cierto es que si nos ponemos a hacer conjeruras posibilidades hay muchas, mientras lo que se nos pase por la cabeza sea un chip con un diseño simetrico. El caso es que los 7nm den para eso.

Cuando echo un ojo a la reduccion de tamaño que hubo entre la vega 64 y la readeon VII, que creo son el mismo die, supuso pasar de 495mm2 a 331mm2 y no habamos de un salto de 12 a 7nm, si no de los 14 a los 7nm.

Si turing no fuese exageradamente grande pues podria pensar que, oye, practicamente duplicamos componentes, no nos da para mantener tamaño (ya no digamos reducirlo) pero lo hacemos un poco mas grande y listo. Pero es que en este caso, si lo hacen un poco mas grande, a cuanto se va la cosa? que se quedan sin pcb los pobres 🤣.

 

No se, como he dicho, no soy un experto, seguro que hay algo que se me escapa por que hay mucho que desconozco del tema y lo mismo la ti si sale asi y ampere sin capar es aun mas bestia.

Las nuevas consolas estan a la vuelta de la esquina, pintan bastante compententes y big navi se ve muy bien, igual nvidia pone toda la carne en el asador para mantener la corona de la gpu mas ponente, aunque sea a base de hacer un die del tamaño de un puño.

Editado por vilax

 

Spoiler

 

MB Asus x370 prime CPU 3900x GPU MSI 1080ti sea hawk

RAM 32gb ddr4 gskill 3666mhz T. SONIDO Creative X-Fi Z

SSD Crucial MX200 500gb, Sandisk Ultra II 960gb, Crucial MX500 2Tb  HD WD velociraptor 512gb

PSU Superflower Leadex 1600w Gold TORRECorsair 900D 

RL EK supremacy, Feser one TFC Xchanger quad + Alphacool nexos triple, Laing D5, Primochill phase II

Monitor Predator XB273K 27" Altavoces Edifier R1700BT Cascos Steelseries siberia v2

Teclado Steelseries Apex Raw Raton Logitech G502 proteus

 

Compartir este mensaje


Enlace al mensaje
Compartir en otros sitios web

Enyap Shin Chan Piong Lee

Publicado
vida restante: 100%
Publicado (editado)
hace 2 horas, vilax dijo:

10 clusters y 120sm nos darian 7680 shaders

Cierto. Ahí me he columpiado 😉

Yo sinceramente, igual que tú, veo que las cábalas son cábalas. Y el que ha lanzado esa estimación debe ver las cosas bajo el prisma de  "el burro grande ande o no ande"

Creo que Nvidia va a ser bastante más conservadora de lo que esa filtración deja entrever. No porque no se pueda llegar a obtener un chip de esas características en 7nm manteniendo unas dimensiones excepcionalmente grandes -en torno a los 800mm2- sino porque creo que les interesa potenciar sobre todo el músculo RT y más sabiendo que AMD esta vez cuenta con un chip potente y va a ir a la guerra en este mismo terreno.

A los verdes les interesa además reducir el tamaño del Die todo lo que pueda para sacar más unidades funcionales por oblea y menos tragonas. Con el tamaño actual, producir núcleos completos o casi completos es muy caro y por mucho que Jesús Juan se ponga en modo sonrisas de cara a la prensa mundial, no creo que esté contento con el número de unidades vendidas de la gama RTX, ni con sus márgenes de beneficios).

Espero que se ponga remedio en esta nueva generación.

Yo daría más crédito a un chip de 6 clusters con 14SM doblando núcleos RT. Lo veo mucho más factible y se movería en los valores teóricos de Big Navy, aunque ahí nos queda por ver lo principal, mejoras arquitecturales como la fragmentación de los TPCs, la organización de esos bloques de procesamiento y su forma de manejar datos, y la jerarquía de memoria. Factores a pulir  si no quiere verse sorprendida por RDNA2, (que no todo es meter SM a saco). 😁

Hablando de la memoria y concretamente de la Vram, es un componente sobre el que nadie ha respirado y creo que va a hacer falta mucha y muy rápida. Espero que cantidades de 12 y 16Gb de Vram sean algo normal en esta nueva generación. No entendería una RTX 3070 otra vez con los exiguos 8GB de Pascal y Turing.

 

Por cierto, si 800mm2 nos parecían grandes, no sabría que pensar de este Intel XE-HP que ha filtrado Intel.

3700mm2 🤣

Según comenta Raja Koduri. es "el padre de todas las GPUs".

spacer.png

https://videocardz.com/newz/intel-teases-xe-hp-graphics-processor-father-of-all-gpus

 

Editado por Enyap

spacer.png

Compartir este mensaje


Enlace al mensaje
Compartir en otros sitios web

vilax Corneria

Publicado
vida restante: 100%
hace 37 minutos, Enyap dijo:

Por cierto, si 800mm2 nos parecían grandes, no sabría que pensar de este Intel XE-HP que ha filtrado Intel.

3700mm2 🤣

Según comenta Raja Koduri. es "el padre de todas las GPUs".

spacer.png

https://videocardz.com/newz/intel-teases-xe-hp-graphics-processor-father-of-all-gpus

 

Lo de la fotico de Raja mete miedo, aunque puede que estemos ante una solucion MCM e imagino que dirigido a entornos profesionales. Es algo que, aunque en conjunto sea grande, siempre es mas barato y facil de producir que no un chip monolitico, como es el caso de AMD con sus zen que le ha permitido llegar a cifras que parecian imposibles hace poco, como procesadores de 64 nucleos o micros de escritorio de 12 y 16 nucleos a precios relativamente asequibles.

 

Si finalmente es una solucion MCM estara por ver si lo vemos en su gama de escritorio y como se comporta aunque creo que es algo a lo que inevitablemente se veran forzados todos, en graficas cada vez vemos chips mas grandes y va a llegar un punto donde sea insostenible.


 

Spoiler

 

MB Asus x370 prime CPU 3900x GPU MSI 1080ti sea hawk

RAM 32gb ddr4 gskill 3666mhz T. SONIDO Creative X-Fi Z

SSD Crucial MX200 500gb, Sandisk Ultra II 960gb, Crucial MX500 2Tb  HD WD velociraptor 512gb

PSU Superflower Leadex 1600w Gold TORRECorsair 900D 

RL EK supremacy, Feser one TFC Xchanger quad + Alphacool nexos triple, Laing D5, Primochill phase II

Monitor Predator XB273K 27" Altavoces Edifier R1700BT Cascos Steelseries siberia v2

Teclado Steelseries Apex Raw Raton Logitech G502 proteus

 

Compartir este mensaje


Enlace al mensaje
Compartir en otros sitios web

Enyap Shin Chan Piong Lee

Publicado
vida restante: 100%
Publicado (editado)
hace 2 horas, vilax dijo:

Si finalmente es una solucion MCM estara por ver si lo vemos en su gama de escritorio y como se comporta aunque creo que es algo a lo que inevitablemente se veran forzados todos, en graficas cada vez vemos chips mas grandes y va a llegar un punto donde sea insostenible.

Puede pero plantea más interrogantes de los que resuelve.

Eso no lo van a sacar en formato GPU de escritorio porque es inviable a todas luces.

Que en un futuro se deba o no ir a ese tipo de solución es otra posibilidad, aunque no lo veo necesario en una década al menos.

Deberían cambiar muchas cosas, empezando por un montón de estandares; placas bases distintas que permitieran instalar una GPU en socket como si se tratara de una CPU. Luego habría que solventar el problema de la Vram...no les veo tirando de DDR de sistema...😁

En fin... yo no me preocuparía mucho por ese engendro. Como hito apilando minimicros XEN puede tener su gracia pero no creo que algo así sea funcional fuera de algún mercado especifico (supercomputadoras para vectoriales y esa clase de cosas).

Hasta donde sé Intel habló en el pasado sobre tres  clasificaciones de Xe Graphics:

Xe LP para dispositivos de baja potencia / bajo rendimiento. Xe LP es principalmente para soluciones gráficas integradas. Se sabe que  Xe LP está en las próximas CPUs Tiger Lake y creo que anda por las 64 EUs. No estoy seguro.

Xe HP para soluciones de alto rendimiento.  Xe HP debería ser la segunda iteracción de Intel con un chip que se especula de 512 EU ( el equivalente en Nvidia o AMD a 4096 núcleos cuda o Shaders) Si el bicho de la foto pudiese llevar 8 procesadores de esos en plan chiplets pues nos podemos imaginar la burrada que tienen entre manos.

Xe HPC para aplicaciones de centros de datos. 

 

La prensa ha denominado al bicho de la foto, Xe HP y creo que es un error, fundado o intencionado.

Más bien deberían haberlo llamado Xe HPC, porque no se me ocurre otro destino mejor para un chip con esas características.

 

 

Editado por Enyap

spacer.png

Compartir este mensaje


Enlace al mensaje
Compartir en otros sitios web

vilax Corneria

Publicado
vida restante: 100%
hace 1 hora, Enyap dijo:

Puede pero plantea más interrogantes de los que resuelve.

Eso no lo van a sacar en formato GPU de escritorio porque es inviable a todas luces.

Que en un futuro se deba o no ir a ese tipo de solución es otra posibilidad, aunque no lo veo necesario en una década al menos.

Deberían cambiar muchas cosas, empezando por un montón de estandares; placas bases distintas que permitieran instalar una GPU en socket como si se tratara de una CPU. Luego habría que solventar el problema de la Vram...no les veo tirando de DDR de sistema...😁

Por solucion MCM me refiero a multi chip a base de chiplets module que es lo que mencionas sobre que pinta a un gpu con 8 chiplets.

 

En su dia ley que intel tenia en desarrollo varios dies de diferentes tamaños y podria usar esa solucion, aunando varios chiplets, para dar lugar a graficas mas potentes en los diferentes segmentos.

El problema es que eso de pegar chips en entornos profesionales puede estar muy bien, pero fuera de ahi, en juegos, no se yo hasta que punto hoy se le puede sacar provecho. Hace mucho que estoy fuera del mundillo del multi gpu, pero la ultima vez que le di uso el soporte era mas bien regulero y no dejaba de caer en picado.

Aunque nunca se sabe, lo mismo intel ha dado con la tecla magica y sus graficas no arrastran los males del multi gpu, ademas, tal vez intel sea la que menos tiene que perder si se tira de cabeza la primera a por graficas de este tipo y de cara al futuro, cuando el resto acabe adoptando los chiplets, intel ya llevara algo de rodaje.

Pero vamos, de las xe se ha escrito tanto que es dificil saber con lo que saldra intel.

 

Eso de la foto, de tamaño descomunal y que parece que vaya en un socket, o a saber, desde luego no lo veremos en la gama escritorio y sirve de poca referencia para lo que tendremos los usuarios, por que en contraste con lo que mostraron con la dg1 es como comparar un patinete con un camion.


 

Spoiler

 

MB Asus x370 prime CPU 3900x GPU MSI 1080ti sea hawk

RAM 32gb ddr4 gskill 3666mhz T. SONIDO Creative X-Fi Z

SSD Crucial MX200 500gb, Sandisk Ultra II 960gb, Crucial MX500 2Tb  HD WD velociraptor 512gb

PSU Superflower Leadex 1600w Gold TORRECorsair 900D 

RL EK supremacy, Feser one TFC Xchanger quad + Alphacool nexos triple, Laing D5, Primochill phase II

Monitor Predator XB273K 27" Altavoces Edifier R1700BT Cascos Steelseries siberia v2

Teclado Steelseries Apex Raw Raton Logitech G502 proteus

 

Compartir este mensaje


Enlace al mensaje
Compartir en otros sitios web

Enyap Shin Chan Piong Lee

Publicado
vida restante: 100%
hace 2 horas, vilax dijo:

El problema es que eso de pegar chips en entornos profesionales puede estar muy bien, pero fuera de ahi, en juegos, no se yo hasta que punto hoy se le puede sacar provecho. Hace mucho que estoy fuera del mundillo del multi gpu, pero la ultima vez que le di uso el soporte era mas bien regulero y no dejaba de caer en picado.

Creo haber enlazado hace años un artículo sobre este tema.

Es controvertido, desde luego, pero quiero entender que una arquitectura de chiplets en una GPU no tiene porque parecerse en absoluto a una multiGPU tal como la conocemos. Habría seguramente muchos retos por superar pero no creo que aplicar técnicas AFR  o estar unidas a través de un puerto SLI  o NVlink fuesen problema porque no serían necesarios.

Estaría todo en un mismo die con caches y memorias compartidas por lo que no haría falta duplicar datos y lo que habría que hacer es interconectar esos cores para que todos funcionaran como una unidad. Sería un concepto de trabajo muy diferente al de unir 2 GPUs independientes para que trabajasen de acuerdo y atendiendo las peticiones del driver de turno.


spacer.png

Compartir este mensaje


Enlace al mensaje
Compartir en otros sitios web

OBSERVADOR PRAESIDIUM VIGILO

Publicado
vida restante: 100%

Rumores , rumores

https://www.pcgamer.com/nvidia-ampere-turing-not-aging-well/

Cita

 

A new supposed leak, published on the Moore's Law is Dead YouTube channel—and definitely from insider sources at Nvidia, guv'nor—claims to have a whole lot of detail about the new Ampere-based GeForce cards. The detail is honestly pretty light, kinda woolly, and amounts to little more than a few marketing bullet points.

The key takeaway, however, seems to be that Nvidia Ampere is going to be both a gaming and professional architecture, marking a change from the Volta/Turing days or AMD's own bifurcation of its gaming and pro GPU tech. And that performance-wise it's going to be more than just a die-shrink of the RTX 20-series' Turing.

With ray tracing capabilities supposedly four times that of Turing, Ampere's GeForce cards are expected to largely mitigate the prohibitive performance hit that turning ray tracing on demonstrates with the current generation of GPUs

 

 

La fuente es este video

 

Like Like

Compartir este mensaje


Enlace al mensaje
Compartir en otros sitios web

Enyap Shin Chan Piong Lee

Publicado
vida restante: 100%

Si tenemos en cuenta lo que comentan en ese video, no parece que hayamos errado mucho en las suposiciones de este hilo:

 

spacer.png

 

8GPC para el chip completo y 6144bits, y de ahí para abajo los típicos tijeretazos.

-Dice algunas cosas curiosas si no lo he malentendido, como que se van a utilizar los tensor cores para operaciones de comprensión de datos para ahorrar espacio en memoria.

-Caché L2 que dobla el tamaño de la vista en Turing

-Toda la gama, hasta las MX550 deberían incluir nucleos Tensor y RT. Esto habrá que verlo.

 


spacer.png

Compartir este mensaje


Enlace al mensaje
Compartir en otros sitios web

vilax Corneria

Publicado
vida restante: 100%

Es que al final es lo que muchos dijimos en su momento.

Turing era una beta de pago 🤣.

El que tuviese una grafica competente podia saltarselo sin problemas por que el rendimiento en rasterizacion no compensaba los precios. Y sus extra, como el RT o el DLSS, primeramente habia que ver si cuajaba o quedaba en anecdota pasajera de nvidia para 4 juegos (tipo physx), y en el caso de cuajar ya se olia a la legua de que se quedarian muy cortas rapidamente cuando ya se quedaban cortas hasta para los primeros juegos que hemos visto.

 

Ahora, por los rumores que se estan viendo, apunta a que ampere traera un buen salto en reasterizacion y un gran salto en esas tecnologias nuevas que introdujo con turing, sumado a que el RT ya no es solo una promesa con interrogante exclusiva de nvidia si no que tiene toda la pinta de que se quedara hasta el punto de que de aqui a unos años puede que pase a convertirse en un requerimiento, como paso en su dia con los efectos shader.

 

A mi lo que me ha parecido muy interesante del video que ha puesto Observador es lo del DLSS 3.0.

El DLSS salio un poco mal parido, limitacion de resoluciones, perdida de calidad de imagen y limitada compatibilidad. Pero siempre la he visto una tecnologia con potencial. Si ahora pasa a funcionar con todos los juegos con TAA, que es algo bastante extendido, y lo hace con la calidad de imagen al menos tan bien, o ya puestos mejor (por pedir que no quede..), que el DLSS 2.0 puede ser todo un puntazo y tal vez los 4k a buen framerate sin sacrificar detalles pasen a ser una realidad para muchos sin necesidad de irnos a la grafica mas potente del momento.


 

Spoiler

 

MB Asus x370 prime CPU 3900x GPU MSI 1080ti sea hawk

RAM 32gb ddr4 gskill 3666mhz T. SONIDO Creative X-Fi Z

SSD Crucial MX200 500gb, Sandisk Ultra II 960gb, Crucial MX500 2Tb  HD WD velociraptor 512gb

PSU Superflower Leadex 1600w Gold TORRECorsair 900D 

RL EK supremacy, Feser one TFC Xchanger quad + Alphacool nexos triple, Laing D5, Primochill phase II

Monitor Predator XB273K 27" Altavoces Edifier R1700BT Cascos Steelseries siberia v2

Teclado Steelseries Apex Raw Raton Logitech G502 proteus

 

Compartir este mensaje


Enlace al mensaje
Compartir en otros sitios web

OBSERVADOR PRAESIDIUM VIGILO

Publicado
vida restante: 100%
Publicado (editado)

https://digitimes.com/news/a20200505PD209.html

 
Cita

 

TSMC obtains major orders for Nvidia next-gen 7nm and 5nm GPU, sources claim

 

 

Speculation is circulating that Samsung Electronics' 5nm EUV process has attracted orders from Nvidia for its next-generation graphics processor series, but sources familiar with the matter believe TSMC will remain the major foundry partner of the chip

 

 

Editado por OBSERVADOR

Compartir este mensaje


Enlace al mensaje
Compartir en otros sitios web

Timberwolver Humano

Publicado
vida restante: 100%

Yo lo que espero es que no capen las 2000. Son mejor de lo que parecen, y aguantarán la generación. La prueba es que con mi pórtatil con una rtx2070 8gb, conseguí jugar al red dead redemption (juego con gráficos de la siguiente generación) en 4k a 25-30 fps con todo en ultra salvo 3 opciones en alto (calidad de sombras, vegetación...) hasta yo me sorprendí cuando lo probé, ya que iba con la idea de jugarlo en 2k o 1080p. 

Compartir este mensaje


Enlace al mensaje
Compartir en otros sitios web

Enyap Shin Chan Piong Lee

Publicado
vida restante: 100%

Nvidia no necesita capar nada. La evolución de los motores y el empleo de técnicas más avanzadas para las que estas y otras GPUs estén menos dotadas, se encargarán de marcar las diferencias.

Pasó con GCN en el caso de AMD. Con el tiempo, técnicas como la tesselación han ido implantandose y las primeras GPUs que inicialmente eran compatibles con esta característica se han quedado atrás porque ofrecían soporte pero de manera muy limitada. Con el avance de RT va a suceder lo mismo o puede que incluso sea peor que en este caso que cito.

 


spacer.png

Compartir este mensaje


Enlace al mensaje
Compartir en otros sitios web

vilax Corneria

Publicado
vida restante: 100%
hace 3 horas, Timberwolver dijo:

Yo lo que espero es que no capen las 2000. Son mejor de lo que parecen, y aguantarán la generación. La prueba es que con mi pórtatil con una rtx2070 8gb, conseguí jugar al red dead redemption (juego con gráficos de la siguiente generación) en 4k a 25-30 fps con todo en ultra salvo 3 opciones en alto (calidad de sombras, vegetación...) hasta yo me sorprendí cuando lo probé, ya que iba con la idea de jugarlo en 2k o 1080p. 

Lo de que envejezcan mejor o peor no dejan de ser conjeturas, al igual que los posibles aumentos de rendimiento de la serie 3000, los cuales aun estan por verse.

 

Lo que no es una conjetura es el actual rendimiento de las RTX 2000 con RT, el cual nunca ha sido muy alla, al no ser que metamos DLSS de por medio, y cuando se habla de que no envejeceran muy bien se suele hacer referencia a esos escenarios con efectos RT, el cual no es el caso del RDR2.

Lo que puede salvar un poco los muebles con las RTX 2000 sera el DLSS, pero ahi ya entra la incognita de cuan extendida sera su implementacion o si seran compatibles con ese supuesto nuevo DLSS 3.0.

 


 

Spoiler

 

MB Asus x370 prime CPU 3900x GPU MSI 1080ti sea hawk

RAM 32gb ddr4 gskill 3666mhz T. SONIDO Creative X-Fi Z

SSD Crucial MX200 500gb, Sandisk Ultra II 960gb, Crucial MX500 2Tb  HD WD velociraptor 512gb

PSU Superflower Leadex 1600w Gold TORRECorsair 900D 

RL EK supremacy, Feser one TFC Xchanger quad + Alphacool nexos triple, Laing D5, Primochill phase II

Monitor Predator XB273K 27" Altavoces Edifier R1700BT Cascos Steelseries siberia v2

Teclado Steelseries Apex Raw Raton Logitech G502 proteus

 

Compartir este mensaje


Enlace al mensaje
Compartir en otros sitios web

Timberwolver Humano

Publicado
vida restante: 100%
hace 16 horas, vilax dijo:

Lo de que envejezcan mejor o peor no dejan de ser conjeturas, al igual que los posibles aumentos de rendimiento de la serie 3000, los cuales aun estan por verse.

 

Lo que no es una conjetura es el actual rendimiento de las RTX 2000 con RT, el cual nunca ha sido muy alla, al no ser que metamos DLSS de por medio, y cuando se habla de que no envejeceran muy bien se suele hacer referencia a esos escenarios con efectos RT, el cual no es el caso del RDR2.

Lo que puede salvar un poco los muebles con las RTX 2000 sera el DLSS, pero ahi ya entra la incognita de cuan extendida sera su implementacion o si seran compatibles con ese supuesto nuevo DLSS 3.0.

 

Totalmente de acuerdo, por ejemplo con el ray tracing activado, la rtx2070 se deja muchos fps en juegos como el Battlefield V, lo que provoca que haya que jugarlo en resoluciones HD, 4k y RT es mucha tralla, pero aunque el RT aún esté en desarrollo y hayamos visto solo la punta del iceberg, realmente creéis que el RT es una gran revolución como la ha vendido Nvidia? Viendo la calidad de la iluminación de RDR2 sin efectos RT y comparándolo con Metro Exodus o Battlefield me hace dudar mucho de que realmente vaya a ser algo revolucionario y se quede como una opción gráfica más.

Compartir este mensaje


Enlace al mensaje
Compartir en otros sitios web

Crear una cuenta o conéctate para comentar

Tienes que ser miembro para dejar un comentario

Crear una cuenta

Regístrese para obtener una cuenta nueva en nuestra comunidad. ¡Es fácil!

Registrar una nueva cuenta

Conectar

¿Ya tienes una cuenta? Conéctate aquí.

Conectar ahora

  • Explorando recientemente

  • Crear nuevo...