Jump to content
  • Buscar en
    • Más opciones...
    Encontrar resultados que contengan...
    Encontrar resultados en...
Abadox

CEO de Nvidia: Radeon VII es 'pésimo y nada nuevo'

Publicaciones recomendadas

TirMcDohl Krilin

Publicado
vida restante: 100%
Publicado (editado)

Pero qué dices de litografía si no tienen nada que ver con las fábricas. Hacen diseños igual que amd y arm.

 

No tienen que ver con las fábricas, pero les pagan a estas XD

 

A ver si te crees que Broadcom y cia invierten en 7nm para cobrarlos a precio de 12...

Igual que la memoria hbm2 tb les sale más cara que la GDDR6 que usa Nvidia, aunque no la fabriquen ellos.

 

Editado por TirMcDohl

Compartir este mensaje


Enlace al mensaje
Compartir en otros sitios web

xarmanista Máscara de Majora

Publicado
vida restante: 100%

 

No tienen que ver con las fábricas, pero les pagan a estas XD

 

 

A ver si te crees que Broadcom y cia invierten en 7nm para cobrarlos a precio de 12...

 

Igual que la memoria hbm2 tb les sale más cara que la GDDR6 que usa Nvidia, aunque no la fabriquen ellos.

 

 

De toda la vida se pasa a un nodo inferior para AHORRAR COSTES, no para pagar más.

 

 

El mismo chip encoge, lo que sale mas barato.


*Imagen retirada por moderación por pasarse de las medidas permitidas de forma descomunal*

                                                              *Sólo xarmanista causa tanto escozor*

M5A97 Evo R2  8 GB 2133 Mhz CL9   FX8320 3,5 Ghz   Geforce 1080 + 1060 CUDA/Physx 

 

http://static1.games...81919-dEADT.png

Compartir este mensaje


Enlace al mensaje
Compartir en otros sitios web

TirMcDohl Krilin

Publicado
vida restante: 100%
Publicado (editado)

De toda la vida se pasa a un nodo inferior para AHORRAR COSTES, no para pagar más.

 

 

El mismo chip encoge, lo que sale mas barato.

 

Los cojones XD

No sabes lo que cuesta en I+D y en fabricación bajar el tamaño de la litografía. Hacer un silicio más preciso, con menos errores... hay un aumento enorme en la tasa de errores en silicios más pequeños.

 

Lo que ahorras bajando el tamaño del transistor es consumo, lo que deriba en mayor margen para aumentar la velocidad de trabajo a misma temperatura, y a tener más espacio para más transistores en la misma superficie. Pero eso cuesta un dineral de fabricar.

 

Editado por TirMcDohl
Like Like

Compartir este mensaje


Enlace al mensaje
Compartir en otros sitios web

daniel_mallorca Heraldo de la Muerte

Publicado
vida restante: 100%

No tienen que ver con las fábricas, pero les pagan a estas XD

 

 

 

A ver si te crees que Broadcom y cia invierten en 7nm para cobrarlos a precio de 12...

 

Igual que la memoria hbm2 tb les sale más cara que la GDDR6 que usa Nvidia, aunque no la fabriquen ellos.

 

La memoria GDDR6 es un 70 por ciento más cara que la GDDR5

 

https://elchapuzasin...a-que-la-gddr5/

Compartir este mensaje


Enlace al mensaje
Compartir en otros sitios web

xarmanista Máscara de Majora

Publicado
vida restante: 100%

 

Los cojones XD

 

No sabes lo que cuesta en I+D y en fabricación bajar el tamaño de la litografía. Hacer un silicio más preciso, con menos errores... hay un aumento enorme en la tasa de errores en silicios más pequeños.

 

 

Lo que ahorras bajando el tamaño del transistor es consumo, lo que deriba en mayor margen para aumentar la velocidad de trabajo a misma temperatura, y a tener más espacio para más transistores en la misma superficie. Pero eso cuesta un dineral de fabricar.

 

 

Quien gasta en I+D es la fábrica.

 

 

No lo harían si no saliera rentable después, una vez pulido el nodo y con fabricación masiva.


*Imagen retirada por moderación por pasarse de las medidas permitidas de forma descomunal*

                                                              *Sólo xarmanista causa tanto escozor*

M5A97 Evo R2  8 GB 2133 Mhz CL9   FX8320 3,5 Ghz   Geforce 1080 + 1060 CUDA/Physx 

 

http://static1.games...81919-dEADT.png

Compartir este mensaje


Enlace al mensaje
Compartir en otros sitios web

TirMcDohl Krilin

Publicado
vida restante: 100%
Publicado (editado)

Quien gasta en I+D es la fábrica.

 

 

No lo harían si no saliera rentable después, una vez pulido el nodo y con fabricación masiva.

 

Pues claro. Y quien le pone el precio al chip y lo vende, también es la fábrica. A ver si te crees que los fabricantes de chips gastan miles de millones en investigación y renovación de fábricas para vender al mismo precio...

 

Con el tiempo se compensa y se bajan precios, pero no me puedes comparar el coste de fabricar a 12nm con fabricar a 7. Vamos, ni de coña.

 

 

 

La memoria GDDR6 es un 70 por ciento más cara que la GDDR5

 

 

He nombrado hbm2, que es más cara que GDDR6... o al menos lo era hace nada. No he nombrado GDDR5 para nada.

 

Los algoritmos de compresión de nvidia son mucho mejores que los de AMD, de ahí que aún no tengan que usar esa memoria para las gráficas de juegos.

 

Otro ejemplo de que AMD paga por una tecnología existente y más cara, en vez de invertir en su propio I+D.

 

Editado por TirMcDohl

Compartir este mensaje


Enlace al mensaje
Compartir en otros sitios web

xarmanista Máscara de Majora

Publicado
vida restante: 100%

 

Pues claro. Y quien le pone el precio al chip y lo vende, también es la fábrica. A ver si te crees que los fabricantes de chips gastan miles de millones en investigación y renovación de fábricas para vender al mismo precio...

 

 

Con el tiempo se compensa y se bajan precios, pero no me puedes comparar el coste de fabricar a 12nm con fabricar a 7. Vamos, ni de coña.

 

 

 

He nombrado hbm2, que es más cara que GDDR6... o al menos lo era hace nada. No he nombrado GDDR5 para nada.

 

 

Los algoritmos de compresión de nvidia son mucho mejores que los de AMD, de ahí que aún no tengan que usar esa memoria para las gráficas de juegos.

 

 

Otro ejemplo de que AMD paga por una tecnología existente y más cara, en vez de invertir en su propio I+D.

 

 

Entonces no tendrían clientes salvo gobiernos para superordenadores por ser antieconomico y seguirian en escala de micras.


*Imagen retirada por moderación por pasarse de las medidas permitidas de forma descomunal*

                                                              *Sólo xarmanista causa tanto escozor*

M5A97 Evo R2  8 GB 2133 Mhz CL9   FX8320 3,5 Ghz   Geforce 1080 + 1060 CUDA/Physx 

 

http://static1.games...81919-dEADT.png

Compartir este mensaje


Enlace al mensaje
Compartir en otros sitios web

TirMcDohl Krilin

Publicado
vida restante: 100%

Entonces no tendrían clientes salvo gobiernos para superordenadores por ser antieconomico y seguirian en escala de micras.

 

No, simplemente la competencia les pasaría por encima...

 

En serio, no me puedo creer que esté discutiendo esto.

Compartir este mensaje


Enlace al mensaje
Compartir en otros sitios web

Badrus82 Vegeta

Publicado
vida restante: 100%
Publicado (editado)

 

No es que Nvidia vaya a medio gas, es que no están gastando dinero como locos en reducir la litografía, sino en nuevas arquitecturas más eficientes.

 

 

Por más que se quiera AMD va a acabar dándose de bruces con la realidad de la física: no se puede miniaturizar hasta el infinito. Cuando llegue ese momento -en el que probablemente estemos a las puertas, porque dudo que jamás veamos algo en silicio por debajo de 5nm, se acabó el chollo.

 

 

Nvidia tiene un margen bastante decente para seguir sacando gráficas sin procuparse de la ley de moore. AMD, no.

Bajaremos por debajo de los 5 nms. Aunque es cierto que la escalada hacia la miniaturización tiene un limite. Pero tranquilo que el siguiente paso esta ya más que estudiado. Chips en 3D. Pero claro reducir el proceso de integración hace que se reduzca el tamaña al cuadrado y poner una loncha más de transistores hace duplicar el número de transistores. El crecimiento será más sostenido y también tendrá un limite claro... Editado por Badrus82

PC >> Anything else. Greatest hits=>
"Unlocked framerate is unacceptable"(unless the game is in my console)

"Micro-stuttering on PC is unpleyable, (but in console it does not exist)"
"Resolution is just a number"
"Has only four filters"
"The human eyes can only see 30 fps"

Compartir este mensaje


Enlace al mensaje
Compartir en otros sitios web

xarmanista Máscara de Majora

Publicado
vida restante: 100%
Publicado (editado)

 

No, simplemente la competencia les pasaría por encima...

 

 

En serio, no me puedo creer que esté discutiendo esto.

 

 

Acaso la competencia no tiene el mismo problema? X-D

 

 

 

 

Estrenar un nodo siempre sale caro pero cuando se pule y llega a fabricación masiva se utiliza en lugar de uno superior porque SALE MÁS BARATO.

Editado por xarmanista

*Imagen retirada por moderación por pasarse de las medidas permitidas de forma descomunal*

                                                              *Sólo xarmanista causa tanto escozor*

M5A97 Evo R2  8 GB 2133 Mhz CL9   FX8320 3,5 Ghz   Geforce 1080 + 1060 CUDA/Physx 

 

http://static1.games...81919-dEADT.png

Compartir este mensaje


Enlace al mensaje
Compartir en otros sitios web

Badrus82 Vegeta

Publicado
vida restante: 100%
Publicado (editado)

 

Acaso la competencia no tiene el mismo problema? X-D

 

 

 

 

Estrenar un nodo siempre sale caro pero cuando se pule y llega a fabricación masiva se utiliza en lugar de uno superior porque SALE MÁS BARATO.

Cuando se baja el proceso de integración las consolas salen más baratas pero no porque producir el chip sea más barato ojo... Es por el tamaño del chip. Si haces un chip más pequeño cuesta menos producirlo, consume menos energía y por tanto es más difícil que falle. Pero fabricar un nodo nuevo es más caro. Pero claro si es más pequeño salen más chips y el precio se reduce. Aunque producir la oblea sea más caro acaba saliendo mejor.

 

 

Pero claro, si el mayor espacio para meter más Hw, entonces te sale más caro si o si. Cuando deja de ser rentable? Pues cuando tú HW ya no lo usa nadie y no compensa mantener la cadena de montaje para un solo cliente.

 

 

Por este mismo motivo, cuando la gente piensa.que una gpu en pc vale 600 euros y a ellos la comida les va a costar 400 viven en Disneyland. La gpu que integre una consola debe valer en venta directa de pc menos que la consola en su momento de lanzamiento. Si una consola cuesta 400 euros la gpu que montará será una gpu de pc que cueste menos de 300. No hay más. Nadie va a ocupar una cadena de montaje para un producto del que van a sacar una puta mierda de beneficio cuándo pueden ocuparla con un producto idéntico del que pueden sacar más dinero.

Editado por Badrus82

PC >> Anything else. Greatest hits=>
"Unlocked framerate is unacceptable"(unless the game is in my console)

"Micro-stuttering on PC is unpleyable, (but in console it does not exist)"
"Resolution is just a number"
"Has only four filters"
"The human eyes can only see 30 fps"

Compartir este mensaje


Enlace al mensaje
Compartir en otros sitios web

xarmanista Máscara de Majora

Publicado
vida restante: 100%

 

Cuando se baja el proceso de integración las consolas salen más baratas pero no porque producir el chip sea más barato ojo... Es por el tamaño del chip. Si haces un chip más pequeño cuesta menos producirlo, consume menos energía y por tanto es más difícil que falle. Pero fabricar un nodo nuevo es más caro. Pero claro si es más pequeño salen más chips y el precio se reduce. Aunque producir la oblea sea más caro acaba saliendo mejor.

 

 

Pero claro, si el mayor espacio para meter más Hw, entonces te sale más caro si o si. Cuando deja de ser rentable? Pues cuando tú HW ya no lo usa nadie y no compensa mantener la cadena de montaje para un solo cliente.

 

 

Claro que es porque es más pequeño. Por eso un nodo inferior sale mas barato.

 

 

Se invierte en I+D en la medida en que se calcule que ese ahorro valdra la pena o pasan a investigar para un nodo incluso menor saltándoselo si no rentaría.


*Imagen retirada por moderación por pasarse de las medidas permitidas de forma descomunal*

                                                              *Sólo xarmanista causa tanto escozor*

M5A97 Evo R2  8 GB 2133 Mhz CL9   FX8320 3,5 Ghz   Geforce 1080 + 1060 CUDA/Physx 

 

http://static1.games...81919-dEADT.png

Compartir este mensaje


Enlace al mensaje
Compartir en otros sitios web

Badrus82 Vegeta

Publicado
vida restante: 100%

 

Claro que es porque es más pequeño. Por eso un nodo inferior sale mas barato.

 

 

Se invierte en I+D en la medida en que se calcule que ese ahorro valdra la pena o pasan a investigar para un nodo incluso menor saltándoselo si no rentaría.

 

 

El problema de AMD es que tira de fuerza bruta para competir con Nvidia. Sus GPUs tienen más gflops, más memoria, más consumo, usan mejores nodos... Pero van peor. Y eso teniendo en cuenta que sus precios deben ser más bajos que Nvidia para competir no me parece muy acertado.

 

 

A mí me parece que AMD ha ido a los 7 nms porque es la única forma que tienen a día de hoy para que sus consolas aumenten de potencia y que está claro que los nodos de 7 nms están aún muy verdes si no han sido capaces ni siquiera de fabricar uno de 64 cus y el precio del chip es tan disparatado como el de Nvidia pero con una gpu peor.


PC >> Anything else. Greatest hits=>
"Unlocked framerate is unacceptable"(unless the game is in my console)

"Micro-stuttering on PC is unpleyable, (but in console it does not exist)"
"Resolution is just a number"
"Has only four filters"
"The human eyes can only see 30 fps"

Compartir este mensaje


Enlace al mensaje
Compartir en otros sitios web

RedSeim Navi

Publicado
vida restante: 100%

 

Comprarse una grafica AMD en estos tiempos es una locura y la razón son sus drivers, que son pesimos.

 

Mientras no mejoren sus drivers no es una opción.

 

 

Y en cuanto a los Zen 2, donde están esos Ryzen 9 con 16 nucleos a 5 GHz? Eran humo?

 

Una lastima, porque a lo mejor me hubieran hecho pasarme a AMD.

Que alguien siga con la cantinela de los drivers de AMD sólo demuesta desconocimiento, la verdad.

 

Los drivers de AMD están a la altura, colega. Los drivers de mierda es algo de otros tiempos que aún la gente se traga xD.

 

Lo que es una ESTUPIDEZ ES COMPRAR UNA NVIDIA, al precio al qe salen. Y aún hay gente que los defiende como si fuesen buenas gráficas. Claro aue lo son, pero no al nivel de su precio, lo aue las convierte en malas, en su relación rendimiento/precio. Es así.


-------------------------------------------------------------------------------------------------------

redseim.jpg

Compartir este mensaje


Enlace al mensaje
Compartir en otros sitios web

  • Explorando recientemente

    No hay usuarios registrados viendo esta página.

  • Crear nuevo...