Jump to content
  • Buscar en
    • Más opciones...
    Encontrar resultados que contengan...
    Encontrar resultados en...
Conéctate para seguir esto  
Seguidores 0
Noticias Meristation

Nvidia critica abiertamente la nueva GPU de Intel

Publicaciones recomendadas

LoganKeller Ganondorf

Publicado
vida restante: 100%
Una de las peores lacras del PC son los chips integrados: la gente se compra un pepino de ordenador con un procesador de 200 núcleos, 4000 gigas de ram, 200 teras de disco duro (Estoy exagerando adrede) y cuando van a poner el Crysis... "Coño, ¿Porque no me funciona?"

La respuesta esta en que la tarjeta es una pifia que solo sirve para navegar por internet "y da gracias" e Intel es una de las culpables de que se de esta situación, ya que en los PC en los que van sus excelentes procesadores te meten "by the face" una integrada que solo usarán los que vayan a usar el PC para el "messenller" y poco mas.

Así que lo único bueno de esto es que una 3º compañía haciendo competencia a ATI (Que es parte de AMD) y Nvidia les hará mejorar y superarse. Pero por mi parte, no pienso comprar ni una tarjeta gráfica de Intel hasta que no vea que son mejores que sus adversarias.

Compartir este mensaje


Enlace al mensaje
Compartir en otros sitios web

cromugnon Elder

Publicado
vida restante: 100%

Yo quiero la bola de cristal de NVIDIA.

Por cierto como usen el mismo material semiconductor previsto para la proxima generacion de procesadores, ya hablaremos si rinden mas o no...

 

¿Qué quieres que utilicen en vez de silicio? ¿Arsenuro de galio? ¿Germanio?

 

Mira, lo siento, pero es que con un comentario tan bocazas, no he podido resistirme.

 

Se llamara Hafnio (Hafnium, y no es coña) y ya se han hecho pruebas con procesadores de 45nm.

 

Y para que veas lo bocazas que puedo ser yo, aqui tienes el enlace oficial de intel

 

http://www.intel.com....htm?iid=SEARCH

 

Enmarcalo y tal si quieres.

 

Bueno creo que te has pasado de listo tú, el hafmio se plantea usarlo como dieléctrico (aislante) en los transistores, en sustitución del clásico dióxido de Silicio. De hecho, el Hf ni si quiera es un semiconductor, con lo que puedes olvidarte de construir un transistor con él.

 

De hecho el Arsenurio de Galio que plantea Gausaker puede ser un buen semiconductor de futuro, pero la industria no es tan madura como la del Silicio (si no recuerdo mal, uno de los problemas de este material es precisamentre la carencia de un dieléctrico tan adecuado como en el caso del SiO2 para el Silicio, pero actualmente avanza muy reápido pues es el semiconductor emergente usado para los LEDs)

 

Ah, y Germanio no, que se funde rápido y es muy caro!

Compartir este mensaje


Enlace al mensaje
Compartir en otros sitios web

KnightFox Witch

Publicado
vida restante: 100%

Yo quiero la bola de cristal de NVIDIA.

Por cierto como usen el mismo material semiconductor previsto para la proxima generacion de procesadores, ya hablaremos si rinden mas o no...

 

¿Qué quieres que utilicen en vez de silicio? ¿Arsenuro de galio? ¿Germanio?

 

Mira, lo siento, pero es que con un comentario tan bocazas, no he podido resistirme.

 

Se llamara Hafnio (Hafnium, y no es coña) y ya se han hecho pruebas con procesadores de 45nm.

 

Y para que veas lo bocazas que puedo ser yo, aqui tienes el enlace oficial de intel

 

http://www.intel.com....htm?iid=SEARCH

 

Enmarcalo y tal si quieres.

 

Bueno creo que te has pasado de listo tú, el hafmio se plantea usarlo como dieléctrico (aislante) en los transistores, en sustitución del clásico dióxido de Silicio. De hecho, el Hf ni si quiera es un semiconductor, con lo que puedes olvidarte de construir un transistor con él.

 

De hecho el Arsenurio de Galio que plantea Gausaker puede ser un buen semiconductor de futuro, pero la industria no es tan madura como la del Silicio (si no recuerdo mal, uno de los problemas de este material es precisamentre la carencia de un dieléctrico tan adecuado como en el caso del SiO2 para el Silicio, pero actualmente avanza muy reápido pues es el semiconductor emergente usado para los LEDs)

 

Ah, y Germanio no, que se funde rápido y es muy caro!

 

No se si me he pasado o no de listo, pero lo que me toca las pelotas es que expongas un dato sobre una posible mejora y te salte el gracioso de turno con comentarios "cachondeandose" para hacer la gracia. Y mira, ha estas alturas me importa un pimiento lo que hagan las compañias (como si el siguiente chip es a base de patatas fritas), pero como este foro cada dia es un concurso de quien la tiene mas grande, juego con esas reglas. Tu te cachondeas, yo te contesto con la misma mala baba. Y a quien no le guste, que se saque los ojos y no me lea.

 

Pd. Gracias por la aclaracion sobre el Hafmio.

Compartir este mensaje


Enlace al mensaje
Compartir en otros sitios web

Aitor Tilla Heraldo de la Muerte

Publicado
vida restante: 100%

[...]"gráficas dominado hasta el momento por ATI and Nvidia"[...]

 

Al menos traducidlo todo cuando cogais una noticia de otra página... :|

 

Desde ese "pequeño" fallo y hasta el final yo también me he dado cuenta de la chapuza de noticia que se han cascao :|

 

La han fusilao de otro sitio, con una traducción horrible, y encima ni ponen la fuente... :|

Compartir este mensaje


Enlace al mensaje
Compartir en otros sitios web

black_techx Ganondorf

Publicado
vida restante: 100%
Que miedo a la competencia es tipico, ni modo que le digan ''bienvenidos quitennos el bi-mopolio'' ,ya que fabricantes como d3fx fueron tragadas por la misma nvidia y otras como S3 pasaron de hacer targetas a venderse incluidas en ''targetas madre taiwnesas''¿ y matrox?¡.....ufffffffffffff de esa de mi acueldo,,,aunque jugue el ''hi man''... en una de ellas,...

bienvenida intel ..¿si traen cosas que nos benefiein no hay problema..?.. mas compétencia mas calidad y mejores ''precios'' es un hecho,,.,..

Compartir este mensaje


Enlace al mensaje
Compartir en otros sitios web

RoB_ZoMbI Héroe del Tiempo

Publicado
vida restante: 100%

Blablabla...si al final todas ofrecen lo mismo por el mismo precio (puñalada envenenada al bolsillo)...

Menos ladrar y más parches y optimizaciones, que me gasté una pasta con la GeForce 8800 GTS 512 y no puedo jugar como Dios manda al mass Efect.

 

Pues yo tengo también una 8800GTS de 512 y juego al máximo al mass effect y en gran parte de Crysis, aunque cuando llega la nieve ya ahi que ponerlo en normal ;)

Compartir este mensaje


Enlace al mensaje
Compartir en otros sitios web

Elerion IGNIS EXCUBITOR

Publicado
vida restante: 100%
Lo más irónico de esta noticia es que el representante de Nvidia habla "sin saber lo que va a hacer Intel".
Entonces, qué esperamos que diga? " No, no, está claro que Intel sacará un tarjetón que nos reventará a todos. Creo que voy a hacer las maletas ya que ni Nvidia ni ATI tienen futuro"

Cada uno defiende lo suyo y es comprensible. Esperemos a ver qué hace Intel. Y no olvidemos algo importante; Cuanta mayor competencia mayor beneficio para el consumidor final.

Compartir este mensaje


Enlace al mensaje
Compartir en otros sitios web

Makario_1up Tingle

Publicado
vida restante: 100%

Blablabla...si al final todas ofrecen lo mismo por el mismo precio (puñalada envenenada al bolsillo)...

Menos ladrar y más parches y optimizaciones, que me gasté una pasta con la GeForce 8800 GTS 512 y no puedo jugar como Dios manda al mass Efect.

 

Que la tienes instalada en un 386? por que si no, no lo entiendo!

 

Respecto a la noticia, que mal traduccion. Que haveis pillao un traductor de internet o que? :o

Compartir este mensaje


Enlace al mensaje
Compartir en otros sitios web

Norfiril Lord Boros

Publicado
vida restante: 100%
Mucha critica pero a ver si se ponen las pilas que con las ultimas tarjetas parece que Ati les esta ganando un poquito y eso que yo siempre he usado (y uso) tarjetas Nvidia.

Compartir este mensaje


Enlace al mensaje
Compartir en otros sitios web

julian123 Sheikah

Publicado
vida restante: 100%
Pero por que la reaccion tan temprana? vamos que no pueden ir subestimando asi como asi el producto de una compañia que hasta ahora muestra intenciones de meterse en este mercado.

Compartir este mensaje


Enlace al mensaje
Compartir en otros sitios web

Rafster PARIETINAE UMBRA

Publicado
vida restante: 100%
Supuestamente ATI y AMD no iban a trabajar en conjunto para desarrollar algo parecido a un GPU-CPU? yo pensaba que al menos NVidia iba a llegar a algun acuerdo con Intel que actualmente es la puntera en esto de los CPU.

Me gustaría saber que se tienen entre manos los nVidia para esto.....

51612_s.gif

Spoiler

uin2zf-5.png

Compartir este mensaje


Enlace al mensaje
Compartir en otros sitios web

caesar77 Lord Boros

Publicado
vida restante: 100%
Imaginaos la campaña de InteL:

(campaña tipo,entrega tu movil viejo y te hacemos descuento en el nuevo)

"Traigan su antigua grafica de Nvidia o Ati y por solo 80euros tendrán lo último para mover sus juegos siempre al máximo"

- InteL Redentor2XS, la alternativa Real -

jajaj,se me va :D

Steam: OutlaW

Intel i5 3570K @ 4.2GHz | Gigabyte Z77X-UD3H (Bios F20e recommended)
SSD CrucialM4 128Gb. | Seagate 500Gb. | Seagate Ext. 2Tb.
Nvidia Gigabyte G1 Gaming 970GTX rev.1.1 | 2 x 4Gb. DDR3 G-Skill 1600
Corsair TX650 | Arctic Cooling CPU Freezer 13 | Logitech G15

Sharkoon Drakonia Black | Volante Logitech Momo | 2 x 360 pad. | 2 x Logitech Rumble pad.

Compartir este mensaje


Enlace al mensaje
Compartir en otros sitios web

juanramonh Vesemir

Publicado
vida restante: 100%
Es que si a Intel le sale bien les puede quitar gran cuota de mercado... quizás tengan un poco de miedo por lo que pueda pasar. ;)

Compartir este mensaje


Enlace al mensaje
Compartir en otros sitios web

Legamas Methuselah

Publicado
vida restante: 100%

¿Nueva técnica? Hace ya 10 años las revistas incluian programas y cursos para hacer imagenes con raytracing..... casi nadie se dedica ya a eso. Requiere una potencia enorme para poder hacer algo fluido, porque además no utiliza la VGA, sino la CPU para los cálculos. Un solo fotograma en raytracing y sin mucha chicha puede tardar horas en renderizarse. No utiliza ni polígonos ni texturas....

 

¿Sabias que PIxar con la última tecnología tarda casi 24 horas en renderizar un fotograma de cualquiera de sus películas? Pues el raytracing es todavía más pesado.... Por no decir que para aplicar texturas y filtros es imposible.

De momento sigamos con los poligonos y los shaders... que funcionan muy bienen tiempo real....

 

Dios mio que burradas mas gordas..... lo siento por no aportar nada al hilo, pero esque esto ma dolio en el alma..... joder hace mas de 15 años que uso poligonos y texturas para hacer raytracing y resulta que ahora no se puede....

Compartir este mensaje


Enlace al mensaje
Compartir en otros sitios web

Crear una cuenta o conéctate para comentar

Tienes que ser miembro para dejar un comentario

Crear una cuenta

Regístrese para obtener una cuenta nueva en nuestra comunidad. ¡Es fácil!

Registrar una nueva cuenta

Conectar

¿Ya tienes una cuenta? Conéctate aquí.

Conectar ahora
Conéctate para seguir esto  
Seguidores 0

  • Crear nuevo...