texto:   A-   A+
eliax

Los nuevos procesadores gráficos de NVIDIA tendrán 512 núcleos
eliax id: 7092 josé elías en sep 30, 2009 a las 09:16 PM (21:16 horas)
NVIDIA recién reveló la base de su nueva arquitectura gráfica hacia el futuro próximo, y lo único que creo cualquier persona que lea las especificaciones técnicas puede decir es... nada, por el asombro.

La nueva arquitectura a la cual NVIDIA ha apodado con el código Fermi, contendrá 16 procesadores del tipo stream, cada uno con 32 núcleos, para un total de 512 núcleos. Como si fuera poco, y para poder mantener a todos esos núcleos ocupados, Fermi adoptará el nuevo tipo de memoria GDDR5

Pero lo mejor de todo es que esta arquitectura estará optimizada para aplicaciones que utilicen el GPU como un procesador genérico, lo que significa que arquitecturas como la de Grand Central en el nuevo OS X 10.6 Snow Leopard tendrán de repente 512 procesadores mas para acelerar todo tipo de tareas.

Esto también representará un gran salto en velocidad y realismo visual en aplicaciones 3D (en particular video-juegos y diseño y animación 3D), trayendo niveles de super-computación a las PCs de escritorio (y prontamente, laptops y netbooks).

Según NVIDIA, un chip con estos 512 núcleos contendrá unos 3 mil millones de transistores.

Esta es una de esas cosas que ilustran bastante bien el crecimiento exponencial de la tecnología, pues hace apenas un par de años que los chips de 2 núcleos empezaron a filtrarse en el mercado, y hoy día ya hablamos de 512. Cabe notar que NVIDIA ha implementado en esta nueva generación de GPUs una tecnología que llaman GigaThread, que escala a "miles" de hilos de ejecución de código, lo que nos puede dar un indicio de lo que nos depara el futuro no lejano.

Algo me dice que esta arquitectura tendrá un tremendo impacto en el mundo de la investigación científica, y además de paso nos servirá como una pista de lo que podremos esperar de la próxima generación de consolas de video-juegos al mediano plazo (que pienso empezaremos a ver en el 2011).

Página oficial de Fermi en NVIDIA

Previamente en eliax:

NVIDIA muestra Raytracing en tiempo real y alta definición (Agosto 2008)

Finalizada la especificación OpenCL 1.0 en tiempo récord (Diciembre 2008)

NVIDIA anuncia tarjeta con 480 núcleos y casi 2 TeraFlops (Enero 2009)

Sobre evolución del GPU, e implementación de AMD de OpenCL en CPU/GPU (Agosto 2009)

autor: josé elías

Comentarios

  • Verdaderamente los CPU Tiene NVidia De las GPU :-) , hora eliax sabemos que el Hardware evoluciona cada dia a pasos de gigante, pero que pasa con el software por que hoy dia tenemos super Procesadores pero muchos sistemas no son capaces de aprobechar al maximo estas tecnologias y para cuando quieren adaptarse por asi decirlo ya hay otra nueva ;-)

  • Me pregunto si con estos GPU se empezaran a redudir el tamaño la targetas graficas de NVidia. Porque en los ultimos años han aumentado el tamaño.

  • *FFFFFFFFUUUUUUUUUUUUUUUUUUUUUUUUUUUUUUUU------*

  • wtf!!! eso es a proposito es para fastidiarlos a los de intel con su chip de gpucpu :P

  • El software parece que va bastante mas atrás que el hard, a què se debe esa gran diferencia??, todavia no he visto a ningun soft aprovechar al maximo los 64bits de procesamiento.

  • Nadie ha notado que los equipos con 2 o 4 procesadores actuales NO funcionan mucho más rápido que uno de un sólo procesador de hace 4 o 5 años?

    Lo que ocurre es que para el uso normal, el cuello de botella suele ser el disco.

    • No solo el disco, sino también la misma aplicación en si. No haces nada con procesador AMD o Intel con 3, 4 o 6 nucleos cuando la aplicación solo usara uno de ellos, en primera porque la misma no emplea multithreading o varios hilos de ejecución y la segunda, esos nucleos solo funcionaran a su maxima expresión cuando tanto el sistema como la aplicación sean ambos de 64 bits.

      • Lo de los 64 bits es un mito.

        Todas las pruebas de performance de aplicaciones que consumen mucha CPU demuestran que compiladas en 64 bits, con núcleo de 64 bits corren igual o a veces más lento que en 32 bits.

        Solamente aplicaciones muy excepcionales, diseñadas específicamente para aprovechar los 64 bits se verían beneficiadas y eso es algo sumamente escaso. Por el contrario, el uso de 64 bits genera problemas adicionales que hacen que realmente no valga la pena para nada.

  • Decir que hemos llegado a los 512 núcleos comparándolo con los 4 núcleos actuales que traen los CPU comerciales me parece un grave error. Las chips gráficos HACE RATO que tienen "núcleos" en paralelo. Que nVidia haya sacado un kit para poder aprovechar esta potencia es nuevo, pero tampoco tanto. Ademas cabe resaltar que ATI con sus Radeon tiene algo similar.

    Decir que un chip gráfico contiene "512" núcleos donde cada uno es equiparable a un nucleo de un CPU es un disparate, y con esta noticia se da a entender esto.


    No puedo dejar pasar en alto, como a pesar de haber salido una arquitectura nueva de chips graficos de ATI/AMD hace menos de 1 semana tu no dijiste nada, pero unos datos teóricos de nVidia si.

  • Con esto...y la noticia de enero "NVIDIA anuncia tarjeta con 480 núcleos y casi 2 TeraFlops (Enero 2009)" queda demostrado que tu fuerte no son las tarjetas graficas eliax y me parece muy cierto lo que comenta gonzalo sobre las ATI y que no hayas comentado nada al respecto de ella

    • Hablar sin saber no es bueno.... Estos se refiere a GPGPU que son equivalentes a CPUs tradicionales mtinúeos. Eliax está correcto en su argumento.

  • Pero por favor, el sr. eliax tiene todo el derecho a publicar lo que quiera y crea en su portal. Ahora eso de lo 512 Nucleos de Nvidia es algo que nos debe sorprender. Y ahi esta, el como lo vamos a aprovechar..

    • Verdad, y para aprovecharlos está Grand Central de Apple que ahora es open source y funcionará en Linux y Windows.

  • Aunque es cierto que el artículo no profundiza demasiado en puntos claves, tampoco está diciendo explicitamente algo que no sea verdad.

    El tema de comparar nucleos de GPU con los de CPU es cierto pero pues en ningun lugar se dice que estos sean iguales, aunque si es verdad que es recomendable el escribir alguna aclaración al respecto ya que para los que no esten al tanto de la GPGPU es posible caer en este error.

    Igualmente, hubiera sido bueno el tener noticias acerca de el lanzamiento de la nueva gama 5800 de AMD-ATi que igualmente, aunque menos avanzado comparado con CUDA, posee ATI STREAM para la programación en paralelo en la GPU, sin embargo, dado que las mejoras para GPGPU por el cambio de arquitectura en el caso de AMD es mucho menor que en el caso de NVIDIA no es una noticia tan importante como esta en este campo en específico. En ATI se aumento la fuerzan bruta pero en NVIDIA se mejoró ademas puntos claves a la hora de programar en CUDA. (Imagino que lo mismo sucede para OpenCL y DirectX 11 pero dado que no he trabajado en estos 2 ultimos, no opino).

    Por último, es cierto que se nota poco conocimiento acerca del tema por parte de Eliax pero pues no podemos exigirle ser un experto en todos los campos, ademas este es su blog y en últimas, el puede escribir lo que se le antoje.

    Suerte...

  • Hola a todos,

    Disculpen la tardanza en responder a los comentarios, hoy es un muy día ocupado con mi bebé.

    Pero brevemente, esta noticia apenas la leí y la reporté, no tuve tiempo en profundizar como usualmente lo hago. A los que tengan inquietud, los refiero a otras noticias anteriores en eliax en donde explico con lujo de detalles las diferencias entre un GPU y un CPU (incluso en la universidad diseñé desde cero uno por mi cuenta con stream processing, por lo que se bastante de este tema).

    Lo importante de esta noticia es que con esta arquitectura NVIDIA entra de lleno en la computación genérica basada en GPUs (lo llamado GPGPU), con una arquitectura creada para escalar a miles de núcleos, así como optimizada desde la salida para el estándar OpenCL (hagan búsqueda en eliax para saber mas al respecto) en vez de su implementación previa y propietaria.

    Otra cosa importante es que como dije en el artículo esta será la nueva base para todas las tarjetas de NVIDIA, incluyendo las GeForce.

    De paso esta nueva arquitectura es muchísimo mas compacta y consume mucho menos energía que propuestas anteriores de NVIDIA como su solución con 480 núcleos de la cual les hablé a inicios de este año.

    Y gracias a todos por sus comentarios y por ser tan pacientes en momentos como este cuando apenas tengo un par de minutos para entrar a eliax y responder sus inquietudes.

  • Me parece que las comunidad de usuarios tienen que abrir los ojos , los 512 nucleos de nvidia que salga al mercado primero para saber como se van ha comportar este nuevo hardware y un software que saque todos sus beneficios, pero los 512 nucleos sea de nvidia ó ati tiene que beneficiar desde el usuario comun hasta el mas exigente, entonces tambien debe haber un sistema operativo que trabaje muy bien con todo este poder de computo, bueno tal vez necesitamos todos un nuevo S.O. ó que pueda adaptarse a los nuevos sistemas operativos que no estaban preparados para esto, tal vez un linux que se adapte a todos estos cambios, en mi oponion me parece que el poder del computo en este momento esta muy bueno, pero ya no se que mas rapido quieren que vaya una pc , no vamos estar comprando pc todos los años ...Y un saludos a eliax por este espacio y si puede que nos comente de la SERIE 5800 ATI/AMD

  • esos 512nucleos no es para jugar ni para tarjetas high end de usuario final es para supercomputadoras claro esta que para los usuario domesticos a den sacar versiones con menos nucleos si pero usando la tecnologia fermi

    • Warbytex,

      En realidad eso no está enteramente correcto...

      Hoy día cualquier juego que renderice gráficos puede tomar ventaja "automática" de esos 512 núcleos por medio de DirectX/3D, OpenGL y otros APIs, inclusive algunos juegos viejos pueden sacarle ventaja indirectamente sin haber sidos previamente programados.

      Y a propósito, un gran uso para estos 512 núcleos es para renderización 3D del tipo "ray-tracing", en donde cada pixel de la pantalla es independiente de los demás, por lo que es posible dividir la pantalla en 512 segmentos y escalar la renderización casi linealmente.

  • La tarjeta ATI RADEON HD 5800 tiene 1,600 nucleos.

  • Creo q lo mas notable del Fermi es la capacidad de poseer cache jerarquizado.. cosa q desdibujaria la diferencia entre un CPU y GPU..

Añadir Comentario

tu nombre
tu email
(opcional)
web personal
(opcional)
en respuesta a...
comentario de caracteres máximo
6 + 8 = requerido (control anti-SPAM)
 

"Ese diálogo entre el racionalismo y el budismo en lo personal me suena a un cuento que leí cuando niño acerca de unos monjes ciegos que se acercaron a un elefante para saber cómo era.

Uno agarró las orejas y dijo que el elefante era como un abanico, otro agarró la cola y dijo que era una cuerda, otro agarró la trompa y dijo que era como una gran serpiente, otro agarró el lomo y dijo que era una pared.

Nunca terminaron de determinar como era el elefante porque cada uno se aferraba a su pedacito de verdad. Todos tenían razón y estaban equivocados a la vez.

Si es cierto que somos científicos, se supone que debemos aceptar el principio de que cualquier tesis es válida hasta que surja una nueva antítesis que la eche por tierra. Esto es verdad hasta con las filosofías, ¿o no?
"

por "Eliud" en oct 25, 2010


en camino a la singularidad...

©2005-2014 josé c. elías
todos los derechos reservados
como compartir los artículos de eliax