Portada! Intel y el Xeon que los puede devolver al juego

Tbon

Simulation?
Miembro del Equipo
Fundador
ADMIN
Se incorporó
20 Enero 2004
Mensajes
13.680
Intel-4th-Gen-Xeon-Sapphire-Rapids-SP-CPU-Die-Shots-Leak-_9.jpg

Hace rato que venimos viendo como AMD pasa una y otra vez la maquina en el mundo x86 con una Intel que no tiene mucho que decir, no obstante dado lo que se ha filtrado estos dias queda claro que quieren hacer algo al respecto.

La información viene de un conocido leaker: YuuKi-AnS, que el sabado comenzó a entregar información bastante solida sobre los nuevos Xeon "Sapphure Rapids" de 4ta generación y con detalles que estan haciendo salivar a quienes esperan una posible llegada al mundo de los equipos de escritorio y notebooks.

Porque ha generado tanta expectativa?, lo primero porque la info filtrada viene con fotos del ES (el ejemplar de ingenieria) con los cores al descubierto y muestra no solo que los nuevos Xeon tendran 56 nucleos (14 por cada chiplet) lo que podria ser meh en comparacion con lo que ofrece AMD, sino porque se confirma que este seria un CPU MCM (con chiplets como los fabrica AMD), lo cual para algunos podria no ser tan sorprendente pero era algo que todavia no veiamos en los procesadores de Intel.


Intel-4th-Gen-Xeon-Sapphire-Rapids-SP-CPU-Die-Shots-Leak-_6-e1623507731327-1480x1078.jpg

Se alcanzan a percibir los 4 chips independientes "pegados"

Segun el mismo leak esto sería posible dado que Intel habria resuelto su ya eterno problema de comunicacion entre cores que no les permitia escalar en chips que no fueran de 1 sola pastilla, lo que seria gracias a una tecnologia de comunicacion similar a la del Infinity Fabric de AMD llamada CXL (Compute Express Link) que permite la comunicacion con gran ancho de banda, baja latencia y capacidades de coherencia en cache entre chiplets distintos.

No obstante lo anterior, lo mas interesante de lo filtrado, tiene que ver con la inclusion de hasta 64GB de memoria HBM2e on-chip (16 gb por cada chiplet) que tendria la funcion de ser memoria ram y cache L4 al mismo tiempo a la friolera de 1TB/s, con la posibilidad de funcionar como buffer para los modulos Ram tradicionales (que seran DDR5 por lo demas).

Esto es relevante porque este salto bien podria significar (si queremos ponernos optimistas) un procesador para escritorio de 1 chiplet de estos con 10 o 12 cores y lo mas importante con una GPU integrada con hasta 16GB HMB2e disponibles a una velocidad de cache L4, en un escenario donde las GPUs son cada vez mas importantes (y las cpus cada vez mas irrelevantes en el rendimiento final) bien podria ser un tremendo golpe al tablero.

Habra que esperar y ver, sabemos que el gran limite podria ser el consumo electrico, pero esta claro que si Intel es capaz de de salir de su zona de confort bien podria llegar un producto que cambie el paradigma del mercado, porque esta claro que si no lo hacen, alguien mas lo hará.

Fuente: Wccftech
 

Carlos E. Flores

Zombie
Miembro del Equipo
MOD
Se incorporó
17 Marzo 2005
Mensajes
28.548
Wow!

las GPUs son cada vez mas importantes (y las cpus cada vez mas irrelevantes en el rendimiento final)
Eso no lo entendí. ¿En qué tipo de computador?
En edición de audio y video sigue siendo la CPU la que se lleva casi todo el trabajo. En 3D ya empieza a cambiar la cosa.
 

Tbon

Simulation?
Miembro del Equipo
Fundador
ADMIN
Se incorporó
20 Enero 2004
Mensajes
13.680
Eso no lo entendí. ¿En qué tipo de computador?
En edición de audio y video sigue siendo la CPU la que se lleva casi todo el trabajo. En 3D ya empieza a cambiar la cosa.

Yo diria que es cada vez mas a la inversa (aunque para suites de musica puede no ser tan relevante todavia), ya casi no hay softwares del tipo audiovisual que no traigan consigo soporte para OpenCL, Cuda o Metal, la mayoria cuando tienen estas API activadas casi no usan la CPU.

Claramente hay otros ambitos como el desarrollo, el cifrado y el trabajo con bases de datos que dependen mucho mas de la cpu, pero estos estan cada vez mas confluyendo en los softwares de IA que tambien son acelerados por GPU, o definitivamente estan mas cerca del mundo empresarial donde no requieres tanto "poder" de calculo o donde derechamente es mas facil trabajar en la nube.

Cabe destacar que con las nuevas tecnologias que trajeron las consolas, ahora hasta el manejo del almacenamiento pasara por la GPU.


 

Carlos E. Flores

Zombie
Miembro del Equipo
MOD
Se incorporó
17 Marzo 2005
Mensajes
28.548
Yo diria que es cada vez mas a la inversa (aunque para suites de musica puede no ser tan relevante todavia), ya casi no hay softwares del tipo audiovisual que no traigan consigo soporte para OpenCL, Cuda o Metal, la mayoria cuando tienen estas API activadas casi no usan la CPU.

Claramente hay otros ambitos como el desarrollo, el cifrado y el trabajo con bases de datos que dependen mucho mas de la cpu, pero estos estan cada vez mas confluyendo en los softwares de IA que tambien son acelerados por GPU, o definitivamente estan mas cerca del mundo empresarial donde no requieres tanto "poder" de calculo o donde derechamente es mas facil trabajar en la nube.

Cabe destacar que con las nuevas tecnologias que trajeron las consolas, ahora hasta el manejo del almacenamiento pasara por la GPU.


Pues cuando renderizo video el trabajo se lo lleva la CPU. La GPU ayuda un poco solamente. Por eso la duda.
 

tglaria

InExperto
Se incorporó
10 Febrero 2005
Mensajes
9.774
Pues cuando renderizo video el trabajo se lo lleva la CPU. La GPU ayuda un poco solamente. Por eso la duda.
¿con qué software haces el renderizado?
Tenía entendido que hace rato que editores de video tienen aceleración por GPU (no necesariamente mejor o más rápida que la CPU, pero tienen la opción).
El menos el conversor Handbrake tiene esa opción.
 

Carlos E. Flores

Zombie
Miembro del Equipo
MOD
Se incorporó
17 Marzo 2005
Mensajes
28.548
¿con qué software haces el renderizado?
Tenía entendido que hace rato que editores de video tienen aceleración por GPU (no necesariamente mejor o más rápida que la CPU, pero tienen la opción).
El menos el conversor Handbrake tiene esa opción.

Uso varios programas.
Todo traen aceleración por GPU, por lo que así se usa la GPU como ayuda para el procesador. Pero sigue siendo la CPU la que se lleva el trabajo pesado. Ojo, en 3D se supone que ya pasa a ser la GPU muy importante, pero yo hablo de renderizado de video normal, común y silvestre donde no hay cálculos de física.
De todas maneras sin tener varios tipos de hardware para hacer pruebas no hay ,mucho como comparar.

El Windows muestra todo en porcentaje. Lo que no es un parámetro que diga mucho tampoco. Por ejemplo, con el i74470K que usaba la CPU llegaba al 100% en renderizar uno de mis videos mientras que la GPU no pasaba del 10% y me demoraba una media hora en renderizar un video de 5 min. Ahora con el Ryzen 1700 la CPU anda por el 20% y la GPU también, pero demora unos 5 a 7 minutos en renderizar uno de los mismos videos. Un cambio tremendo y salió de cambiar la CPU y la RAM. Tampoco es constante, varía con peaks y valles el uso de cada uno.

Si no uso efectos, es decir ninguno, lo que básicamente es cambiar el formato del video sólamente, la GPU se lleva aparentemente más trabajo ya que sale con porcentaje más alto. Y habiendo transiciones y efectos la CPU se pone a trabajar más pesado. Entonces, de video a video cambia lo que consume cada una de las cosas.

Lo que no entiendo, es por qué habiendo tanto recurso libre a veces no convierte más rápido. Creí que era por la velocidad del disco, pero acá se ve claramente que no.

Esto es renderizando el último video de mi música que subí a Youtube. Poquísimos efectos y transiciones. A lo más un Lut. Y se ve que la GPU curiosamente usa más recursos en apariencia decodificando los videos base que renderizando.

Tengo más dudas que respuestas, por eso pregunto.

1623685903943.png
 

Tbon

Simulation?
Miembro del Equipo
Fundador
ADMIN
Se incorporó
20 Enero 2004
Mensajes
13.680
Bueno eso que muestras es lo que se suele dar, de los 8 nucleos, con suerte ocupas 2 (25%), el resto se lo lleva la tarjeta.

Que la gpu no llegue al 100% no implica que no se lleve la mayoria de la pega.

Respecto de software como Premiere se da el mismo comportamiento, la diferencia con o sin tarjeta es diametralmente distinto, caso especial el de Davinci Resolve que simplemente no parte si no tienes una vga dedicada.
 

Tbon

Simulation?
Miembro del Equipo
Fundador
ADMIN
Se incorporó
20 Enero 2004
Mensajes
13.680
ahh otra cosa, ojo que con los proces intel suele pasar que los softwares de encoding dan prioridad a quicksync que viene en la cpu y dejan de ocupar la GPU, en handbrake por ejemplo hay que hacer el cambio sino no agarra la gpu.
 

Carlos E. Flores

Zombie
Miembro del Equipo
MOD
Se incorporó
17 Marzo 2005
Mensajes
28.548
Al parecer el tema es complicado. Ojalá algún día pudiera probar las CPUs nuevas a ver qué impacto tienen. Se ve que va a ser tremendo, al menos en el papel.
 

Tbon

Simulation?
Miembro del Equipo
Fundador
ADMIN
Se incorporó
20 Enero 2004
Mensajes
13.680
Al parecer el tema es complicado. Ojalá algún día pudiera probar las CPUs nuevas a ver qué impacto tienen. Se ve que va a ser tremendo, al menos en el papel.

Hice un compendio de Premiere Pro de las pruebas que hice en pugetbench (que incluye playback + export de video) entre el Ryzen 4600h de 6 nucleos que revise hace poco, con el i7 6700 de 4 nucleos que revise el año pasado, la prueba escencialmente es la misma:

1623691186861.png


el i7 de hace 4 generaciones atras y con 2 cores menos le saca mas del doble al Ryzen 4600h, por otro lado la diferencia entre el i7 6700 sin gpu y el Ryzen 4600h es bastante "menor".
 

wurrzag

Ciclista Jipi
Se incorporó
30 Mayo 2006
Mensajes
8.945
Uso varios programas.
Todo traen aceleración por GPU, por lo que así se usa la GPU como ayuda para el procesador. Pero sigue siendo la CPU la que se lleva el trabajo pesado. Ojo, en 3D se supone que ya pasa a ser la GPU muy importante, pero yo hablo de renderizado de video normal, común y silvestre donde no hay cálculos de física.
Cuando uno se arma un NAS y necesita re-encondear para el dispositivo de destino se nota mucho el trabajo de la GPU, claro, en aquellos se usan cpu mas bien modestas.
 

NIN

Opteron Fanboy
Se incorporó
5 Septiembre 2005
Mensajes
1.447

Hace rato que venimos viendo como AMD pasa una y otra vez la maquina en el mundo x86 con una Intel que no tiene mucho que decir, no obstante dado lo que se ha filtrado estos dias queda claro que quieren hacer algo al respecto.

La información viene de un conocido leaker: YuuKi-AnS, que el sabado comenzó a entregar información bastante solida sobre los nuevos Xeon "Sapphure Rapids" de 4ta generación y con detalles que estan haciendo salivar a quienes esperan una posible llegada al mundo de los equipos de escritorio y notebooks.

Porque ha generado tanta expectativa?, lo primero porque la info filtrada viene con fotos del ES (el ejemplar de ingenieria) con los cores al descubierto y muestra no solo que los nuevos Xeon tendran 56 nucleos (14 por cada chiplet) lo que podria ser meh en comparacion con lo que ofrece AMD, sino porque se confirma que este seria un CPU MCM (con chiplets como los fabrica AMD), lo cual para algunos podria no ser tan sorprendente pero era algo que todavia no veiamos en los procesadores de Intel.


Ver adjunto 16077
Se alcanzan a percibir los 4 chips independientes "pegados"

Segun el mismo leak esto sería posible dado que Intel habria resuelto su ya eterno problema de comunicacion entre cores que no les permitia escalar en chips que no fueran de 1 sola pastilla, lo que seria gracias a una tecnologia de comunicacion similar a la del Infinity Fabric de AMD llamada CXL (Compute Express Link) que permite la comunicacion con gran ancho de banda, baja latencia y capacidades de coherencia en cache entre chiplets distintos.

No obstante lo anterior, lo mas interesante de lo filtrado, tiene que ver con la inclusion de hasta 64GB de memoria HBM2e on-chip (16 gb por cada chiplet) que tendria la funcion de ser memoria ram y cache L4 al mismo tiempo a la friolera de 1TB/s, con la posibilidad de funcionar como buffer para los modulos Ram tradicionales (que seran DDR5 por lo demas).

Esto es relevante porque este salto bien podria significar (si queremos ponernos optimistas) un procesador para escritorio de 1 chiplet de estos con 10 o 12 cores y lo mas importante con una GPU integrada con hasta 16GB HMB2e disponibles a una velocidad de cache L4, en un escenario donde las GPUs son cada vez mas importantes (y las cpus cada vez mas irrelevantes en el rendimiento final) bien podria ser un tremendo golpe al tablero.

Habra que esperar y ver, sabemos que el gran limite podria ser el consumo electrico, pero esta claro que si Intel es capaz de de salir de su zona de confort bien podria llegar un producto que cambie el paradigma del mercado, porque esta claro que si no lo hacen, alguien mas lo hará.

Fuente: Wccftech
Debe ser buena la durabilidad de la HBM2e para arriesgarse a poner tanto en cada chiplet. Suelo ser pesimista y para entornos que se les da como guaraca a la memoria prefiero que esta sea intercambiable. Entiendo que el minado es una de ellas... Ni hablar de SAP HANA
 

frosstatx

AMD EX-NV Y LINUX FANBOY
Se incorporó
27 Junio 2008
Mensajes
483
Cuando uno se arma un NAS y necesita re-encondear para el dispositivo de destino se nota mucho el trabajo de la GPU, claro, en aquellos se usan cpu mas bien modestas.
En plex... cuando hago transcoding por gpu se me ve super pixelado, asi que aplico proce no mas y se ve impecable
 

Tbon

Simulation?
Miembro del Equipo
Fundador
ADMIN
Se incorporó
20 Enero 2004
Mensajes
13.680
Debe ser buena la durabilidad de la HBM2e para arriesgarse a poner tanto en cada chiplet. Suelo ser pesimista y para entornos que se les da como guaraca a la memoria prefiero que esta sea intercambiable. Entiendo que el minado es una de ellas... Ni hablar de SAP HANA

Yo creo que no debiese ser muy distinto de una cache normal, aunque claro con un nivel de dificultad de implementar (por los stacks) mucho mayor.
 

Cosme

Gold Member
Se incorporó
27 Febrero 2005
Mensajes
8.281
queria aprovechar de postear un rumor que salió en engadget el dia de hoy, que indica que intel (junto con apple) seria el primero en fabricar a 3nm con TSMC

 
Subir