General Leftraru: El PC más grande de Chile

Pescador

Pajarón Viejo
Se incorporó
21 Noviembre 2012
Mensajes
1.309
1ae517ccbd714c58-e59b911a32b86762c073df87fefc4de8-1200x600.jpg



En un pequeño espacio físico en el Centro de Modelamiento Matemático de la Universidad de Chile está instalado el computador más potente de Chile y uno de los más grandes de Sudamérica: Leftraru.

“Leftraru se bautizó así en 2015 porque significa "Lautaro" en mapudungun. Actualmente, tiene una capacidad de 50 teraflops, que en palabras simples es como si 30 mil computadores trabajaran al mismo tiempo. Gracias a eso es que allí ocurren las cosas más variadas: desde determinar la viabilidad de un proyecto del MOP, elegir el mejor lugar para construir un colegio en Chile, determinar la frecuencia de trenes o incluso descubrir la explosión de supernovas a millones de años luz de distancia”.

Entre sus varias tareas, Leftraru procesa la información captada por el observatorio astronómica ALMA, las frecuencias de trenes en el norte o del metro en Santiago, generar modelos de posibles situaciones de catástrofe o la resistencia de obras viales a terremotos. También hay usos en la minería, con estudios sobre las probabilidades de colapso o seguridad en la excavación de nuevas vetas mineras, y en la agricultura, donde se ponena correr algoritmos para adelantarse a posibles plagas en las cosechas de todo Chile.

“Hace un año pasó que (Leftraru) llegó al 100% de su capacidad. Hubo colas de espera, algunos investigadores debían esperar hasta tres días en ejecutar sus simulaciones. Es la razón por la que se decidió ampliarlo: le agregaron más servidores la última tecnología en procesadores. Con eso se logró cuadruplicar su capacidad de cómputo"

Pese a eso, y los 1.200 millones de pesos que se han invertido en él, la máquina está acercándose nuevamente al 90% de su potencial de uso. Por eso, el laboratorio quiere a futuro que se cuente con una supercomputadora de última generación en cada región -en Chile no hay más de 7-, además de "que se asegure una inyección del Estado para subvencionar las mejoras que aseguren las necesidades de los científicos".

https://www.publimetro.cl/cl/notici...eftraru-supercomputador-cientificos-alma.html


¿Correrán bien los últimos juegos en Leftraru…? ¿Tendrá cuello de botella…? ¿Funcionará con Windows 10…?...

Linda la máquina. Se Pasó.

Saludos
 

Eliezar

mi gato :D
Se incorporó
1 Febrero 2007
Mensajes
4.848
el profe que me paso red hat trabaja ahi ,

Es bueno tener movimiento , chile esta al debe en cuanto a hpc , a mi me gusta , solo hecho cluster para matlab
 

senbe

Asesino de ferrules.
Miembro del Equipo
MOD
Se incorporó
25 Julio 2006
Mensajes
12.049
¿Cómo se programan esas cosas?
 

EITSAEB

Team Peacemaker Hater
Se incorporó
10 Septiembre 2006
Mensajes
4.656
pide a gritos una calculadora básica escrita en python :lol
 

Valenciaga

Motoquero HOG
Se incorporó
7 Mayo 2009
Mensajes
2.551
Interesante, te cuento algo corto para no aburrirte.

Hace unos tres años atrás, los científicos del Instituto Skobeltsyn de Física Nuclear, dependiente de la Universidad de Lomonosov, se dieron cuenta del potencial de los GPU de gráficas de PC de juego (en la ocurrencia Nvidia) y decidieron armar un PC para el cual crearon un software dedicado (procesamientos de ecuaciones integrales de mecánica cuántica). El resultado fue impresionante, lo que en un supercomputador tomaba horas, e incluso días, lo solucionaron en minutos. Luego se llevó a cabo una prueba ante el supercomputador de la Universidad de Bochum (Alemania), equipados nada menos que con un supercomputador a la arquitectura blue gene. Se trató de un complicado cálculo de ecuaciones de dispersión, el ruso tardo 15 minutos, contra casi tres días del supercomputador.
En resumen: en varios campos científicos relacionados con la física, física de plasmas, electrodinámica, geofísica, etc, se están adoptando este tipo de sistemas, bastante menos oneroso que los supercomputadores, y mucho más rápidos e igual de precisos en un amplio sector. En el MIT, Harvard, Princeton, Universidad de Frankfurt, etc, etc, ya están en operación.
 

V1NCI

Gold Member
Se incorporó
29 Septiembre 2006
Mensajes
3.566
Interesante, te cuento algo corto para no aburrirte.

Hace unos tres años atrás, los científicos del Instituto Skobeltsyn de Física Nuclear, dependiente de la Universidad de Lomonosov, se dieron cuenta del potencial de los GPU de gráficas de PC de juego (en la ocurrencia Nvidia) y decidieron armar un PC para el cual crearon un software dedicado (procesamientos de ecuaciones integrales de mecánica cuántica). El resultado fue impresionante, lo que en un supercomputador tomaba horas, e incluso días, lo solucionaron en minutos. Luego se llevó a cabo una prueba ante el supercomputador de la Universidad de Bochum (Alemania), equipados nada menos que con un supercomputador a la arquitectura blue gene. Se trató de un complicado cálculo de ecuaciones de dispersión, el ruso tardo 15 minutos, contra casi tres días del supercomputador.
En resumen: en varios campos científicos relacionados con la física, física de plasmas, electrodinámica, geofísica, etc, se están adoptando este tipo de sistemas, bastante menos oneroso que los supercomputadores, y mucho más rápidos e igual de precisos en un amplio sector. En el MIT, Harvard, Princeton, Universidad de Frankfurt, etc, etc, ya están en operación.

Yo diria que hace varios años antes. De hecho ya se venia desarrollando unos Softwares que calculaban propiedades fisicas en ambientes 3D. Ahi fui pasando de un Rnder Farm de CPUs, a uno de GPUs.....Lo que un CPU se demoraba 6 horas de calculos, un GPUs e demoraba 40 milutos
 
Última modificación:

Pescador

Pajarón Viejo
Se incorporó
21 Noviembre 2012
Mensajes
1.309
Interesante, te cuento algo corto para no aburrirte.

Hace unos tres años atrás, los científicos del Instituto Skobeltsyn de Física Nuclear, dependiente de la Universidad de Lomonosov, se dieron cuenta del potencial de los GPU de gráficas de PC de juego (en la ocurrencia Nvidia) y decidieron armar un PC para el cual crearon un software dedicado (procesamientos de ecuaciones integrales de mecánica cuántica). El resultado fue impresionante, lo que en un supercomputador tomaba horas, e incluso días, lo solucionaron en minutos. Luego se llevó a cabo una prueba ante el supercomputador de la Universidad de Bochum (Alemania), equipados nada menos que con un supercomputador a la arquitectura blue gene. Se trató de un complicado cálculo de ecuaciones de dispersión, el ruso tardo 15 minutos, contra casi tres días del supercomputador.
En resumen: en varios campos científicos relacionados con la física, física de plasmas, electrodinámica, geofísica, etc, se están adoptando este tipo de sistemas, bastante menos oneroso que los supercomputadores, y mucho más rápidos e igual de precisos en un amplio sector. En el MIT, Harvard, Princeton, Universidad de Frankfurt, etc, etc, ya están en operación.

No se si será algo relacionado con lo que cuentas, pero hace un par de años Adobe creó el Mercury Play Engine, que en esencia, es un sistema de procesamiento para editar video que usa los procesadores de la VGA para acelerar procesos de render de una manera formidable y lograr editar en tiempo real aunque sea con multiformatos en una sola línea de tiempo.

En mi caso, puedo insertar hasta tres capas de efectos en un clip sin renderear. Es la raja.
 

Rudel

Overclockero retirado.
Se incorporó
28 Octubre 2004
Mensajes
8.727
PC = Personal Computer :) ... esa cosa será el Computador mas grande de Chile, pero el PC mas grande no creo
 

Valenciaga

Motoquero HOG
Se incorporó
7 Mayo 2009
Mensajes
2.551
Yo diria que hace varios años antes. De hecho ya se venia desarrollando unos Softwares que calculaban propiedades fisicas en ambientes 3D. Ahi fui pasando de un Rnder Farm de CPUs, a uno de GPUs.....Lo que un CPU se demoraba 6 horas de calculos, un GPUs e demoraba 40 milutos

No lo pongo en duda, como lo que comenta Pescador también, solo que ahora se está en cierto punto "masificando" su uso, debido al costo y manutenciones muy inferiores en comparación.
 

V1NCI

Gold Member
Se incorporó
29 Septiembre 2006
Mensajes
3.566
No lo pongo en duda, como lo que comenta Pescador también, solo que ahora se está en cierto punto "masificando" su uso, debido al costo y manutenciones muy inferiores en comparación.

Si claro, solo queria rectificar que alguien ya se habia dado cuenta hace como 7 u 8 años.
 

clusten

ADMIN
Miembro del Equipo
ADMIN
Se incorporó
1 Julio 2007
Mensajes
6.239
Si claro, solo queria rectificar que alguien ya se habia dado cuenta hace como 7 u 8 años.
En realidad, la primera vez que alguien lo planteo fue en... 1987.

https://archive.org/stream/amazing-...omputing_Vol_02_12_1987_Dec#page/n81/mode/2up

Ahora, el problema es los multihilos. Muchos procesos dependen del anterior y ahí las soluciones con CPU son los reyes (para planificación minera, de nada te sirve GPGPU, necesitas el resultado del periodo anterior para calcular el siguiente, ahí los supercomputadores son los que mandan).
 
Subir