Te pregunté para saber con quien estoy intercambiando opinión, no era necesario sacar a relucir galones y estrellas. Pero se da el caso que también estoy en esto, quizás no a tu altura, pero en instituto y centro del cual dependo y soy responsable de mi area, también diseñamos, armamos y mantenemos hardware y software (area científica). Y si no lo temenos disponible en el mercado, simplemente lo creamos, lo diseñamos y lo adaptamos a nuestras necesidades. Por esa razón tenemos siempre a nuestra disposición, lo último en tecnología. También utilizamos "varias máquinas" en su versiones data center, repartidas tanto en nuestro campo como en otros centros científicos.
Nadie está reluciendo galones y estrellas... que wea jajaja. No, es un respaldo de en qué baso lo que estoy diciendo, y de hecho puedo hacer contraste de los problemas que normalmente tiene la gente de IT en situaciones similare. Te cuento un caso:
Nvidia tiene un problema de reporte de memoria libre. Lo tiene hace 2 años ya (y va para el tercero). En palabras simples, el driver piensa que hay X memoria libre, y el administrador de memoria de windows piensa que hay X+Y memoria libre. Para uso cotidiano esta wea da lo mismo, pero en uso más intensivo de VRAM, lo normal es que las aplicaciones usen un porcentaje de ram mas un pequeño extra, y ese pequeño extra, se comparte. (Onda la app necesita 500mb de vram pero reservó 600mb, entonces después viene otra app y le pide a windows esos 100mb que tenia la otra app, de vuelta).
Esa wea, está rota desde los driver 500 de nvidia en adelante, y afecta a aplicaciones de reserva masiva de VRAM, desde minado, machine learning, y especialmente, motores de render gpu. Los resultados son 2, o el motor dumpea info al almacenamiento del pc, o simplemente crashea. Y este es un problema desde enero de 2022... Realmente desde antes pero se masificó ahí.
Toda esta wea, cada engranaje de ese rompecabezas, para los que trabajamos haciendo render en GPU, lo conocemos en detalle, pero hablamos de más de 1 año entero de diagnóstico y probar weas porque nadie sabía que chucha lo causaba.
Hasta Julio del año pasado, hice clases de Render, y el laboratorio que a mi me tocaba usar, tenia drivers y programas al dia, por supuesto, por protocolo de la u... adicional los pc estaban frezeados. La app de licencia de Maxon estaba bugeada, pero como tenía que estar la última versión instalada, no podíamos hacer downgrade a una version estable, que no rompía las licencias del motor, y aparte, puta, el driver, hacía que renderar fuera imposible, o una wea insufriblemente lenta, y a regañadientes logre hacer que la gente de IT instalasen el driver que les dije que usaran.
A que voy con todo esto? Que trabajes en IT te entrega muchísimo conocimiento sobre que programas se usan en ciertas areas, además de los requisitos que establece la certificación necesaria para instalarlos... Pero esto viene en la mayoría de relaciones públicas y de administración, no de gente que usa ese software.
Yo no espero que tu sepas del problema de memoria de los drivers de nvidia, no es tu area, y a mi como alguien del area que tiene ese conocimiento al respecto, me corresponde hacerlo saber al equipo encargado de eso, que para mi es pura burocracia innecesaria. Lo fácil que se me hubiera hecho pedirle a mis estudiantes que instalasen el driver que indicaba y ya, pero no podíamos, porque los pc estaban freezeados.
En la práctica tiene mucha utilidad tener dominio técnico del software con el que trabajas a la vez que de hardware, porque aprendes, a la mala a balancear weas, y te das cuenta de cuánta plata se desperdicia en departamentos grandes en weas que no necesitan.
Sin wearte, en ese entonces, tuve una pelea con administración de la carrera, porque cuando me quejé de que no me pescaban por la wea de los drivers, mandaron a comprar gpus nuevas... Radeon 6800 XT... Redshift en ese entonces solo corria en Nvidia, pero administración dijo que si, porque sale en los requisitos de la página... donde claramente dice "macOS"....
Tener el último hardware o el último software, no es siempre lo mejor. Hay datacenters que corren Radeon Instinct, y chao, un montón de gente no puede usar esas weas porque las apps están desarrolladas en CUDA, y a su vez, datacenters que solo tienen Nvidia Tesla, y la gente que usa HIP de AMD, simplemente cagó. O ahora, los nuevos Xeon que se dividen en performance cores y eficiency cores... la cantidad de apps que se rompen por el solo hecho de que es otro scheduler el que administra que núcleo hace que, tecnologia de punta que un montón de software simplemente no soporta... Y eso ha pasado siempre.
¿Que tiene de malo entonces el que sugiera equiparse de un equipo de última generación? No creo que el amigo esté dispuesto a cambiar de notebook al cabo de un par de años. Por lo demás, la adaptación de softwares, las empresas del sector, están obligadas de ir adaptándose rápido, sino se quedarán atrás, así de simple.
Creo me he acostumbrado a considerar compras de este estilo por costo eficiencia, y para mi, irse por un note de 1.5m, que es el presupuesto que establecieron arriba, por una máquina ultima generación, no tiene sentido, cuando por 1/3 de esa plata, compras algo que es apenas 10-20% "Peor"... Y ese peor es super relativo, porque en usar la máquina, incluso navegando en un programa pesado, no hay diferencia alguna. A día de hoy la diferencia solo se siente en tareas de fuerza bruta. Para mi, es gastar 1m adicional, por tener lo último, porque si, porque no hay justificación de otra forma. Y lo adaptarse rápido, es demasiado debatible. Un montón de cosas se desarrollan en cada generación de procesadores y GPU, que no afectan para nada al público general. Intel por ejemplo, tuvo implementación de AVX 512 que le daba un boost rídiculo en algunos juegos por sobre AMD, durante varias generaciones... Sabes cuantos programas 3D, DCC, se benefician de eso? Ninguno.
Donde si podemos decir que hubo un impacto brutal fue cuando salió RTX. Esa wea fue un antes y después en un montón de areas, incluyendo la mia. Nvidia anunció la primera Quadro RTX, la A8000, como la revolución del raytracing, y lo presentaron como la segunda venida de cristo. Unreal tenia soporte al lanzamiento, pero herramientas de producción masivas, se demoraron bastante en adoptarla. El primer motor en adoptar RTX como acelerador de rayos, fue Arnold, y lo presentó Nvidia mismo. Eso fue 1 año entero después del lanzamiento de RTX. Solo te puedo aportar que Arnold es el motor de render más lento que existe en el mercado... Y puta, tengo un post en este mismo foro de cómo mi setup con 3 1060 tenia mejores tiempos de render que una RTX 2080, a la mitad de precio. (Se fue a la chucha cuando salieron las serie 3000 eso si). Lo último no tiene por qué ser lo mejor, eso es una falacia.
Chicos, interesantes sus visiones, ahora si me permiten un agradecimiento, es gratificante cuando dos expertos no se atrincheran en su posición y comparten, así q gracias.
Mi compadre ha tenido problemas con su laptop. Perdió un cliente importante porque tenía que hacer una simulación q tomaba como 3 semanas en su laptop, tiempo que el cliente no tenía. Así q va a buscar la capacidad de procesamiento cpu mas potente q pueda pagar, 16 de RAM (transmití el consejo de ddr5), y una buena tarjeta de video
Ese note está mas desactualizado que la chucha. He hecho simulaciones de arena que no se demoran más de 1 dia (Las más pesadas). Pero acompaño esto con comentario a lo siguiente.
Como para considerarlo, me tocó vendele equipos a clientes que trabajaban en esto y otras cosas. Y varios hacían lo mismo: un equiipo para mostrar los trabajos y otro para hacerlos.
El que más recuerdo es uno que usaba un Mac para juntarse con los clientes y mostrarle los trabajos y resultados a los clientes. me contaba que lo hacía por que los clientes eran muchas veces arribistas y si no veían un Mac no te tomaban igual de en serio. Aunque el Mac no le servía de nada para renderizar
Lo comento por que para renderizar lo mejor es un equipo de escritorio de todas maneras.
Me ha tocado ir a varias filmaciones de agencias medio cuicas. Típico que la mesa de la agencia se ve asi:
5 macbooks... todos con iphones. Esta gente de verdad no te toma en serio si no tienes algo Apple, no te ven profesional.
De ves en cuando tambien necesito un note, pero no invertí mucho en uno, simplemente me aseguré de que se viese bonito. Me compre una MSI Modern en este mismo forito, 300 luquitas, o 350 por ahí, y le chanté otros 8gb de ram adicionales. La laptop por si sola ni cagando hace las weas que necesito, pero no necesito que sea la laptop la que lo haga. En la empresa trabajamos todo con parsec, incluso mi pc lo tengo en la red y vpn interna. Voy a un café, me instalo en una mesita, y remoteo todo, puta que es rico vivir en los 2020s... En el mismo café puedo hacer mis modelos, secuencias, simulaciones, conectarme a los servidores de la empresa, mandar renders, reinstalar windows si quiero de todas las máquinas, en un note de 300 lucas.