clopeza87

Miembro Activo
Se incorporó
18 Diciembre 2023
Mensajes
1
Hola amigos de capa9.
Mi señora es arquitecta, usa programas como revit, vray y autocad.
En general el notebook le andaba bien para autocad pero ahora que se puso a probar con vray el pc explotó.

Estuve mirando pero estoy demasiado fuera de las canchas, por lo que les pido a los masters del olimpo técnico un tarro de escritorio que le pueda servir para el render 3d con un presupuesto de 1.3 palos.

Estuve revisando alternativas en Mercado Libre y PC Factory que vienen semi listos, pero no se, no me convencen.
Vi este que creo que se acerca más de central gamer.


¿Qué me recomiendan?
 

Valenciaga

Motoquero HOG
Se incorporó
7 Mayo 2009
Mensajes
2.551
Que procesador recomiendan buscar en notebook de 1 a 1,5mm? Un buen amigo busca renovar su equipo (necesita q sea portátil) y usa plataformas de modelo. 3D de uso en ingeniería (civil 3D), ver y renderizar maquetas, etc.

Si te puedo dar un consejo, es que tu amigo se vaya por una plataforma de última generación (memorias DDR5, como dato). Tanto PCU como GPU, aportan cantidad de mejoras a las instrucciones de ya existentes y agregan nuevas. Esto hace que los programas existentes (los nuevos ya las traen en buena medida) se están actualizando ya que los beneficia en todo sentido. Con un notebook de nueva generación, estará tranquilo por un buen momento y con capacidad de mover sus programas de CAD y 3D con holgura y sin necesidad del CPU y GPU más potente del mercado.
 
Upvote 0

TheFuchsen

Campeón del Fotoshó
Se incorporó
18 Julio 2020
Mensajes
135
Si te puedo dar un consejo, es que tu amigo se vaya por una plataforma de última generación (memorias DDR5, como dato). Tanto PCU como GPU, aportan cantidad de mejoras a las instrucciones de ya existentes y agregan nuevas. Esto hace que los programas existentes (los nuevos ya las traen en buena medida) se están actualizando ya que los beneficia en todo sentido. Con un notebook de nueva generación, estará tranquilo por un buen momento y con capacidad de mover sus programas de CAD y 3D con holgura y sin necesidad del CPU y GPU más potente del mercado.
Puedes enlistar las cosas en las que se benefician los programas existentes?
Porque comparando un 5600x contra un 7600x de amd, ram ddr4 crucial de la mas barata vs unas balistix 6400 DDR5, la diferencia moviendo un personaje con pelo con fisicas en el viewport de Maya eran 2 frames... pasabamos de 12fps a 14 fps. Y por cierto cuando se anima, no se anima con pelo, la etapa de simulación se hace después.

En cad la diferencia es nula en comparación, a menos que estés haciendo surfacing, y de los pocos programas que se llegan a beneficiar del surfacing y la simulación, como Inventor usan más gpu para las colisiones.
Que la ram sea DDR5 no aporta en nada. En este tipo de aplicaciones donde se hace una gran carga de datos al inicio y final no hay diferencia alguna. La podria haber si tu SSD fuera más rápido que tu ram, que es el verdadero cuello de botella en carga de escenas, pero no es el caso, ni siquira una ram DDR3 es capás de saturar en tiempo de carga una escena compleja, no importa si es 3D o CAD (Diferenciados porque uno usa polígonos, mientras el otro son superficies nurbs). Aparte en entornos profesionales se trabaja con un servidor central, por lo que estás limitado a la velocidad de la red interna de la empresa.

En un notebook, donde no puedes actualizar el sistema a posteriori, estas cagado, las diferencias entre procesadores son mínimas. En plataformas, en un pc de escritorio es más justificable pasar de AM4 a AM5 para tener años de upgrade a futuro, pero en un note eso no existe, y la aplicación más cercana es lo que hace Framework, que literal cambian la placa madre completa.
 
Upvote 0

Valenciaga

Motoquero HOG
Se incorporó
7 Mayo 2009
Mensajes
2.551
Puedes enlistar las cosas en las que se benefician los programas existentes?
Porque comparando un 5600x contra un 7600x de amd, ram ddr4 crucial de la mas barata vs unas balistix 6400 DDR5, la diferencia moviendo un personaje con pelo con fisicas en el viewport de Maya eran 2 frames... pasabamos de 12fps a 14 fps. Y por cierto cuando se anima, no se anima con pelo, la etapa de simulación se hace después.

En cad la diferencia es nula en comparación, a menos que estés haciendo surfacing, y de los pocos programas que se llegan a beneficiar del surfacing y la simulación, como Inventor usan más gpu para las colisiones.
Que la ram sea DDR5 no aporta en nada. En este tipo de aplicaciones donde se hace una gran carga de datos al inicio y final no hay diferencia alguna. La podria haber si tu SSD fuera más rápido que tu ram, que es el verdadero cuello de botella en carga de escenas, pero no es el caso, ni siquira una ram DDR3 es capás de saturar en tiempo de carga una escena compleja, no importa si es 3D o CAD (Diferenciados porque uno usa polígonos, mientras el otro son superficies nurbs). Aparte en entornos profesionales se trabaja con un servidor central, por lo que estás limitado a la velocidad de la red interna de la empresa.

En un notebook, donde no puedes actualizar el sistema a posteriori, estas cagado, las diferencias entre procesadores son mínimas. En plataformas, en un pc de escritorio es más justificable pasar de AM4 a AM5 para tener años de upgrade a futuro, pero en un note eso no existe, y la aplicación más cercana es lo que hace Framework, que literal cambian la placa madre completa.

¿Me estas hablando de tu experiencia personal con CPU y GPU de nueva generación? En todo caso mi mención a la DDR5, fue solo una indicación a zhoen, para que tenga una idea a que tipo de plataforma me refiero, no al de sus performances en comparación a DDR anteriores.

Creo que fui claro en mi post, pero te lo explico diferente: Si utilizas programas (softwares) diseñados para plataformas anteriores en una de última generación, no verás grandes cambios. Pero estos programas están actualizando sus versiones para sacar un máximo provecho a las nuevas instrucciones y mejoras aportadas a las actuales en las nuevas plataformas.
 
Upvote 0

TheFuchsen

Campeón del Fotoshó
Se incorporó
18 Julio 2020
Mensajes
135
¿Me estas hablando de tu experiencia personal con CPU y GPU de nueva generación? En todo caso mi mención a la DDR5, fue solo una indicación a zhoen, para que tenga una idea a que tipo de plataforma me refiero, no al de sus performances en comparación a DDR anteriores.

Trabajo en esto, no solo me encargo de mantener los programas y estar al tanto de qué es compatible con que, también soy el que diseña, arma y mantiene los sistemas de la empresa, y no solo juega la experiencia personal y pudiendo medir manualmente cómo rinde cada cosa, muchos de los procesos que hacemos los podemos ejecutar de forma centralizada en varias máquinas (Usamos deadline), entonces puedes medir cuanto se demora cada máquina haciendo qué, en paralelo, puedes medir que sistema rinde mas o menos y en qué.

Creo que fui claro en mi post, pero te lo explico diferente: Si utilizas programas (softwares) diseñados para plataformas anteriores en una de última generación, no verás grandes cambios. Pero estos programas están actualizando sus versiones para sacar un máximo provecho a las nuevas instrucciones y mejoras aportadas a las actuales en las nuevas plataformas.

Da ejemplos. Implementar instrucciones en software profesional es algo que se evita precisamente para prevenir obsolescencia forzada. No vas a ver un software activamente usando la instrucción nueva de un procesador hasta quizás 5 años después, cuando se asume que las empresas ya han actualizado su hardware a algo más reciente. No es lo mismo que un juego. Más se observa en soporte de GPU, donde apenas sale un nuevo SDK de CUDA, es común que todos los renderers y kits de simulación actualicen el SDK por alguna optimización, la cual, tiene soporte promedio de GPUs de hasta 5 años atrás, de nuevo, por exactamente la misma razón.
Maya 2024, Max 2024, Autocad 2024, Inventor 2024, Blender 4, Cinema 4D, ninguno corre mejor en hardware de última generación comparado a generaciones anteriores. A lo mucho, en cómputo, tendrás mejoras de 20% de rendimiento, que son medibles en rendimiento bruto en los procesadores, y eso es comparable en cualquier test sintético y nada tiene que ver con las instrucciones que soporte un procesador.
 
Upvote 0

Valenciaga

Motoquero HOG
Se incorporó
7 Mayo 2009
Mensajes
2.551
Trabajo en esto, no solo me encargo de mantener los programas y estar al tanto de qué es compatible con que, también soy el que diseña, arma y mantiene los sistemas de la empresa, y no solo juega la experiencia personal y pudiendo medir manualmente cómo rinde cada cosa, muchos de los procesos que hacemos los podemos ejecutar de forma centralizada en varias máquinas (Usamos deadline), entonces puedes medir cuanto se demora cada máquina haciendo qué, en paralelo, puedes medir que sistema rinde mas o menos y en qué.

Te pregunté para saber con quien estoy intercambiando opinión, no era necesario sacar a relucir galones y estrellas. Pero se da el caso que también estoy en esto, quizás no a tu altura, pero en instituto y centro del cual dependo y soy responsable de mi area, también diseñamos, armamos y mantenemos hardware y software (area científica). Y si no lo temenos disponible en el mercado, simplemente lo creamos, lo diseñamos y lo adaptamos a nuestras necesidades. Por esa razón tenemos siempre a nuestra disposición, lo último en tecnología. También utilizamos "varias máquinas" en su versiones data center, repartidas tanto en nuestro campo como en otros centros científicos.

Da ejemplos. Implementar instrucciones en software profesional es algo que se evita precisamente para prevenir obsolescencia forzada. No vas a ver un software activamente usando la instrucción nueva de un procesador hasta quizás 5 años después, cuando se asume que las empresas ya han actualizado su hardware a algo más reciente. No es lo mismo que un juego. Más se observa en soporte de GPU, donde apenas sale un nuevo SDK de CUDA, es común que todos los renderers y kits de simulación actualicen el SDK por alguna optimización, la cual, tiene soporte promedio de GPUs de hasta 5 años atrás, de nuevo, por exactamente la misma razón.

Yo aprendí (posiblemente me equivoco) de que para prevenir la obsolescencia forzada o programada (llámala como quieras) es necesario mantener los equipos actualizados en lo posible, pero bueno.

No vas a ver un software activamente usando la instrucción nueva de un procesador hasta quizás 5 años después, cuando se asume que las empresas ya han actualizado su hardware a algo más reciente.

¿Que tiene de malo entonces el que sugiera equiparse de un equipo de última generación? No creo que el amigo esté dispuesto a cambiar de notebook al cabo de un par de años. Por lo demás, la adaptación de softwares, las empresas del sector, están obligadas de ir adaptándose rápido, sino se quedarán atrás, así de simple.

Maya 2024, Max 2024, Autocad 2024, Inventor 2024, Blender 4, Cinema 4D, ninguno corre mejor en hardware de última generación comparado a generaciones anteriores. A lo mucho, en cómputo, tendrás mejoras de 20% de rendimiento, que son medibles en rendimiento bruto en los procesadores, y eso es comparable en cualquier test sintético y nada tiene que ver con las instrucciones que soporte un procesador.

Porque aun no están suficientemente optimizados. Ahora que las instrucciones que soporte un procesador, no tengan nada que ver ¿entonces para qué incluirlas? El tiempo que nos ahorraríamos creando algoritmos, no te digo, lo sé por experiencia propia.

Estimado, hasta aquí mi participación en esta discusión, que por lo demás, se trataba de simplemente recomendar un buen notebook para CAD y 3D, doy paso a los expertos.
 
Upvote 0

zhoen

Campeón del Sur
Se incorporó
10 Julio 2003
Mensajes
1.531
Chicos, interesantes sus visiones, ahora si me permiten un agradecimiento, es gratificante cuando dos expertos no se atrincheran en su posición y comparten, así q gracias.

Mi compadre ha tenido problemas con su laptop. Perdió un cliente importante porque tenía que hacer una simulación q tomaba como 3 semanas en su laptop, tiempo que el cliente no tenía. Así q va a buscar la capacidad de procesamiento cpu mas potente q pueda pagar, 16 de RAM (transmití el consejo de ddr5), y una buena tarjeta de video
 
Upvote 0

Carlos E. Flores

Zombie
Miembro del Equipo
MOD
Se incorporó
17 Marzo 2005
Mensajes
28.525
Chicos, interesantes sus visiones, ahora si me permiten un agradecimiento, es gratificante cuando dos expertos no se atrincheran en su posición y comparten, así q gracias.

Mi compadre ha tenido problemas con su laptop. Perdió un cliente importante porque tenía que hacer una simulación q tomaba como 3 semanas en su laptop, tiempo que el cliente no tenía. Así q va a buscar la capacidad de procesamiento cpu mas potente q pueda pagar, 16 de RAM (transmití el consejo de ddr5), y una buena tarjeta de video

Como para considerarlo, me tocó vendele equipos a clientes que trabajaban en esto y otras cosas. Y varios hacían lo mismo: un equiipo para mostrar los trabajos y otro para hacerlos.

El que más recuerdo es uno que usaba un Mac para juntarse con los clientes y mostrarle los trabajos y resultados a los clientes. me contaba que lo hacía por que los clientes eran muchas veces arribistas y si no veían un Mac no te tomaban igual de en serio. Aunque el Mac no le servía de nada para renderizar :p

Lo comento por que para renderizar lo mejor es un equipo de escritorio de todas maneras.
 
Upvote 0

TheFuchsen

Campeón del Fotoshó
Se incorporó
18 Julio 2020
Mensajes
135
Te pregunté para saber con quien estoy intercambiando opinión, no era necesario sacar a relucir galones y estrellas. Pero se da el caso que también estoy en esto, quizás no a tu altura, pero en instituto y centro del cual dependo y soy responsable de mi area, también diseñamos, armamos y mantenemos hardware y software (area científica). Y si no lo temenos disponible en el mercado, simplemente lo creamos, lo diseñamos y lo adaptamos a nuestras necesidades. Por esa razón tenemos siempre a nuestra disposición, lo último en tecnología. También utilizamos "varias máquinas" en su versiones data center, repartidas tanto en nuestro campo como en otros centros científicos.

Nadie está reluciendo galones y estrellas... que wea jajaja. No, es un respaldo de en qué baso lo que estoy diciendo, y de hecho puedo hacer contraste de los problemas que normalmente tiene la gente de IT en situaciones similare. Te cuento un caso:

Nvidia tiene un problema de reporte de memoria libre. Lo tiene hace 2 años ya (y va para el tercero). En palabras simples, el driver piensa que hay X memoria libre, y el administrador de memoria de windows piensa que hay X+Y memoria libre. Para uso cotidiano esta wea da lo mismo, pero en uso más intensivo de VRAM, lo normal es que las aplicaciones usen un porcentaje de ram mas un pequeño extra, y ese pequeño extra, se comparte. (Onda la app necesita 500mb de vram pero reservó 600mb, entonces después viene otra app y le pide a windows esos 100mb que tenia la otra app, de vuelta).
Esa wea, está rota desde los driver 500 de nvidia en adelante, y afecta a aplicaciones de reserva masiva de VRAM, desde minado, machine learning, y especialmente, motores de render gpu. Los resultados son 2, o el motor dumpea info al almacenamiento del pc, o simplemente crashea. Y este es un problema desde enero de 2022... Realmente desde antes pero se masificó ahí.

Toda esta wea, cada engranaje de ese rompecabezas, para los que trabajamos haciendo render en GPU, lo conocemos en detalle, pero hablamos de más de 1 año entero de diagnóstico y probar weas porque nadie sabía que chucha lo causaba.

Hasta Julio del año pasado, hice clases de Render, y el laboratorio que a mi me tocaba usar, tenia drivers y programas al dia, por supuesto, por protocolo de la u... adicional los pc estaban frezeados. La app de licencia de Maxon estaba bugeada, pero como tenía que estar la última versión instalada, no podíamos hacer downgrade a una version estable, que no rompía las licencias del motor, y aparte, puta, el driver, hacía que renderar fuera imposible, o una wea insufriblemente lenta, y a regañadientes logre hacer que la gente de IT instalasen el driver que les dije que usaran.

A que voy con todo esto? Que trabajes en IT te entrega muchísimo conocimiento sobre que programas se usan en ciertas areas, además de los requisitos que establece la certificación necesaria para instalarlos... Pero esto viene en la mayoría de relaciones públicas y de administración, no de gente que usa ese software. Yo no espero que tu sepas del problema de memoria de los drivers de nvidia, no es tu area, y a mi como alguien del area que tiene ese conocimiento al respecto, me corresponde hacerlo saber al equipo encargado de eso, que para mi es pura burocracia innecesaria. Lo fácil que se me hubiera hecho pedirle a mis estudiantes que instalasen el driver que indicaba y ya, pero no podíamos, porque los pc estaban freezeados.

En la práctica tiene mucha utilidad tener dominio técnico del software con el que trabajas a la vez que de hardware, porque aprendes, a la mala a balancear weas, y te das cuenta de cuánta plata se desperdicia en departamentos grandes en weas que no necesitan.

Sin wearte, en ese entonces, tuve una pelea con administración de la carrera, porque cuando me quejé de que no me pescaban por la wea de los drivers, mandaron a comprar gpus nuevas... Radeon 6800 XT... Redshift en ese entonces solo corria en Nvidia, pero administración dijo que si, porque sale en los requisitos de la página... donde claramente dice "macOS"....

Tener el último hardware o el último software, no es siempre lo mejor. Hay datacenters que corren Radeon Instinct, y chao, un montón de gente no puede usar esas weas porque las apps están desarrolladas en CUDA, y a su vez, datacenters que solo tienen Nvidia Tesla, y la gente que usa HIP de AMD, simplemente cagó. O ahora, los nuevos Xeon que se dividen en performance cores y eficiency cores... la cantidad de apps que se rompen por el solo hecho de que es otro scheduler el que administra que núcleo hace que, tecnologia de punta que un montón de software simplemente no soporta... Y eso ha pasado siempre.
¿Que tiene de malo entonces el que sugiera equiparse de un equipo de última generación? No creo que el amigo esté dispuesto a cambiar de notebook al cabo de un par de años. Por lo demás, la adaptación de softwares, las empresas del sector, están obligadas de ir adaptándose rápido, sino se quedarán atrás, así de simple.

Creo me he acostumbrado a considerar compras de este estilo por costo eficiencia, y para mi, irse por un note de 1.5m, que es el presupuesto que establecieron arriba, por una máquina ultima generación, no tiene sentido, cuando por 1/3 de esa plata, compras algo que es apenas 10-20% "Peor"... Y ese peor es super relativo, porque en usar la máquina, incluso navegando en un programa pesado, no hay diferencia alguna. A día de hoy la diferencia solo se siente en tareas de fuerza bruta. Para mi, es gastar 1m adicional, por tener lo último, porque si, porque no hay justificación de otra forma. Y lo adaptarse rápido, es demasiado debatible. Un montón de cosas se desarrollan en cada generación de procesadores y GPU, que no afectan para nada al público general. Intel por ejemplo, tuvo implementación de AVX 512 que le daba un boost rídiculo en algunos juegos por sobre AMD, durante varias generaciones... Sabes cuantos programas 3D, DCC, se benefician de eso? Ninguno.

Donde si podemos decir que hubo un impacto brutal fue cuando salió RTX. Esa wea fue un antes y después en un montón de areas, incluyendo la mia. Nvidia anunció la primera Quadro RTX, la A8000, como la revolución del raytracing, y lo presentaron como la segunda venida de cristo. Unreal tenia soporte al lanzamiento, pero herramientas de producción masivas, se demoraron bastante en adoptarla. El primer motor en adoptar RTX como acelerador de rayos, fue Arnold, y lo presentó Nvidia mismo. Eso fue 1 año entero después del lanzamiento de RTX. Solo te puedo aportar que Arnold es el motor de render más lento que existe en el mercado... Y puta, tengo un post en este mismo foro de cómo mi setup con 3 1060 tenia mejores tiempos de render que una RTX 2080, a la mitad de precio. (Se fue a la chucha cuando salieron las serie 3000 eso si). Lo último no tiene por qué ser lo mejor, eso es una falacia.


Chicos, interesantes sus visiones, ahora si me permiten un agradecimiento, es gratificante cuando dos expertos no se atrincheran en su posición y comparten, así q gracias.

Mi compadre ha tenido problemas con su laptop. Perdió un cliente importante porque tenía que hacer una simulación q tomaba como 3 semanas en su laptop, tiempo que el cliente no tenía. Así q va a buscar la capacidad de procesamiento cpu mas potente q pueda pagar, 16 de RAM (transmití el consejo de ddr5), y una buena tarjeta de video

Ese note está mas desactualizado que la chucha. He hecho simulaciones de arena que no se demoran más de 1 dia (Las más pesadas). Pero acompaño esto con comentario a lo siguiente.
Como para considerarlo, me tocó vendele equipos a clientes que trabajaban en esto y otras cosas. Y varios hacían lo mismo: un equiipo para mostrar los trabajos y otro para hacerlos.

El que más recuerdo es uno que usaba un Mac para juntarse con los clientes y mostrarle los trabajos y resultados a los clientes. me contaba que lo hacía por que los clientes eran muchas veces arribistas y si no veían un Mac no te tomaban igual de en serio. Aunque el Mac no le servía de nada para renderizar :p

Lo comento por que para renderizar lo mejor es un equipo de escritorio de todas maneras.
Me ha tocado ir a varias filmaciones de agencias medio cuicas. Típico que la mesa de la agencia se ve asi:

1706758055555.png


5 macbooks... todos con iphones. Esta gente de verdad no te toma en serio si no tienes algo Apple, no te ven profesional.

De ves en cuando tambien necesito un note, pero no invertí mucho en uno, simplemente me aseguré de que se viese bonito. Me compre una MSI Modern en este mismo forito, 300 luquitas, o 350 por ahí, y le chanté otros 8gb de ram adicionales. La laptop por si sola ni cagando hace las weas que necesito, pero no necesito que sea la laptop la que lo haga. En la empresa trabajamos todo con parsec, incluso mi pc lo tengo en la red y vpn interna. Voy a un café, me instalo en una mesita, y remoteo todo, puta que es rico vivir en los 2020s... En el mismo café puedo hacer mis modelos, secuencias, simulaciones, conectarme a los servidores de la empresa, mandar renders, reinstalar windows si quiero de todas las máquinas, en un note de 300 lucas.
 
Upvote 0
Subir