Generación de fotogramas y Taa conversación

3dfx0headhunter

Fanático
Se incorporó
17 Agosto 2019
Mensajes
1.389
Hola una reflexion, sera tan bueno eso de la generación de fotogramas, según lo que tengo entendido son fotogramas falsos y no sé si sera bueno para la latencia es mas hace algunos años las tv's con esta tecnología se decía que en juegos se desactivaran por lo mismo, vi un video del juego del mono wukong a 4k con la 5090 o alguna de la serie 5000 de nvidia y el juego corria 28 fps con dlls4 y con generqción de fotogramas a mas de 200 pero no sé a que costo en la latencia. Alguna experiencia ?

Otra cosa se han fijado que las tecnicas moderna de antialiasin com el taa hacen ver a los juegos muy borrosos, si ven en el qnalista de bits el juego del mono en ps5 el modo 60 fps que corre a un dinamico 900p a 1080 se ve mas sharp que los modos de mas calidad por el antialiasing
 

Pharos

Capo
Se incorporó
17 Junio 2006
Mensajes
308
No tengo una tarjeta NVIDIA serie 4000 como para probar, pero se supone que el frame generation de las RTX es mucho mejor que el de AMD, al funcionar por hardware, y tiene poca latencia considerando el beneficio que entrega.

En PC no es tanto problema como en consolas, donde los juegos de esta generación ya están empezando a verse horribles, sobre todo cuando incluyen modo 60fps. El fin de semana bajé el NFS Hot Pursuit Remastered de PS4 que dieron con el PS Plus, que anda a 4K nativos en PS5, y la nitidez de la imagen es muy superior a cualquier juego actual, a pesar de ser notoriamente más simple que los juegos contemporáneos, es más atractivo a la vista :zippyu

Supongo que el TAA lo utilizan porque los juegos modernos tienen muchos detalles, y sin eso serían un festival de dientes de sierra. Si se aplicara sobre 4K nativos o 4K con un reescalado aceptable, andaría bien, pero con juegos que andan a 900p reescalados a 1440p con FSR, se ve mal.
 

3dfx0headhunter

Fanático
Se incorporó
17 Agosto 2019
Mensajes
1.389
No tengo una tarjeta NVIDIA serie 4000 como para probar, pero se supone que el frame generation de las RTX es mucho mejor que el de AMD, al funcionar por hardware, y tiene poca latencia considerando el beneficio que entrega.

En PC no es tanto problema como en consolas, donde los juegos de esta generación ya están empezando a verse horribles, sobre todo cuando incluyen modo 60fps. El fin de semana bajé el NFS Hot Pursuit Remastered de PS4 que dieron con el PS Plus, que anda a 4K nativos en PS5, y la nitidez de la imagen es muy superior a cualquier juego actual, a pesar de ser notoriamente más simple que los juegos contemporáneos, es más atractivo a la vista :zippyu

Supongo que el TAA lo utilizan porque los juegos modernos tienen muchos detalles, y sin eso serían un festival de dientes de sierra. Si se aplicara sobre 4K nativos o 4K con un reescalado aceptable, andaría bien, pero con juegos que andan a 900p reescalados a 1440p con FSR, se ve mal.
yo concuerdo con lo de las resoluciones nativas, pero digo lo del TAA por ejemplo yo tengo el RE4 para la series s, y no soy muy exigente en los gráficos pero se ve ligeramente borroso a 1080p nativo a veces baja a 900p pero el re4 de ps4 tiene setting mns bajos mas problemas y todo eso, pero se ve mas nítido con la técnica del checkingboarding o algo así se llama a 900p y el mismo juego lo probaron los youtubers en un PC similar a la series s deshabilitaron filtros de TAA y aunque se ve con un poco mas de ruido la imagen se ve mejor igual que el Village de PS4 tiene mas dientes de sierra y todo pero se ve nítido a 900p, yo en lo personal prefiero un poco mas de artifacts y de ruido en la imagen pero ver esa nitidez me gusta mas y justo en los juegos antiguos que tenían menos antialiasing se veían mas nítidos, lo que quiero decir es que en resoluciones bajas que le quiten un poco de TAA en los juegos
 

Pharos

Capo
Se incorporó
17 Junio 2006
Mensajes
308
La solución es jugar en PC y desactivar todas esas opciones :zippy, en consola lo recomendable sería desactivar el granulado de película y aberración cromática en los juegos que tienen la opción, desactivar el motion blur también podría ayudar (aunque eso es contraproducente a mi parecer), o derechamente asumir que los modos rendimiento son horribles y optar por el modo calidad, aunque ande a 30fps.
 

MaxSF

🐻
Se incorporó
17 Julio 2009
Mensajes
403
La solución es jugar en PC y desactivar todas esas opciones :zippy,
En varios juegos no se puede porque algunos de los efectos dependen del TAA. En los que sí se puede desactivar, ciertas sombras o iluminaciones se ven pésimo (como con un patrón de cuadriculado) porque esos juegos los crearon/programaron con base en el TAA.

Al final, parece que, con tanta supuesta «mejora» de los gráficos, ni una GPU moderna de alta gama puede renderizar un juego actual a resolución nativa con una frecuencia de fotogramas decente, así que hay que recurrir a truquitos como el TAA, el DLSS y otros a costa de la fidelidad visual.
 

cliobrando

Capo
Se incorporó
6 Mayo 2021
Mensajes
239
Las 2 tecnologías funcionan de manera similar:
El motor del juego renderea un par de frames adelante del que se está mostrando en pantalla y usando vectores de movimiento dibuja un frame intermedio. Ese procesamiento extra introduce input lag, pero Nvidia y AMD tienen tecnologías propietarias que ayudan a reducirlo: Nvidia Reflex y AMD Anti Lag, obviamente crear frames tiene un costo para la GPU y siempre se recomienda que estas tecnologías se habiliten cuando ya tienes el juego corriendo sobre 60 fps en la resolución base, con estas condiciones el input lag no debiese ser notorio.

Una de las principales diferencias es que FSR funciona prácticamente en cualquier cosa que pueda ejecutar shaders, pero hay un detalle, el anti lag es propietario de AMD, así que podrías ejecutar FSR en una tarjeta de video Intel, pero tendrías introducción de lag.
En el caso de DLSS nvidia usa su propio motor de IA para hacer el análisis de imágenes y por eso es exclusivo.

Hay otros temas como que el DLSS no funciona con Vsync pero sí con VRR, creo que el FSR también tiene restricciones de ese estilo.

En el caso el antialiasing, bueno tiene que ver con lo mismo, si estás jugando en una resolución inferior a la nativa el motor va a generar una imagen en el buffer y va a ejecutar el upscaling de la imagen, y por lo general hay varios algoritmos: mientras menos calidad más blurry se ve la imagen al ser estirada en la pantalla.

En el caso de 4K gaming, mi impresión es que para las GPU actuales es extremadamente demandante dibujar un frame en esa resolución con un montón de calculaciones extra, que ademas son extremadamente costosas en términos de cómputo y ancho de banda (ray tracing, path tracing, etc), por lo que tecnologías como el DLSS y el FSR son necesarias.
 

3dfx0headhunter

Fanático
Se incorporó
17 Agosto 2019
Mensajes
1.389
Los juegos de ubi usan un buen antialiasing o como se escriba hay juegos q bajan a los 720 y se ven como 1080p sin dientes de sierra y buena reconstruccion de imagen
 

Mangy

Hardware Lover
Se incorporó
20 Diciembre 2010
Mensajes
596
Yo tuve 3060Ti, 4060 y ahora estoy con 4070 Super, juego en 1440p.
Siempre he preferido framerate en 120 aprox, desde ahí ya no noto fluidez, pero bajo 90 me molesta, uso tasa de refresco alta (120hz) desde 2010 por lo que me acostumbre y los 60fps me molestan.

A qué voy con esto, siempre he necesitado experimentar con las nuevas tecnologías para lograr lo que quiero a 1440p.
Es cierto que prefiero un balance entre calidad visual y framerate, pero la estabilidad del frametime y la fluidez es mi prioridad siempre.
Esto me ha llevado a practicamente siempre activar tanto DLSS (desde la serie 30) como Frame gen (en RTX 40).
Hay juegos donde se notan artifacts, sobre todo en menus o letras, por dar dos ejemplos el The Talos Principle 2 y el Marvel Spiderman. Sin embargo no es lo suficientemente molesto, al menos para mí, como para comerme perder tanto rendimiento. Es increíble lo bien que funciona frame generation. Con respecto a la nitidez, si usas DLSS calidad al menos en 1440p es imperceptible practicamente en todos los juegos, solo cuando está mal implementado se nota, me pasó en un juego en particular que se llama Wo Long, se veía horrible el DLSS, pero es extremadamente raro que lo implementen y lo hagan mal a día de hoy, al menos en mi experiencia con los títulos que yo he jugado.

Con DLSS4 lo más probable que me pase lo mismo, pero lo veo un poco más verde, es como lo que pasó con DLSS1 en la serie 20 (en esa epoca me la salté, me quedé con una 1070Ti).
Ahora lo mismo, pienso que si tienes serie 40 no vale la pena esperar que pulan el DLSS4, aunque claro, no tengo una bola de cristal, el tiempo lo dirá.
El tema es que si no usarás DLSS4, no vale la pena la serie 50 si solo la usarás para jugar. En IA es otra cosa.

Eso si, con respecto a los "frame falsos", el DLAA es una maravilla, es una construcción "ficticia", un upscale desde la resolución nativa y se ve de maravilla, algunos juegos te permiten usar DLAA+Frame gen si tu GPU es lo suficientemente potente y lograr tener frames estables, sobre 120 con una nitidez muy alta y fluido... es un manjar. Personalmente me da igual la técnica con la que se hagan los frames, mientras se vea bien.

De igual forma yo no entiendo lo de los "frame falsos", el rasterizado tb "crea" frames, al final todo es falso jaja.
 
Última modificación:

cliobrando

Capo
Se incorporó
6 Mayo 2021
Mensajes
239
De igual forma yo no entiendo lo de los "frame falsos", el rasterizado tb "crea" frames, al final todo es falso jaja.
Al final lo de los frames falsos explicado de manera muy simple: es que cada cierta cantidad de frames que son dibujados en pantalla la GPU interpola una foto generada por IA. Esta foto es creada a través de pistas que le entrega el motor del juego a la GPU mediante optical flow o motion vectors (como le dicen en amd), el motor le dice a la GPU donde van a estar probablemente los próximos pixeles de acuerdo a vectores de movimiento, lo cual facilita que la imagen falsa que es creada por la IA sea de mucha mejor calidad (y se gaste menos proceso en la GPU tb).

Entonces cada cierta cantidad de frames reales la GPU está metiendo una foto creada por IA que ayuda a simular movimiento. En el caso de Nvidia hay procesadores dedicados para fabricar estas imágenes falsas (tensor cores), en AMD existe algo muy parecido.
Y claro, actualmente es mucho más fácil, en cuanto a procesamiento, fabricar una foto "falsa" con IA.

La evolución de la tecnología (de AMD y Nvidia), ha indo incrementando la cantidad de frames "falsos" que se pueden interpolar entre los verdaderos, además de mejoras en las técnicas de upscaling.
 
Subir