Z80a escreveu: (21-09-2023, 12:01 AM)Acho que de resolução em resolução ele tá certo.
Se é só um bilinearzinho normal vs DLSS, a GPU vai ficar mais tempo processando com o DLSS, porque tem que desenhar o quadro, terminar ele, e ai esticar.
Com bilinear acontece basicamente instantaneamente, enquanto com o DLSS tem trabalho a ser feito.
Se a GPU acaba antes de terminar os 16ms (e normalmente é o que acontece em jogo 60 FPS), ou ela vai dormir, ou ela vai trabalhar no próximo quadro, dependendo de se é vsync ou trilinear.
De verdade, o corte de consumo de luz do DLSS vem do fato de que você gera um frame buffer de origem bem menor.
Se você usa DLSS pra esticar 640x360 pra resolução inteira, fica decente, agora com bilinearzinho ou TAA fica horrível.
Reduzindo a resolução vc gera mais frames, se não tiver gargalo de cpu, a geração extra de quadros faz com que a placa consuma mais ou menos o mesmo.
E vcs estão falando teoricamente demais, acabei de fazer o teste aqui.
Cyberpunk no Ultra, RT desligado, DLSS desligado = 268w na RTX 3070 e 99% de uso de gpu.
Cyberpunk no Ultra, RT desligado, DLAA ligado (ou seja 1440p nativo + uso de tensor cores) = 263w e 98% de uso de gpu.
Ou seja, o consumo não aumenta, o que acontece é que o desempenho cai.
Passando para Switch da vida, 480p nativos, com ou sem DLSS vai consumir praticamente o mesmo, mas com DLSS vai ser mais lento, então vc vai ter que compensar isso renderizando em 450p digamos, mas pode ter certeza que ainda assim vai dar pau na imagem com filtro bilinear.
EDIT: Podemos até dizer que o consumo por quadro sim aumente, mas o aparelho em si se tiver gastando 15w sem DLSS, vai gastar os mesmo 15w com DLSS.