Oficial Sexta Central Nintendo Switch
A única com exclusivos
Nash escreveu: (20-09-2023, 01:27 PM)Em geral o consumo da placa de vídeo cai uns 30% com DLSS ligado.
Omoshiroi.
Responder
Nash escreveu: (20-09-2023, 01:27 PM)Em geral o consumo da placa de vídeo cai uns 30% com DLSS ligado.

EDIT: https://gadgettendency.com/nvidia-has-re...090-by-25/

Aliás, DF já mostrou isso várias e várias vezes.
Uma parte da gpu evidentemente vai consumir mais, mas as demais vão consumir bem menos.
oh, que lindo
Responder
Nash escreveu: (20-09-2023, 01:27 PM)Em geral o consumo da placa de vídeo cai uns 30% com DLSS ligado.

EDIT: https://gadgettendency.com/nvidia-has-re...090-by-25/

Aliás, DF já mostrou isso várias e várias vezes.
Uma parte da gpu evidentemente vai consumir mais, mas as demais vão consumir bem menos.
https://youtu.be/0sMbak4nk0M?si=sKZ5hhBe_yQpDzgV&t=1422
Responder
Froids se for Samsung 8nm é que no momento em que ele sair já daria para ter um Switch 2 revisado que consome metade.
Quem pegar um com certeza vai querer trocar quando sair a revisão, pois a diferença vai ser grande.
Responder
Nash escreveu: (20-09-2023, 01:08 PM)Dlss economiza muita energia, não o contrário.

What? Isso não faz nenhum sentido Lol
Responder
Chozo Master escreveu: (20-09-2023, 04:55 PM)What? Isso não faz nenhum sentido Lol
É uma questão de "o que esta desenhando os pixels".
Sem DLSS, o que está desenhando cada pixel são CPUs especializadas com um monte de predição de branch e leitura de memoria e condicionais etc...
Agora com o DLSS gerando os pixels, é um circuito simplista pra porra que só sabe multiplicar numero rodando uma tabelinha grandona.
Sem acesso a memoria, sem imprevisibilidade, só multiply/add até sair pelo outro lado.
Responder
Z80a escreveu: (20-09-2023, 05:21 PM)É uma questão de "o que esta desenhando os pixels".
Sem DLSS, o que está desenhando cada pixel são CPUs especializadas com um monte de predição de branch e leitura de memoria e condicionais etc...
Agora com o DLSS gerando os pixels, é um circuito simplista pra porra que só sabe multiplicar numero rodando uma tabelinha grandona.
Sem acesso a memoria, sem imprevisibilidade, só multiply/add até sair pelo outro lado.

O ponto é que imagem + dlss vai custar mais que imagem + upscale simples.
Não faz sentido comparar com custo de renderização na resolução de saída.
Responder
Pode checar a gpu com uso no talo e dlss ativo, vai consumir menos, simples assim.
Imagino que seja por uma série de razões. Uso de banda reduz, provavelmente partes da gpu ficam em espera enquanto os tensor cores trabalham e tal.
Responder
Desisto de tentar explicar Lol
Responder
Eu acho que o chozo ta certo aí ( mais ou menos), é o que eu tinha em mente essa materia linkada fala de 25% mas é em relação a upscalling "normal" não?
Responder
InuK9 escreveu: (20-09-2023, 07:54 PM)Eu acho que o chozo ta certo aí ( mais ou menos), é o que eu tinha em mente essa materia linkada fala de 25% mas é em relação a upscalling "normal" não?

Não, até pq quase ninguém usa upscale no PC que não seja DLSS, FSR e etc. e na verdade isso não faria diferença também, pois quando isso é calculado vc deixa a placa sem limite de frames, ou seja, ela irá até os seus 100% de uso e consumo e se normalmente a placa consome 300W, com DLSS ela vai gastar 225W, simples assim.

Não adianta imaginar que "oh, estão usando mais do chip, como vai gastar menos energia?", mas simplesmente o perfil de uso da gpu muda. Para processar uma imagem existe uma sequência e enquanto está nos tensor cores o resto da placa não vai trabalhar tanto. É exatamente por isso? Não sei, só estou expondo uma possível hipótese, mas que baixa o consumo baixa.
Responder
Nash escreveu: (20-09-2023, 07:50 PM)Pode checar a gpu com uso no talo e dlss ativo, vai consumir menos, simples assim.
Imagino que seja por uma série de razões. Uso de banda reduz, provavelmente partes da gpu ficam em espera enquanto os tensor cores trabalham e tal.
Eu li um artigo esses dias, mas não lembro onde, que os tensor cores trabalham muito por pouco tempo, é tipo 100% em fração de segundos e depois para, ele só é utilizado momentaneamente, e tá aí no vídeo do gamernexus ele falando que gasta menos bateria.
Responder
Meio Kilo escreveu: (20-09-2023, 08:40 PM)Eu li um artigo esses dias, mas não lembro onde, que os tensor cores trabalham muito por pouco tempo, é tipo 100% em fração de segundos e depois para, ele só é utilizado momentaneamente, e tá aí no vídeo do gamernexus ele falando que gasta menos bateria.

Yep! É coisa de frações de segundo para fazer o upscale, os tensor cores mesmo não devem representar grande coisa no consumo final.

E tem casos onde praticamente não tem queda no uso de energia (ou bem menos que 20-30%), mas não aumenta o consumo também, então não tem pq não usar em modo portátil também.

EDIT: Aqui um gráfico que representa a geração de um frame. [Imagem: 24_nvidia_dlss_2_0_ray_tracing_rdzenie_r...17_9_b.png]

O tempo que passa nos tensor cores é super baixo, é só essa barrinha roxa.
Responder
Chozo Master escreveu: (20-09-2023, 07:45 PM)O ponto é que imagem + dlss vai custar mais que imagem + upscale simples.
Não faz sentido comparar com custo de renderização na resolução de saída.
Por esse lado posso ver seu argumento.
Mas o plot twist aqui é que você pode usar uma imagem bem menor no DLSS do que num upscale normal.
E renderização de imagem de verdade é bem mais pesado que dlss
Responder
Aliás, nessa hipotética situação que o Chozo citou, vc não vai ter aumento de consumo, o que vc vai acontecer é que o DLSS vai ter que ocupar parte ali dos 16.6ms para cada frame que é processado e não tiver espaço, vai resultar é em uma pequena perda de performance em relação a um upscale simples.
Responder
Loles  Loles  Loles  Loles

https://www.youtube.com/shorts/hkslRIGT5ys

Responder
Nash escreveu: (20-09-2023, 09:07 PM)Aliás, nessa hipotética situação que o Chozo citou, vc não vai ter aumento de consumo, o que vc vai acontecer é que o DLSS vai ter que ocupar parte ali dos 16.6ms para cada frame que é processado e não tiver espaço, vai resultar é em uma pequena perda de performance em relação a um upscale simples.
Acho que de resolução em resolução ele tá certo.
Se é só um bilinearzinho normal vs DLSS, a GPU vai ficar mais tempo processando com o DLSS, porque tem que desenhar o quadro, terminar ele, e ai esticar.
Com bilinear acontece basicamente instantaneamente, enquanto com o DLSS tem trabalho a ser feito.
Se a GPU acaba antes de terminar os 16ms (e normalmente é o que acontece em jogo 60 FPS), ou ela vai dormir, ou ela vai trabalhar no próximo quadro, dependendo de se é vsync ou trilinear.

De verdade, o corte de consumo de luz do DLSS vem do fato de que você gera um frame buffer de origem bem menor.
Se você usa DLSS pra esticar 640x360 pra resolução inteira, fica decente, agora com bilinearzinho ou TAA fica horrível.
Responder
Z80a escreveu: (21-09-2023, 12:01 AM)Acho que de resolução em resolução ele tá certo.
Se é só um bilinearzinho normal vs DLSS, a GPU vai ficar mais tempo processando com o DLSS, porque tem que desenhar o quadro, terminar ele, e ai esticar.
Com bilinear acontece basicamente instantaneamente, enquanto com o DLSS tem trabalho a ser feito.
Se a GPU acaba antes de terminar os 16ms (e normalmente é o que acontece em jogo 60 FPS), ou ela vai dormir, ou ela vai trabalhar no próximo quadro, dependendo de se é vsync ou trilinear.

De verdade, o corte de consumo de luz do DLSS vem do fato de que você gera um frame buffer de origem bem menor.
Se você usa DLSS pra esticar 640x360 pra resolução inteira, fica decente, agora com bilinearzinho ou TAA fica horrível.

Reduzindo a resolução vc gera mais frames, se não tiver gargalo de cpu, a geração extra de quadros faz com que a placa consuma mais ou menos o mesmo.

E vcs estão falando teoricamente demais, acabei de fazer o teste aqui.

Cyberpunk no Ultra, RT desligado, DLSS desligado = 268w na RTX 3070 e 99% de uso de gpu.
Cyberpunk no Ultra, RT desligado, DLAA ligado (ou seja 1440p nativo + uso de tensor cores) = 263w e 98% de uso de gpu.
Ou seja, o consumo não aumenta, o que acontece é que o desempenho cai.

Passando para Switch da vida, 480p nativos, com ou sem DLSS vai consumir praticamente o mesmo, mas com DLSS vai ser mais lento, então vc vai ter que compensar isso renderizando em 450p digamos, mas pode ter certeza que ainda assim vai dar pau na imagem com filtro bilinear.

EDIT: Podemos até dizer que o consumo por quadro sim aumente, mas o aparelho em si se tiver gastando 15w sem DLSS, vai gastar os mesmo 15w com DLSS.
Responder
Posseidon escreveu: (20-09-2023, 11:52 PM)Loles  Loles  Loles  Loles

https://www.youtube.com/shorts/hkslRIGT5ys


Rapaz...
Responder
Nash escreveu: (21-09-2023, 12:45 AM)Reduzindo a resolução vc gera mais frames, se não tiver gargalo de cpu, a geração extra de quadros faz com que a placa consuma mais ou menos o mesmo.

E vcs estão falando teoricamente demais, acabei de fazer o teste aqui.

Cyberpunk no Ultra, RT desligado, DLSS desligado = 268w na RTX 3070 e 99% de uso de gpu.
Cyberpunk no Ultra, RT desligado, DLAA ligado (ou seja 1440p nativo + uso de tensor cores) = 263w e 98% de uso de gpu.
Ou seja, o consumo não aumenta, o que acontece é que o desempenho cai.

Passando para Switch da vida, 480p nativos, com ou sem DLSS vai consumir praticamente o mesmo, mas com DLSS vai ser mais lento, então vc vai ter que compensar isso renderizando em 450p digamos, mas pode ter certeza que ainda assim vai dar pau na imagem com filtro bilinear.

EDIT: Podemos até dizer que o consumo por quadro sim aumente, mas o aparelho em si se tiver gastando 15w sem DLSS, vai gastar os mesmo 15w com DLSS.
Interessante.
Qual que é o frame rate de off vs on ai?
Responder