O CEO da Nvidia, Jensen Huang, esclareceu que também não é fã de desleixos de IA, mas que o DLSS 5 não tem como objetivo transformar jogos nele. Em vez disso, é uma ferramenta que os desenvolvedores podem ou não escolher usar para desenvolvimento.
Aparecendo no último episódio de podcast de Lex Fridman, Huang foi questionado sobre o DLSS 5 e as críticas a ele, uma semana depois que a Nvidia anunciou a nova ferramenta alimentada por IA no GTC. Huang afirmou que agora entendia de onde vinham as críticas, apenas alguns dias depois de proclamar todos os críticos do DLSS 5 como “completamente errados”.
“Acho que a perspectiva deles faz sentido, e posso ver de onde eles vêm, porque eu mesmo não adoro o desperdício de IA. Você sabe, todo o conteúdo gerado pela IA parece cada vez mais semelhante, e eles são todos lindos, e eu posso… então eu posso… tenho empatia com o que eles estão pensando”, afirmou Huang.
Falando sobre o potencial do DLSS 5 para transformar jogos em lixo de IA, Huang reiterou que a ferramenta estava totalmente nas mãos dos desenvolvedores e sob seu controle.
“O DLSS 5 é condicionado em 3D, é guiado em 3D. É guiado por dados de estrutura verdadeira. O artista determina a geometria, somos completamente verdadeiros [to the geometry in every frame]”, continuou ele. “É condicionado pelas texturas, pela arte do artista. E assim, cada quadro melhora, mas não muda.”
Isso está de acordo com a mensagem da Nvidia em torno do DLSS 5 desde o seu anúncio, no qual afirmou explicitamente que a tecnologia é capaz de aprimorar recursos como o brilho de um tecido, a interação da luz no cabelo e muito mais, sem alterar a estrutura e a semântica da cena original. Também afirmou no anúncio que os desenvolvedores terão controle sobre diferentes aspectos da implementação, como intensidade, gradação de cores, mascaramento e muito mais.
Isso, no entanto, contrasta com os comentários feitos por outro funcionário da Nvidia, que detalhou ainda mais como o DLSS 5 funciona com o criador do YouTube, Daniel Owen. Falando com Jacob Freeman, um GeForce Evangelista da Nvidia, Owen perguntou sem rodeios se o DLSS 5 estava pegando um quadro renderizado 2D estático de um jogo e usando-o como a única entrada para o modelo ser aprimorado. “Sim, o DLSS 5 recebe um quadro 2D mais vetores de movimento como entrada”, respondeu Freeman por e-mail.
Owen então perguntou se o DLSS 5 tem algum acesso aos dados de geometria 3D subjacentes presentes no mecanismo de um jogo, ou se o DLSS é semelhante a tirar uma captura de tela e pedir a um modelo generativo de IA para aprimorá-lo. A resposta de Freeman aqui está alinhada com os comentários anteriores da Nvidia, afirmando que o modelo é treinado para entender cenas complexas, mas ainda concluiu dizendo que tudo isso é feito “analisando um único quadro”, inferindo que o modelo não tem nenhuma informação imediata fornecida pelo jogo em que é implementado fora do quadro renderizado atualmente, e aquele imediatamente após ele.
Isso poderia explicar por que, como Owen menciona ao longo de seu vídeo, os modelos de personagens têm detalhes, como cabelo e maquiagem adicionais, que não estão presentes nos modelos 3D originais, com o DLSS 5 inferindo essas melhorias a partir da suposição de um único quadro sozinho. Isso faz com que pareça muito menos sofisticado do que Huang descreve nesta entrevista, mas pode explicar por que ele acha que a ferramenta pode ser útil para os artistas aprimorarem seus jogos com estilos de arte totalmente diferentes do que foi originalmente pretendido.
“…no futuro você poderá perguntar: ‘Quero que seja um toon shader.’ Eu quero que fique assim, você sabe, para que você possa dar um exemplo. E geraria nesse estilo. Tudo consistente com a arte, você sabe, o estilo, a intenção do artista. Tudo isso é feito para o artista, para que ele possa criar algo mais bonito, mas ainda no estilo que deseja”, concluiu Huang.
Em outubro de 2025, a Content Overseas Distribution Association (CODA) enviou uma carta aberta à OpenAI solicitando que a empresa parasse de treinar seus modelos no conteúdo protegido por direitos autorais que representava, na esteira do fluxo esmagador de imagens e vídeos gerados usando o estilo de arte toon dos filmes do Studio Ghibli. A OpenAI já havia permitido que os usuários solicitassem que seu modelo Sora 2 mais recente aplicasse o shader às imagens e vídeos fornecidos.