NVIDIA即将推出的DLSS“Transformer模型”可令显存使用率降低20%
NVIDIA 对 DLSS 的下一次重大更新可能是转向“Transformer 模型”,预计这将带来多项改进,包括降低 VRAM 利用率。NVIDIA 目前在其 DLSS 技术中使用 CNN(卷积神经网络),但NVIDIA似乎将转向更先进的 Transformer 模型方法,这可能会带来一系列优势,从提升图像质量到实现更卓越的光线重建。
DLSS Transformer 模型几天前发布了测试版,据称 NVIDIA 还在新模型中引入了 VRAM 优化,这些变化在《DLSS 编程指南》中已有详细提及。
这意味着,310.3.0 版SDK 中更新的 DLSS Transformer 模型平均降低了约 20% 的显存需求,并且这一差异在所有分辨率下都保持一致,表明此次更新将产生更广泛的影响。这无疑是一项重大改进,尤其对于那些希望在 8GB 或更低显存容量的情况下充分利用 DLSS 性能的玩家而言。考虑到 NVIDIA 最近的举措对预算有限的游戏玩家并没有太大帮助,DLSS 的改进绝对值得赞赏。
简单回顾一下 Transformer 模型为市场带来的改变:它使用视觉变换器来评估特定帧中的所有像素,并理解每个像素的重要性。该过程会在多个帧中重复,以生成精细的像素,从而增强视觉效果。据悉,Transformer 模型可将参数量提升 2 倍,并将渲染计算量提升 4 倍,这表明 DLSS Transformer 模型将显著提升画质提升体验。
鉴于 DLSS Transformer 模型已脱离测试阶段,我们应该期待在未来几个月内推出部署该技术的官方更新。