最近几天,NVIDIA公司相关人士关于“原生分辨率游戏已死”的论述,在玩家群体里再次引发了担忧。此事的起因源自一段圆桌讨论,来自NVIDIA的多位高管与游戏厂商CD Projekt Red的Jakub Knapik一起探,讨了深度学习抗锯齿技术(也就是DLSS)对于游戏帧率提升和渲染优化的意义。
对于像CD Projekt Red这样一心追求极致画面效果,但在优化方面表现平平的游戏厂商来说,他们当然非常欢迎深度学习和AI超分算法如今在显卡上广泛应用
正如Jakub Knapik所说,DLSS作为帧率提升技术的代表,“巧妙地为现代GPU增加了更多的性能余量”,这使得像《赛博朋克2077》这样的游戏可以放心地采用最新的光线追踪模拟技术,从而使游戏画面变得“更加逼真和细腻”
然而,当NVIDIA的深度学习研究副总裁Bryan Catanzaro声称“原生分辨率不再是游戏中实现最大图形保真度的最佳解决方案,游戏图形行业在未来正朝着更加依赖AI图像重建和基于AI的图形渲染方向发展”时,让人感到有些不安
这位NVIDIA的高管进一步解释说,更糟糕的是,通过蛮力提升图形保真度已经不再是理想的方案。他表示,只有采用更智能的技术才能规避当今图形硬件性能提升幅度较低的问题
乍看之下,这些说法似乎很有道理,因为大家都知道DLSS,特别是DLSS3之后的版本极其“强力”,基本只要开启,游戏帧率就能直接增长数倍之多。可问题在于,作为一位专注深度学习研究的技术人员,Catanzaro真的“懂”显卡、真的明白GPU光栅性能发展的情况吗?
根据实际数据来看,首先显示器不应该承担这个责任
为了研究GPU自问世以来在传统光栅性能方面的发展规律,我们三易生活通过收集公开数据,总结出了从2000年至今,历代NVIDIA消费级显卡的像素和纹理生成性能对比表格。表格中,红色字体表示性能退步的情况,绿色字体表示某代单项性能增长超过100%的情况
从这个表格里就可以很清楚的看到,首先消费级GPU在历史上曾不止一次发生过光栅性能的退步。其次从整体的发展趋势来看,最新一代的旗舰GPU和22年前的产品相比,光栅性能已经提升了数千倍之多。
有些朋友可能会说,尽管GPU的光栅性能有所提升,但现在的游戏纹理比以前更加复杂,而且现在的显示器常常具备4K+高刷新率,用户对性能的需求也更高了,所以不够用是很正常的吧?
其实,这一点也不正常。因为早在2000年前后,当时的“大屁股”CRT显示器里,最顶级的型号就已经可以做到2304*1440的分辨率了,这并不比现在的主流“2K”显示器低多少,甚至也只比4K少了一半左右的像素数量。
早在2003年,PC发烧友就可以购买到由优派代工的T221 4K液晶显示器,甚至其分辨率高达3840*2400,比现在大多数20年后的4K显示器都要更高
如今显示器分辨率的提升并没有像大家想象的那样巨大。因此,我们应该排除显示器分辨率进步导致显卡性能不足的观点
真正的问题,或许出在了图形API上
那么到底是什么原因导致一部分人会觉得现代GPU的光栅性能“不够用”了呢?让我们再回到前面的那张表格,更细致地观察里面的数据。
可能有的朋友已经发现,历史上几乎每一次新款GPU光栅(像素、纹理)性能发生退步的时机,都“恰好”出现在DirectX API换代的时间点上。说得更具体一点,也就是当API换代,彼时的PC游戏迎来一次全新的画面特效、图像处理技术时,显卡的硬件设计反而可能会出现“倒退”。
为什么会这样?一方面,这是因为新的API往往需要GPU有完全重新设计的架构,这就可能会导致厂商在换代的时候设计还不够成熟,所以光栅性能反而下降。通过上述表格会发现,一般出现这种因换代而性能退步的产品后,后续的新品往往就会有一个重新的、大幅度的提升,从而间接证明了早期设计的还那么成熟。
图形API的升级,在某种程度上对显卡光栅性能的短暂下降进行了掩盖
从另一方面来说,当PC游戏迎来API的换代时,也就意味着消费者只有购买新的显卡,才能享受到新的技术体系所带来的特效进步。如果用的还是以前的老型号,那么轻则画面效果打折扣、重则根本就不能运行新API对应的游戏。
在这样的背景下,由于新API对应的新画面特效(比如HDR、曲面细分、光追)是新硬件“独占”,就造成跨代的新老款GPU之间,其实根本不可能真正在游戏里对比性能(因为此时老卡完全不能运行新游戏,或者哪怕是能运行,也打不开新的画面效果)。因此即便新一代的GPU在光栅性能上有倒退,消费者往往也感觉不出来。
主打光追的DX12.2,诞生至今其实已经四年之久
但问题就在于,如今的WIndows图形API已经至少四年、或者说可能长达八年没有大幅换代了。这就导致GPU的换代没法通过画面特效品质去体现,而只能“硬拼”分辨率、帧率、抗锯齿等级,也就是所谓的硬拼光栅性能。
NVIDIA方面的这番言论,究竟是烟雾弹、还是意有所指?
更有趣的是,从上述表格中很明显,NVIDIA似乎并不像他们自己所声称的那样“后继乏力”。甚至RTX 4090成为了多年来光栅性能进步最大、诚意最足的一代旗舰产品
这样一来,就产生了一个奇怪的情况。NVIDIA实际上在一边声称“下一代产品越来越难以开发,我们需要改变思路”,但实际上推出了完全符合传统思维、有巨大进步的新品
明白了这一点,再回过头来分析他们这些言论的意图,其实无非就以下这几种可能了。
第一种,可能是这位“应用深度学习研究副总裁”并不真正懂得GPU的图形设计,他误以为自家产品的技术发展快要遇到困难了,但实际上并没有。
第二种可能是他由于担任这个职位,不得不说这些"场面话",强调AI和DLSS的重要性,即使在大多数游戏中RTX 4090的性能已经非常强大,不需要使用AI抗锯齿,他也必须这样说
当然也不能排除,上述言论实际上只是一种“烟雾弹”,是NVIDIA为了迷惑竞争对手刻意散布假情报的可能性
甚至更进一步的说,如果将RTX 4090这一代的巨大性能提升,理解为是NVIDIA“完全吃透了DX12.2的特性”,那么它超高的光栅性能,以及NVIDIA相关人士“光栅无用论”的言论,是否也在暗示,确实有严重依赖AI算力的下一代PC图形API正在开发中,而且可能距离发布(换代)不远了呢?
【本文部分图片来自网络】
以上是显卡的未来只有AI?深度解析NV高管的'暴论”的详细内容。更多信息请关注PHP中文网其他相关文章!

介绍 恭喜!您经营一家成功的业务。通过您的网页,社交媒体活动,网络研讨会,会议,免费资源和其他来源,您每天收集5000个电子邮件ID。下一个明显的步骤是

介绍 在当今快节奏的软件开发环境中,确保最佳应用程序性能至关重要。监视实时指标,例如响应时间,错误率和资源利用率可以帮助MAIN

“您有几个用户?”他扮演。 阿尔特曼回答说:“我认为我们上次说的是每周5亿个活跃者,而且它正在迅速增长。” “你告诉我,就像在短短几周内翻了一番,”安德森继续说道。 “我说那个私人

介绍 Mistral发布了其第一个多模式模型,即Pixtral-12b-2409。该模型建立在Mistral的120亿参数Nemo 12B之上。是什么设置了该模型?现在可以拍摄图像和Tex

想象一下,拥有一个由AI驱动的助手,不仅可以响应您的查询,还可以自主收集信息,执行任务甚至处理多种类型的数据(TEXT,图像和代码)。听起来有未来派?在这个a


热AI工具

Undresser.AI Undress
人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover
用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool
免费脱衣服图片

Clothoff.io
AI脱衣机

AI Hentai Generator
免费生成ai无尽的。

热门文章

热工具

适用于 Eclipse 的 SAP NetWeaver 服务器适配器
将Eclipse与SAP NetWeaver应用服务器集成。

禅工作室 13.0.1
功能强大的PHP集成开发环境

SecLists
SecLists是最终安全测试人员的伙伴。它是一个包含各种类型列表的集合,这些列表在安全评估过程中经常使用,都在一个地方。SecLists通过方便地提供安全测试人员可能需要的所有列表,帮助提高安全测试的效率和生产力。列表类型包括用户名、密码、URL、模糊测试有效载荷、敏感数据模式、Web shell等等。测试人员只需将此存储库拉到新的测试机上,他就可以访问到所需的每种类型的列表。

Dreamweaver CS6
视觉化网页开发工具

螳螂BT
Mantis是一个易于部署的基于Web的缺陷跟踪工具,用于帮助产品缺陷跟踪。它需要PHP、MySQL和一个Web服务器。请查看我们的演示和托管服务。