Maxwell超級核彈 GTX Titan X首發評測
上世紀60年代初期,大型主機的問世標志著并行計算機誕生,隨后我們看到計算機體系越來越成熟。高性能計算機甚至體現了一個國家在高科技領域的發言權,其經濟發展速度和結構也與高性能計算機的計算能力息息相關。
1965年時任仙童半導體公司研究開發實驗室主任的摩爾繪制數據時,發現了一個驚人的趨勢:每個新芯片大體上包含其前任兩倍的容量,每個芯片的產生都是在前一個芯片產生后的18-24個月內。只要“光刻”的精度不斷提高,元器件的密度也會相應提高,從而計算能力相對于時間周期將呈指數式的上升。摩爾定律雖然算不上什么物理定律,但在顯卡行業卻一直延續著它的神話。即使是在28mn工藝停滯數年之后,顯卡的計算能力依然在不斷翻番。
今天NVIDIA再度發布了年度最強單核顯卡——GeForce GTX Titan X,它的問世標志著顯卡運算能力的又一次突破,前幾年我們還在為單顯卡浮點運算能力首次突破TFLOPS而驚嘆,現在這款顯卡的單精度已經可以達到恐怖的7TFLOPS了!
目前GeForce GTX Titan X無疑是世界上性能最強的單芯顯卡,正式發布之前NVIDIA CEO黃仁勛就表示,GeForce GTX Titan X采用了NV最新的Maxwell架構優異GPU——GM200,核心集成的晶體量比雙芯顯卡GTX Titan Z還要多出了10億,單卡顯存容量更是高達12GB!這讓我們對它的性能異常期待,想必大家也都非常好奇在當今各種自稱”卡皇“的諸強中,它究竟處在什么樣的位置吧!
文章開頭我們已經提到過,GeForce GTX Titan X仍是一款采用NVIDIA Maxwell架構GPU的產品,從某種層面上來說,這意味著GM200只是GM107的衍生品而已。不過話說回來,在第二代Maxwell架構GPU到來之后,NVIDIA的GPU架構師再次在能效比利用方面突破了難關。下面,我們就進入GeForce GTX Titan X的核心架構解析部分,幫助大家全面了解Maxwell架構的優異GPU產品——GM200。

Maxwell SM框圖
自Maxwell架構GPU問世之后,它的全新設計可大幅提高每瓦特性能和每單位面積的性能。雖然Kepler SMX設計在這一代產品中已經相當高效,但隨著它的發展,NVIDIA的GPU架構師再次在能效比利用方面突破了難關。它在控制邏輯分區、負荷均衡、時鐘門控粒度、編譯器調度、每時鐘周期發出指令條數等方面的改進以及其它諸多增強之處讓Maxwell SM(亦稱“SMM”)能夠在效率上遠超Kepler SMX。

GM204核心邏輯架構圖
我們知道,GM204擁有4組GPC、16個Maxwell流式多處理器(SMM)以及4個64bit顯存控制器,并隨之搭配了曾經前所未有的2MB L2。而搭載GM204核心的GTX 980顯卡在性能以及能耗比方面的卓越表現各位也有目共睹。但是GM204可不是Maxwell架構GPU中的最強、最完整的核心,因為GeForce GTX Titan X搭載著全新的GM200核心來到了我們面前。
從上面這張GM200核心邏輯架構圖中我們可以看到,GeForce GTX Titan X所采用GM200核心在規格上要比GTX 980的GM204強大許多,擁有包含6組GPC、24個Maxwell流式多處理器(SMM)以及6個64bit顯存控制器(共計384bit)。而且,與之相搭配的L2容量也增加到了3MB,比之前的任何GPU設計都大,十分有效地降低了顯存帶寬需求,確保了DRAM帶寬不成為瓶頸。

這樣算下來,GeForce GTX Titan X的GM204核心共計擁有3072個CUDA、192個TMUs、96個ROPs以及3MB L2,顯存位寬也達到了384bit,而核心頻率則被設定在了1002/1076MHz。這樣的規格使GM200毫無疑問的成為了NVIDIA旗下有史以來規格最為強大的桌面級GPU。不過,這僅僅是GeForce GTX Titan X的GPU核心規格,NVIDIA還賦予了這款顯卡12GB GDDR5的超大顯存容量,這樣的顯存容量搭配規格強大的GM200核心,自然也會讓GeForce GTX Titan X成為目前最為強大的單芯顯卡產品。
下面,我們就一起來看一看GeForce GTX Titan X與AMD、NIVIDIA這兩家的旗艦、次旗艦顯卡規格對比表格。

各位可以看到,GeForce GTX Titan X在規格上確實相當強悍,其中GTX Titan X的晶體管數量、流處理器數量以及顯存容量這三個方面可以說是目前所有單芯顯卡中最強的。但這樣強的規格,并沒有讓GeForce GTX Titan X的功耗大幅增加,其官方提供的250W TDP只比GTX 980高了85W,而與AMD的旗艦顯卡R9 290X相比則處于同一水平線上。這自然是由兩點因素決定的,一是相當成熟的臺積電28nm工藝,另一個就是優秀的Maxwell架構。
虛擬現實(VR)是當今游戲業界中的熱門話題,自從電影《The Lawnmower Man》(《割草者》) 上映之后之后,首次現身的虛擬現實 (VR) 名聲大噪。當時的虛擬現實不但圖形效果糟糕、游戲體驗膚淺,而且運動追蹤技術也處在萌芽階段,因此導致動作遲滯,這無疑會使觀看者感到惡心。
隨著科學技術的日益進步,相對以往來說目前我們已經更深入地了解了人腦,這就允許我們更好地打造出可最大限度減少惡心癥狀的虛擬現實體驗,而技術上的改進則能夠提供照片般逼真的圖形效果,帶來真正令人身臨其境的游戲體驗。從超強的GPU到高密度顯示器,虛擬現實現已得到充分發展,變成了一種讓人樂此不疲的卓越體驗,哪怕是熱情洋溢的描述也不足以刻畫出它的風貌。
早在幾年前,NVIDIA一直與Oculus等公司密切合作以改善虛擬現實體驗。很快NVIDIA就發現,最大限度減少游戲動作與屏幕顯示之間的延遲,這對臨場感和避免惡心癥狀來說至關重要。
為此,NVIDIA開發了多項新技術,這些技術可大幅改善虛擬現實體驗,使基于Maxwell架構GPU的顯卡最擅長提供流暢而有趣的虛擬現實體驗。
從輸入 (當你移動頭部) 到輸出 (當你看到游戲中出現動作) 的標準虛擬現實流水線大約耗時 57 毫秒 (ms)。然而,要獲得良好的虛擬現實體驗,這一延遲時間應該低于 20ms。目前,絕大部分延遲時間是 GPU 渲染場景所花費的時間以及將場景顯示在頭盔顯示器上所花費的時間 (大約 26ms)。
為了降低這一延遲,NVIDIA把預先渲染的幀數量從 4 幀減少到 1 幀,從而最多縮短了 33ms 的延遲,而且NVIDIA開發的 Asynchronous Warp 已接近完工。Asynchronous Warp 是一種可大幅改善頭部追蹤延遲的技術,能夠確保玩家察覺不到頭部晃動與畫面渲染之間的延遲。
這兩者相結合,再加上 NVIDIA 開發者的進一步調整,這一虛擬現實流水線現在的延遲只有 25ms。隨著進一步工作的開展和更新技術的問世,我們預計消費版本的虛擬現實將會擁有更快的響應速度。
虛擬現實的另一項要求是高幀速率。目前,想要實現流暢的游戲體驗,每只眼睛的幀速率需要在 960x1080 分辨率下達到每秒 75 幀才行,實現這種水平的性能相當于 4K 渲染,因此性能最強的旗艦級N卡自然是必不可少的。
為了給虛擬現實游戲玩家帶來更為出色的體驗,NVIDIA還專門開發了VR SLI技術,它可以讓每一路GPU只負責虛擬現實頭戴顯示器的一只眼睛畫面,讓游戲可充分利用兩顆GPU,提升幀率。
速度與畫質一直都是3D游戲追求的兩大終極目標,但很多時候,速度與畫質總是魚和熊掌不可兼得,想要開啟高級特效必然會損失幀數導致流暢度下降,因此就需要硬件廠商不斷的研發出性能更強的GPU,也需要軟件廠商研發出更高效率的圖形技術。
抗鋸齒(Anti-Aliasing,簡寫為AA)就是這樣一項很特別的圖形技術,它能夠明顯的改善游戲畫面表現力,同時也會讓游戲幀數大幅下降。所以多年以來,不論是顯卡廠商還是游戲開發商,都在努力的改進抗鋸齒效率,開發出新的抗鋸齒模式,讓游戲畫質變得更好,同時也不至于讓性能損失太多。
所以,大家一定聽過或者見過以下這些抗鋸齒中的一種甚至多種,如:MSAA、CSAA、CFAA、FXAA、TSAA……今天筆者就為大家詳細解讀3D游戲中的鋸齒是如何產生的,回顧最常見的MSAA技術的原理和優缺點,最后介紹NVIDIA新開發的一種效率極高的抗鋸齒技術——MFAA。
● 為什么會產生鋸齒?
我們知道,顯示屏是由一個個方塊像素點組成的,這些方塊像素點在顯示斜向或圓形物體時,會不可避免的在邊緣產生鋸齒狀的線條。就像馬賽克一樣,只不過是薄碼而已……
● 高分屏能否自動消除鋸齒?
當顯示器的分辨率或顯示屏的PPI(每英寸的像素數)足夠大時,人眼將無法看清具體的像素點,但相鄰像素之間的色彩差異也會產生明顯的錯落感,高分辨率/PPI由于像素變得非常細膩,可以同比縮小鋸齒,但仍不能完全消除鋸齒。
● 抗鋸齒技術是如何抵抗鋸齒的?
前面說過,方塊像素顯示斜向或圓形物體時,鋸齒是無可避免的,抗鋸齒也無法消除鋸齒,但它能通過欺騙人眼的方法,讓鋸齒的棱角顯得不那么明顯:
如上圖所示,方法就是對鋸齒所在位置的像素及相鄰像素進行比對采樣處理,計算出該像素應該顯示多少比例的灰階值,而不是“非黑即白”的顯示模式。比如4xAA就是對每個像素采樣4次,原本該像素只有0、1兩種顯示模式,開啟4xAA后就能顯示0、1/4、1/2、3/4、1五種模式。
如此一來,棱角分明的鋸齒邊緣,就會顯得比較模糊,色彩過渡比較自然,就不會那么刺眼了,鋸齒一定程度上被消除了。
● MSAA占據主導位置,4xMSAA使用最廣泛
MSAA的全稱是Multi Sampling Anti-Aliasing,多重采樣抗鋸齒。MSAA只對Z緩存和模板緩存中的數據進行采樣處理,可以簡單理解為只對多邊形的邊緣進行抗鋸齒處理,而忽略非邊緣像素(因此可能會在一些特殊位置殘留一些鋸齒)。這樣的話,相比SSAA對畫面中所有數據進行處理,MSAA對資源的消耗需求大大減弱,因此MSAA在游戲中使用最廣泛,多年來一直占據主導位置。

通常在游戲中會提供2x、4x、8x三種抗鋸齒級別,一般最常用的就是4x這種模式,因為4x和8x的畫質差別已經很小了。
● 開啟抗鋸齒性能損失有多大?

可以看出,4x抗鋸齒雖然效果優秀,但性能損失比較大,而2x性能損失最小,可以說效率最高。
● NVIDIA的黑科技:超高效能的MFAA
鑒于高倍MSAA性能損失較大的問題,NVIDIA在MSAA的基礎上開發出了一種“投機取巧”的技術:Multi-Frame Sampled Anti-Aliasing(MFAA),從字面上來看它是MSAA的一個變種,可以翻譯為“多幀多重采樣抗鋸齒”。
上圖為MFAA的工作原理,奇數幀在水平方向進行一次2xMSAA采樣,偶數幀在垂直方向進行另外一次2xMSAA采樣,然后通過軟件算法將其合成,最終的采樣結果與直接進行4xMSAA沒有區別。
可能會有人擔心,對相鄰的兩幀進行兩次2xMSAA采樣合成會不會造成畫質損失,尤其是當畫面運動幅度較大時?其實MFAA都是對物體邊緣進行采樣,無論運動幅度多大都有固定的幾何軌跡,因此兩幀始終會在固定的像素點進行合成,不會產生錯亂,合成之后的采樣效果自然也不會與MSAA有啥區別。
● 4xMSAA的畫質與4xMFAA完全相同,4xMSAA的性能接近與2xMSAA
4xMFAA的畫質與4xMSAA沒有區別
當然,通過算法將兩次2xMSAA合成為4xMFAA,性能肯定會有損失的,NVIDIA官方稱性能損失會在5%以內,這樣4xMFAA的性能自然會遠超4xMSAA,只是略低于2xMSAA。同理可以實現8xMFAA的性能遠超8xMSAA,略低于4xMSAA。
4xMFAA的幀數比4xMSAA高30%
通過這樣一個簡單而有創意的技術,可以免費讓NVIDIA顯卡的抗鋸齒性能提高30%,簡直逆天了!
NVIDIA新開發的高效能抗鋸齒技術——MFAA,它能夠以2xMSAA的性能,提供4xMSAA的畫質,從而以較小的性能損失提供更完美的游戲畫質。這樣當玩家們玩類似《顯卡危機3》、《男朋友4》這樣的優異大作,由于FPS本身較低不敢開高倍AA時,就可以開啟MFAA技術,讓速度與畫質兼得。
但并不是所有的游戲都像顯卡危機一樣吃顯卡,絕大多數游戲對顯卡要求不是很高,比如《穿越火線》、《英雄聯盟》一類的游戲中端顯卡就能動輒跑100FPS以上,此時顯卡性能有些浪費,那有沒有通過犧牲一部分FPS來提高畫質的方法呢?現在筆者就為大家介紹NVIDIA的另外一項黑科技——Dynamic Super Resolution(DSR),動態超級分辨率
簡單來說,DSR技術可以在普通的1080p顯示器上顯示4K級別的游戲畫面,當然NVIDIA即便掌握了火星科技也不可能將1080p顯示器變成4K顯示器,該技術只是在后臺以4K分辨率渲染游戲畫面,通過動態縮放的方式顯示在1080p顯示器上,雖然實際分辨率依然是1080p,但游戲畫面卻要比原生1080p分辨率渲染出來的好很多。
首先我們來看一張開啟DSR前后的游戲畫面截圖:
可以看出,開啟DSR之后的草叢邊緣顯示效果要好,然后再通過顯卡渲染流程為大家分析出現差異的原因:
可以看到,DSR模式在GPU內部是以真4K分辨率進行渲染的,只不過在像素輸出階段將4個像素合成為1個像素,最后才以1080p分辨率輸出。4K的分辨率是1080p的4倍,渲染精度自然大幅提高,輸出像素的采樣率相當于是4倍,最終的畫面自然會更加柔和平滑一些。
看到這里的示意圖,相信資歷較老的玩家會發現DSR技術有些類似于最早期的SSAA(超級采樣抗鋸齒),就拿前面的示例圖來說,原理可以說是完全相同的,但區別是SSAA只針對幾何物體的邊緣,而DSR則是針對全屏所有像素進行二次采樣,畢竟內部就是以4K分辨率進行渲染的。
點擊查看大圖可以看到開啟DSR的明顯區別
DSR對游戲有要求嗎?
DSR技術的工作模式非常簡單,它在系統內部模擬出了4K分辨率的顯示器,游戲就會以為電腦擁有一臺4K顯示器,從而以4K模式渲染出高精度的畫面,最后GPU再重新采樣并縮放成1080p分辨率輸出,因此DSR技術的唯一要求就是游戲本身能夠支持4K分辨率。
如何開啟DSR技術?
DSR技術支持幾乎所有的PC 3D游戲,玩家可以在最新版的343驅動控制面板中開啟,或者使用GeForce Experience自動掃描并優化游戲,如果您的顯卡較好,那么像暗黑3這樣要求不是很高的游戲默認就會開啟DSR技術。
DSR除了4K模式,還支持自定義分辨率,如2K模式:
當然,如果顯卡性能還不夠強的話,DSR技術允許玩家進行自定義設置,將渲染模式從4K降為2K,以2K模式渲染出來的畫質縮放成1080p分辨率輸出后,畫質依然會有明顯提升,同時性能損失不至于太大。
每一個行業都有自己的“圣杯”,例如能源方面的核聚變、醫藥方面的癌癥特效藥以及空間探索方面的超光速推進力。 任何領域中“圣杯”的定義都是難以實現和代價高昂的,或者完全是科幻產物。也許這就是我們之所以對此心馳神往的原因所在。
計算機圖形領域的“圣杯”就是“實時全局光照”。全局光照是一種渲染游戲環境的方法,它通過模擬光線的行為,從而體現各個表面之間的光線反射效果。然而以光子級別進行自然仿真處理是一項代價高昂的事業,電影中僅僅是有選擇地利用全局光照來渲染復雜的CG場景,就是因為這個原因。
這一情況即將有所改變。憑借次世代Unreal Engine 4(虛幻4)引擎,游戲將首次具備實時全局光照渲染效果。而這項技術是由NVIDIA圖形工程師與EPIC開發者共同完成的,NVIDIA將其稱為Voxel Global Illumination(VXGI,立體像素全局光照)。
● 什么是全局光照?它為什么對游戲逼真度來說如此重要?
首先來看一組對比截圖:
傳統直接光照效果
全局光照效果
區別很明顯吧?通俗的講,直接光照就是簡單的模擬一個或多個光源的照射效果,在相應的位置投射出光和影;而全局光照就是考慮到了光線的直射與盡可能多的漫反射效果,最終呈現出來的光影效果更接近于現實世界。
全局光照指的是對場景周圍光線反射的計算。全局光照負責制作出現實環境中的許多細微著色特效、氣氛以及有光澤的金屬反射效果。自1995年在虛幻1中采用實時直接光照以來,虛幻4引擎中的實時全局光照是在光照方面實現的最大突破!
● 在沒有全局光照技術之前,游戲是如何實現更逼真光影效果的?
也許有人會說了,現有的游戲其實光影效果還是不錯的,并不像上圖1所示那么差。沒錯,上圖的對比是比較直接的、沒有附加特效的,其實游戲中還有其它的方法來提高畫面真實度,最常見的就是Ambient Occlusion(AO,環境光遮蔽)技術。
目前非常先進的水平環境光遮蔽技術 (Horizon Based Ambient Occlusion,HBAO)
但不管是什么級別的AO,都是對光照與陰影的一種模擬,可以說是預處理,開發者認為此處的陰影的顏色應該深一些、或者淺一些、或者柔和一些,所以才會加上去的,而不是通過復雜的光影算法來直接生成的。
● 喜歡濃妝艷抹還是清新素雅?
我們知道傳統的圖形渲染分為立體建模(頂點著色)和像素著色兩個部分,其中像素都是2D平面狀的,平鋪在模型表面,而光影效果都是需要預先計算每個像素的光照或陰影,就是根據游戲的需要來改變像素顏色。
這種對每個像素反復進行涂抹修飾的做法,既不逼真、也很低效,因為像素顯示的并不是真正的光影效果,而是我們認為應該顯示的效果,而且越來越多的預處理特效對GPU的ROP(光柵單元)和顯存造成了很大的負擔。
● VXGI立體像素全局光照:2D平面像素變為3D立體像素
NVIDIA使用了一種非常巧妙的方法,從根本上改變了虛假的光影處理流程。
傳統游戲中,所有間接光照(某一表面反射出來的光線)是預先計算的,存儲于有光線貼圖之稱的紋理內。光線貼圖讓游戲場景能夠具備類似全局光照的效果,但是因為它們是預先計算的,所以只在靜態物體上有效。
VXGI完全拋棄了將光線貼圖存儲于2D紋理中的做法,而是將其存儲于立體像素中。立體像素就是三維像素,它具有體積,類似于樂高積木。
立體像素采用樹狀結構分布,以便能夠對其進行高效地定位。當渲染一個像素時,它能夠有效地詢問立體像素樹: “哪一個立體像素對我來說是可見的?”根據這一信息,就能夠決定接收的間接光線數量(全局光照)。
VXGI完全消除了預先計算的光照,以存儲于樹狀結構的立體像素取而代之,這種樹會根據每一幀而更新,所有像素均利用它來收集光照信息。
● VXGI立體像素全局光照:每顆立體像素都是“手電筒”
現在到了最關鍵的地方,立體像素看起來好像比馬賽克更加稀疏,但是所有可見的立體像素都可以執行錐形聚焦光線追蹤(給出起點、方向和角度),這樣就能沿著小范圍的錐形路徑生成大致的光線漫反射效果。
每一個立體像素都可以進行多個錐形追蹤,游戲中需要根據實際光源的大致方向及反射表面的情況,來設定錐形范圍及追蹤數量。
實現最終的效果沒有捷徑,就是通過GPU強大的運算能力,讓錐形追蹤足夠快,以使我們能夠實時地對每個立體像素執行一次或多次追蹤。對每個像素執行六次寬幅錐形追蹤 (每個主要方向各一次) 會生成大致的二次反射間接光照效果。以鏡面反射方向執行窄幅錐形追蹤能夠呈現金屬反射效果,在這種反射效果中,每個有光澤的表面都能夠反射出整個場景。
● 虛幻4引擎完美支持VXGI,Maxwell顯卡運行效率更高
值得一提的是,VXGI提算全局光照技術嚴重依賴于GPU的浮點運算(通用計算),而不是傳統的圖形流水線,因此大大減輕了GPU光柵單元的負擔。另外,NVIDIA稱Maxwell架構對VXGI的運算進行了針對性的優化,新一代顯卡在執行體素全局光照時的效率會更高。
VXGI現已加入UE4豪華DEMO
虛幻4引擎已經完整支持了VXGI技術,最新的虛幻4技術演示Demo已呈現出了非常驚人的光照效果,不久之后,將會有一大批使用虛幻4引擎的游戲大作問世,屆時Maxwell架構的顯卡將會有更佳的性能表現。
效果開高游戲幀數下降,特效開低畫質慘不忍睹,如何平衡是一件令游戲玩家頭疼不已的事。一般測試的時候我們都是將設置手動調整到最高,目的是壓榨顯卡的全部性能。但實際游戲的時候,根據顯卡的性能和游戲的需要,我們并不需要這么做,而在畫面質量和游戲速度兩者之間達到非常好的平衡才是我們需要的結果,為了解決這個問題,NVIDIA發布了GeForce Experience——一款智能設置游戲參數的軟件。
這款軟件在NVIDIA官網提供下載,安裝之后第一次運行,GeForce Experience會從NVIDIA的云端下載用戶所需的游戲設置。
▲ 通過云端硬件和游戲的數據匹配交換,GeForce Experience可以優化系統。
▲ GeForce Experience的系統要求,支援主流硬件和系統
GeForce Experience支持手動調整游戲設置,也支持一鍵智能優化,云端會根據用戶的電腦硬件配置和游戲的要求設置特效的高低,保證所有GeForce用戶非常好的的游戲體驗。
GeForce Experience 現已優化了支持上百款游戲,下載用戶數量也早就超過了千萬。而GeForce Experience(GFE軟件)1.7之后的版本都加入了一個重大更新,那就是備受期待的Shadow Play。
Shadow Play是GFE中的一個簡單易用的游戲錄制模塊,可充分利用 GeForce GTX 600 和 700 系列 GPU 中內置的 H.264 編碼器達到高效率錄制游戲錄像的功能。通過利用這一硬件編碼器,ShadowPlay 對游戲幀速率的影響大大低于傳統的錄制應用程序,傳統應用程序會給 CPU 造成巨大壓力。由于幀速率更高,玩家可以享受到更加流暢的游戲體驗,而通過以 H.264 格式進行編碼,ShadowPlay 避免了其它應用程序中占用數 GB 空間的大文件問題。這樣便節省了空間,更重要的是,通過避免不必要的硬盤顛簸,減少了卡頓現象。
ShadowPlay演示:
● Maxwell更加卓越的視頻錄制功能
與之前的GeForce GPU相比,Kepler主要的技術創新之一是其基于硬件的H.264視頻編碼器——NVENC。通過把用于視頻編碼/解碼的專用硬件電路集成進來(而不是使用GeForce GPU的CUDA核心),NVENC在H.264編碼方面可帶來大幅性能提升,同時消耗的功耗更低。
去年Q3利用Kepler的NVENC編碼器實現的Shadow Play功能在游戲玩家中獲得了極大的成功。因為NVENC編碼器在游戲的同時自動記錄幾分鐘的場景,所以只要玩家需要的時候按一個熱鍵,就可以將之前幾分鐘的畫面保存成游戲錄像。這讓所有GeForce GTX 600和GTX 700系列游戲玩家都興奮不已。自從Shadow Play發布以來,捕捉的視頻數量已逾300萬,游戲玩家將捕捉到的視頻發布到YouTube上,還有的玩家甚至在Twitch上實時流式傳輸自己的游戲片段。
為了提高視頻性能,Maxwell采用了改進的NVENC模塊,該模塊編碼速度是H.264實時編碼的6-8倍或者Kepler實時編碼的4倍,解碼速度更是提升了8-10倍。換句話說在新一代Maxwell架構的顯卡上,游戲同時錄像,幾乎感覺不到系統性能的下降。
Maxwell還具備量身定制的全新GC5功率狀態,特別是能夠在視頻播放等輕載型使用場合降低GPU的功耗。GC5是一種低功耗休眠狀態,在這些使用場合下的節能性遠超之前的GPU,這對于高端顯卡的意義更大。
看到GeForce GTX Titan X的外觀,有人會覺得熟悉,熟悉的原因無非是這個外觀設計早在首款核彈顯卡GTX Titan來臨時就一直沿用至今。但是,筆者相信一部分人覺得這款顯卡很熟悉的原因不止于此。
早在GeForce GTX Titan BE還身處傳聞中時,一位名為@控的是AK的網友發帖曬出了一款經過氧化處理的“泰坦皮”,也就是“自制版”GeForce GTX Titan BE。正是這條帖子,給予了NVIDIA靈感,于是這個設計就出現在了GeForce GTX Titan X顯卡上。
核心方面,GeForce GTX Titan X搭載了一顆基于28nm工藝 Maxwell架構GM200核心,擁有3072個流處理器、192個TMUs和96個ROPs,基礎核心頻率為1002MHz、基礎Boost頻率為1076MHz。
而在顯存方面,GeForce GTX Titan X的PCB正反面一共配備了24顆GDDR5顯存顆粒,組成了12GB GDDR5 384bit的顯存規格,而在顯存頻率方面,GeForce GTX Titan X的顯存頻率為7012MHz。
視頻接口方面,GeForce GTX Titan X采用完整版本的三DP、HDMI、DVI 2.0的輸出設計,雖然視頻輸出接口的排布有點不符合處女座同學的審美觀,但這樣的組合已經完全可以滿足發燒玩家的需要。
為了避免在游戲測試中出現瓶頸,在本次測試中我們用Intel Core i7-4790K、華擎Z97 Extreme 6主板、8GB DDR3-1600(4GB x 2)內存組建了一套高端平臺,下方表格就是本次測試平臺配置表格:
參測顯卡方面,除了NVIDIA新核彈顯卡GeForce GTX Titan Z之外,我們在本篇評測中還選擇了在去年9月份發布的NVIDIA旗艦、次旗艦顯卡GeForce GTX 980、GeForce GTX 970以及AMD目前的單芯旗艦、次旗艦顯卡Radeon R9 290X、Radeon R9 290。
需要注意的是,在本篇評測中除了GeForce GTX Titan X和GeForce GTX 980之外,我們使用的GeForce GTX 970、Radeon R9 290X和Radeon R9 290均為非公版產品,其頻率均高于相應的公版產品。因此,我們通過軟件將這三款顯卡的頻率進行了調整,改成了公版產品的頻率。
測試內容與測試項目解析
從規格上看,我們可以毫無疑問的說GeForce GTX Titan X是一款專門為那些在4K分辨率下玩游戲的發燒友們所準備的優異單芯顯卡。因此,在本篇評測中我們除了會在1920 x 1080、2560 x 1440這兩個分辨率下進行測試外,還會著重進行顯卡的4K性能測試,而且會在4K分辨率 + 最高畫質、4K分辨率 + 最高畫質 + 較高抗鋸齒這兩種情況下來進行顯卡的4K游戲性能測試。
另外,除了對GeForce GTX Titan X顯卡進行功耗、溫度以及噪音測試之外,我們還將會對這款顯卡進行超頻測試,來給大家展示GeForce GTX Titan X在超頻之后的性能。
測試項目方面,基準性能測試3DMark 11、3DMark Fire Strike之外,我們還選擇了多款熱門游戲。在這些游戲項目中,既有《地鐵2033》、《孤島危機3》這類的老“顯卡殺手”,也有《孤島驚魂4》、《刺客信條:大革命》這樣的新作。
GeForce GTX Titan X實際運行頻率監控
由于GeForce GTX Titan X支持GPU Boost 2.0,我們在GPU-Z軟件上看到的GeForce GTX Titan X的基礎核心、基礎GPU Boost頻率只是個參考值,而該卡在實際運行游戲時的頻率會根據顯卡溫度的變動而發生變化。
所以,了解一下GeForce GTX Titan X的GPU實際運行頻率是有必要的,因為在了解之后我們可以通過調節風扇轉速來讓GPU核心保持一個合適的運行溫度,讓GPU頻率保持在較高的水平,來充分發揮GeForce GTX Titan X的性能。下面我們就通過Furmark拷機軟件來進行顯卡負載測試,并監控GPU的實際運行頻率。

通過監控軟件,大家可以看到GeForce GTX Titan X的核心溫度從 上升至70度之前,GeForce GTX Titan X的GPU頻率最高可以到達1228MHz,并在這段時間內保持在1200MHz以上(不會超過1228MHz),而當GPU溫度超過70℃之后,GPU頻率將會有所下降。直到降至1050MHz之后,在GPU溫度維持在83℃(有限制,最高就到83℃)之后,GPU的實際運行頻率將會一直維持在1.1GHz出頭的水準。
了解完GeForce GTX Titan X的GPU運行頻率狀況之后,下面我們就進入本篇評測的性能展示環節。首先,我們來看一看GeForce GTX Titan X的基準性能測試成績。
3DMark11的測試重點是實時利用DX11 API更新和渲染復雜的游戲世界,通過六個不同測試環節得到一個綜合評分,藉此評判一套PC系統的基準性能水平。
3DMark 11的特色與亮點:
1、原生支持DirectX 11:基于原生DX11引擎,全面使用DX11 API的所有新特性,包括曲面細分、計算著色器、多線程。
2、原生支持64bit,保留32bit:原生64位編譯程序,獨立的32位、64位可執行文件,并支持兼容模式。
3、新測試場景:總計六個測試場景,包括四個圖形測試(其實是兩個場景)、一個物理測試、一個綜合測試,全面衡量GPU、CPU性能。
4、拋棄PhysX,使用Bullet物理引擎:拋棄封閉的NVIDIA PhysX而改用開源的Bullet專業物理庫,支持碰撞檢測、剛體、軟體,根據ZLib授權協議而免費使用。
測試成績展示:
▲3DMark 11 Extreme測試項總得分(俗稱的X分)
▲3DMark 11 Extreme測試項的GPU得分
在3DMark 11性能測試中,我們可以看到規格最強大的GeForce GTX Titan X輕而易舉的戰勝了其它4款A/N旗艦、次旗艦顯卡,而且領先幅度相當多,與其它四款顯卡中最優秀的GTX 980相比要高出大概三分之一。
既然針對平臺不同,測試項目自然也相去甚遠,三大平臺除了PC追求極致性能外,筆記本和平板都受限于電池和移動因素,性能不是很高,因此之前的3Dmark11雖然有三檔可選,依然不能準確衡量移動設備的真實性能。
而這次Futuremark為移動平臺量身定做了專有測試方案,新一代3DMark三個場景的畫面精細程度以及對配置的要求可謂天差地別。
Fire Strike、Cloud Gate、Ice Storm三大場景,他們分別對應當前最熱門的三大類型的電腦——臺式電腦、筆記本電腦和平板電腦。另外,在最新版的3DMark之中,我們還看到Fire Strike測試項多出了一個專為優異發燒主機準備的4K測試項目。
3Dmark Fire Strike默認性能測試成績:
▲3DMark Fire Strike默認性能測試總得分
▲3DMark Fire Strike默認性能測試GPU得分
3Dmark Fire Strike Extreme性能測試成績:
▲3DMark Fire Strike Extreme性能測試總得分
▲3DMark Fire Strike Extreme性能測試GPU得分
3Dmark Fire Ultra性能測試成績:
▲3DMark Fire Strike Ultra性能測試總得分
▲3DMark Fire Strike Ultra性能測試GPU得分
在3DMark Fire Strike性能測試中,GeForce GTX Titan X同樣毫無懸念的碾壓了其它4款參測顯卡。無論是3DMark Fire Strike測試三種測試項的哪一種,GeForce GTX Titan X的成就都持續優秀。
基準性能測試小結:在3DMark 11和3DMark Fire Strike這兩個基準性能測試中,規格最為強大的GeForce GTX Titan X的表現與其它四款產品相比領先程度相當大。不過,這只是各位喜聞樂見的跑分測試結果,真正能體驗出GeForce GTX Titan X性能的還得說是各種熱門游戲的測試。下面,我們就進入本文的游戲性能測試環節。
《地鐵2033》(Metro 2033)是俄羅斯工作室4A Games開發的一款新作,也是DX11游戲的新成員。

該游戲的核心引擎是號稱自主全新研發的4A Engine,支持當今幾乎所有畫質技術,比如高分辨率紋理、GPU PhysX物理加速、硬件曲面細分、形態學抗鋸齒(MLAA)、并行計算景深、屏幕環境光遮蔽(SSAO)、次表面散射、視差貼圖、物體動態模糊等等。

《地鐵2033》雖然支持PhysX,但對CPU軟件加速支持的也很好,因此使用A卡玩游戲時并不會因PhysX效果而拖累性能。該游戲由于加入了太多的尖端技術導致要求非常BT,以至于我們都不敢開啟抗鋸齒進行測試,只是將游戲內置的效果調至最高。游戲自帶Benchmark,這段畫戰斗場景并不是很宏大,但已經讓高端顯卡不堪重負了。
如果說是CRYSIS發動了DX10時代的顯卡危機,那地鐵2033無疑是DX11時代的顯卡殺手!地鐵2033幾乎支持當時可以采用的所有新技術,在畫面雕琢上大肆鋪張,全然不顧顯卡們的感受,和CRYSIS如出一轍。然而CRYSIS靠著特效的堆積和不錯的優化,其驚艷絕倫的畫面和DX9C游戲拉開了距離,終究賺足了眼球;而地鐵則沒有這么好運了,畫面固然不差,BUG卻是很多,招來了大量的非議。
測試成績展示:
在《Metro 2033》Benchmark測試中,GeForce GTX Titan跑出了參測顯卡中最好的成績,即使是在4K分辨率 + 最高畫質 + 最高抗鋸齒的情況下,GeForce GTX Titan的成績同樣也是最出色的。
《孤島危機3》支持大量的高端圖形選項以及高分辨率材質。在游戲中,PC玩家將能看到一系列的選項,包括了游戲效果、物品細節、粒子系統、后置處理、著色器、陰影、水體、各向異性過濾、材質分辨率、動態模糊以及自然光。技術主管Marco Corbetta表示之所以《孤島危機2》并不包含這么多的選項,是因為開發主機板的開發組實在是搞的太慢了。

● 實時體積煙云陰影(Real-Time Volumetric Cloud Shadows)
實時體積煙云陰影(Real-Time Volumetric Cloud Shadows)是把容積云,煙霧和粒子陰影效果結合起來的一種技術。和之前的類似技術相比,實時體積煙云陰影技術允許動態生成的煙霧擁有體積并且對光線造成影響,和其他物體的紋理渲染互動變化。

● 像素精度置換貼圖(Pixel Accurate Displacement Mapping)
像素精度置換貼圖(Pixel Accurate Displacement Mapping)可以讓CryEngine 3引擎無需借助DX11的細分曲面技術即可一次渲染出大量沒有明顯棱角的多邊形。此前crytek曾透露過正在考慮在主機上實現類似PC上需要DX11硬件才能實現的細分曲面效果,看來此言非虛,新型的位移貼圖技術來模擬細分曲面的效果。雖然實現原理完全不同,但效果看起來毫不遜色。
● 實時區域光照(Real-Time Area Lights)
實時區域光照(Real-Time Area Lights)從單純的模擬點光源照射及投影進化到區域光照的實現,以及可變半陰影(即投影隨著距離的拉長出現模糊效果),更準確的模擬真實環境的光照特性。
● 布料植被綜合模擬(Integrated Cloth & Vegetation Simulation)
布料植被綜合模擬(Integrated Cloth & Vegetation Simulation)其實在孤島危機1代中植被已經有了非常不錯的物理效果,會因為人物經過而擺動,但是這次crytek更加強化了這方面的效果,還有就是加入了對布料材質的物理模擬,這方面之前只有nvidia的physx做得比較好。

● 動態體積水反射(Dynamic Water Volume Caustics)
動態體積水反射(Dynamic Water Volume Caustics)孤島危機1和2基本上在水的表現上集中在海水,很少有湖泊和類似大面積積水潭的場景,而這次crytek實現了超遠視野的水面動態反射。動態體積水反射可以說是孤島危機2中的本地實時反射的一個延伸,是結合靜態環境采樣和動態效果的新的水面反射技術。
測試成績展示:
在《孤島危機3》性能測試中,GeForce GTX Titan X充分展現了自身強大的性能實力,其成績全面領先參測的其它四款顯卡產品。
這些年我們看到了不少形態各異的勞拉,從豐乳肥臀的動作游戲主角到喜歡探索亞特蘭蒂斯文明的睿智貴族。不過我們從未見過這樣的勞拉。Crystal Dynamics的《古墓麗影9》讓我們看到了一個參加初次探險的年輕勞拉,她遭遇海難被困在刀槍林立的小島上,必須將自己的智謀和求生欲望提升到極限。

劇情介紹:故事從年少時期的勞拉開始,勞拉所乘坐的“堅忍號”仿佛是被宿命所呼喚,在日本海的魔鬼海遭遇到了臺風,不幸擱淺。勞拉也被迫到島上開始自己的求生經歷。

“高”特效的畫質已經非常不錯了。
測試成績展示:
和之前的項目一樣,GeForce GTX Titan X在《古墓麗影9》性能測試中跑出的平均幀數依舊明顯領先其它四款產品,而且優勢挺大。
《孤島驚魂》是FPS歷史上很有意義的作品,當初與《毀滅戰士》、《半條命》并稱為射擊游戲三巨頭。這款游戲第一代的制作組后來脫離育碧自立門戶,創作了我們所熟知的《孤島危機》,從此之后,《孤島驚魂》的續作并沒有帶給大家太多的震撼。幾年過去了,當初脫離育碧的Crytek深陷財務危機,而目前主機市場相對低迷的情勢下,PC游戲廠商相對而言則滋潤不少,在這個大背景下,《孤島驚魂4》誕生了。
《孤島驚魂4》是一款標準第一視角射擊游戲,本作由育碧蒙特利爾工作室主刀,多家工作室聯合制作,游戲背景這一次設定在雄壯的喜馬拉雅山脈,全新的故事和角色以及新引擎、新技術力圖為玩家奉上令人興奮的游戲體驗。
uplay是Ubisoft為擴展自家游戲的延伸價值而開發的,正版玩家可以在游戲過程中解鎖各種成就,然后用成就點數換取特殊獎勵,比如特殊套裝等。同時也會提供一些收費道具給玩家購買。《孤島驚魂4》也提供了豐富的游戲要素以及增強互動性的多人合作模式,不過對于非正版玩家而言,離線單機游戲依然保留下來。
1代的荒島、2代荒漠和3代的綠洲都各具特色,而4代的游戲背景設定在喜馬拉雅雪山,帶給玩家全新體驗。盡管是系列作品,不過孤島驚魂4與前作之間基本沒有聯系,可以看做是獨立作品,就算之前沒有玩過前作的玩家也不會覺得有任何障礙。
測試成績展示:
在《孤島驚魂4》性能測試中,GeForce GTX Titan X的成績同樣毫無懸念的碾壓了其它4款參測顯卡。
《怪物獵人Online》,官方簡稱為MHO,是一款由CAPCOM授權,騰訊游戲和CAPCOM聯合開發,騰訊游戲發行的網絡游戲,以動作和角色扮演玩法為主體。《怪物獵人Online》是CAPCOM旗下《怪物獵人》的網游版,而內容則基于早前PC/XB360平臺上《怪物獵人:邊境Online》。
騰訊游戲在購得CryEngine3后對其進行了再開發,這讓《怪物獵人Online》具有極高水準的畫質。游戲暫時只在中國發行,并為PC獨占。在《怪物獵人OL》的世界中,一方面玩家能夠欣賞到最高清的游戲場景,感受栩栩如生的狩獵世界;另一方面,還能享受到由NVIDIA頂尖技術帶來的極致細節刻畫和狩獵動態效果,獲得最身臨其境的狩獵體驗。
為了展現游戲中各種優異的光影特效和動作效果,帶來最爽快的狩獵感受,NVIDIA在《怪物獵人OL》主題硬件測試程序中為玩家帶來了包括:Depth of Field: Bokeh(景深技術:散焦)、Tessellation(曲面細分)、NVIDIA PhysX Clothing(NVIDIA PhysX衣料技術)、NVIDIA Hairworks(NVIDIA毛發技術)、NVIDIA HBAO+(NVIDIA新版環境光遮蔽。
測試成績展示:
在《怪物獵人OL》性能測試中,GeForce GTX Titan X的成績毫無疑問是最為出色的,無論是之前NV在9月份推出的旗艦卡GTX 980還是曾經和GTX Titan大戰過300回合的R9 290X,與GTX Titan X相比均要弱了許多。
《刺客信條:大革命》是育碧最新出品的動作冒險類游戲,本作的背景設定于18世紀法國大革命時期,玩家將會在浪漫之都巴黎完成各式各樣的冒險,游戲的地圖面積非常龐大,如巴黎圣母院、凡爾賽宮等著名場所甚至將以1:1呈現,力求帶給玩家最真實的體驗,游戲內容也基于歷史制作,雖然玩家并不能改變歷史,但卻有機會融入其中。此外,由于采用全新技術制作,《刺客信條:大革命》在提供了逼真游戲內容的同時,也對硬件性能提出了相當高的要求。
如此逼真的畫質特效打來的“副作用”也是非常明顯的,《刺客信條:大革命》的PC硬件需求可以說非常高,最低要求就已經是Core i5-2500K級別處理器、6GB內存和GTX 680/HD 7970級別顯卡,推薦配置則是Core i7-3770級別處理器、8GB內存和GTX 780/R9 290X級別顯卡,這回恐怕連游戲發燒友都要表示“電腦壓力山大”了。
測試成績展示:
游戲性能測試的最后一項是《刺客信條:大革命》,在這項測試中,GeForce GTX Titan X一如既往的成為了參測顯卡中表現最出色的產品。不過,在這次測試時我們出現了一點“意外”......
在進行《刺客信條:大革命》測試的時候,我們遇到了這樣一個“奇怪”情況。本來我們打算在4K分辨率下測試該游戲時的最高畫質、抗鋸齒設定為“極高”+ 4xMSAA(這是游戲內“極高”檔位的默認設定),但設定好并且應用設定之后就悲劇了,這游戲畫面直接變成了幻燈片,晃動鼠標都費勁.......
不過,這種情況只出現在GTX 980、GTX970、R9 290X和R9 290這四款顯存容量為4GB GDDR5的顯卡上,等我們將顯卡換成GTX Titan X之后,這種情況卻并沒有發生。于是,我們就將《刺客信條:大革命》的最高畫質設定降到了極高 + 2xMSAA,然后開啟監控軟件來監測顯存使用量,結果發現這游戲在4K分辨率 + 極高畫質 + 2xMSAA下已經占用了GTX Titan X 超過5GB的顯存!
然后,我們將抗鋸齒徹底提高到4xMSAA(畫質保持不變)并重啟游戲,結果發現這游戲的顯存占用量變得更多了,達到了6.5GB左右,看來GTX 980、GTX970、R9 290X和R9 290在這個畫質設定下運行《刺客信條:大革命》給大伙帶來的“幻燈片”級體驗是因為4GB GDDR5的顯存不夠用,已然“爆掉了”。
雖然問題的原因已經找到,但我們還想試試這個“顯存信條”最高能夠吃掉GTX Titan X多少顯存,于是我們就無恥的把抗鋸齒拉到8xMSAA,應用之后便重啟了游戲。結果我們發現,在4K分辨率 + 極高畫質 + 8xMSAA這種設定之下,GTX Titan X只能讓這款游戲在10FPS左右運行,而顯存占用已經達到了比較驚人的9GB......
由此看來,NVIDIA這一次給GeForce GTX Titan X配備上12GB GDDR5的超大容量顯存無疑是正確的,因為GeForce GTX Titan X是直面4K分辨率的優異顯卡產品,在這種分辨率下以最高畫質運行游戲需要顯卡擁有足夠的顯存容量,尤其是像“顯存信條”這種對顯存容量要求很高的游戲。
超頻不僅可以獲得免費性能,也是檢測顯卡穩定性的一項重要手段,所以重要產品的測試超頻環節是必不可少的。GeForce GTX Titan X的默頻性能固然非常強大,那它的超頻潛力又怎么樣呢?我們下面通過實際測試驗證一下即可見分曉。

在經過數次調試之后,我們成功的將GeForce GTX Titan X的核心/顯存頻率超到1177/1251/7532MHz(沒加壓),并成功進行了多次3DMark跑分測試,下面我們就來看一看超頻后的GeForce GTX Titan X在性能上有多少提升。
3DMark 11成績展示:
3DMark Fire Stirke成績展示:
3DMark Fire Stirke Extreme成績展示:
3DMark Fire Stirke Ultra成績展示:
通過上述成績我們可以看到,GeForce GTX Titan X在超頻能力方面的表現可以說比較不錯,在不加壓的情況下超個200MHz應該不是問題。而且在超頻之后,這款顯卡的GPU實際運行頻率可以提升到1.4GHz,性能自然也就會有不小的增加,算下來應該能提升個15%左右。
好了,到此關于GeForce GTX Titan X的性能測試環節就告一段落了。接下來,我們將給大家帶來本篇評測的功耗、溫度以及噪音測試成績。
GeForce GTX Titan X功耗測試:
得益于優秀的Maxwell架構,雖然GeForce GTX Titan X的核心規格相當強大,但它在功耗控制方面的表現就像之前的Maxwell架構產品一樣出色。在Furmark拷機測試中,搭載GeForce GTX Titan X的平臺(其它配置請參看前面的平臺配置介紹,不帶顯示器)的滿載功耗大概是352.8W,與本次測試中的搭載Radeon R9 290X的平臺處于同一水平,但和使用GTX 980的平臺相比要高大概80多W。不過,對于一款卡皇級別的優異單芯顯卡,GeForce GTX Titan X在功耗控制方面已經相當出色了。
而在平臺閑置功耗測試中,搭載GeForce GTX Titan X的平臺整體功耗大概是65.8W,同樣與搭載Radeon R9 290X的平臺處于同一水平。
PS:在本次測試中,我們使用的GTX 970、R9 290X和R9 290均為非公版產品,所以本次功耗測試中這三款產品的功耗數值僅供各位參考。
GeForce GTX Titan X溫度測試:
轉到GeForce GTX Titan X的溫度測試,由于這款顯卡的核心規格與核心面積相當龐大,這就使得GeForce GTX Titan X的核心發熱量增加了不少。在用Furmark拷機軟件(3840 x 2160分辨率 + 4xMSAA)進行拷機一陣子之后,GeForce GTX Titan X的滿載溫度維持在了83℃,而在待機狀態下,GeForce GTX Titan X顯卡的溫度則維持在47℃左右。這樣的溫度測試表現對于一款采用公版散熱方案的優異卡皇來說,應該會讓大伙接受。
本次測試時的環境溫度為24℃。

▲GeForce GTX Titan X的滿載溫度為83℃

▲GeForce GTX Titan X的待機溫度為47℃
GeForce GTX Titan X噪音測試:
在環境噪音大概37.5分貝的情況下,GeForce GTX Titan X在顯卡處于滿載狀態下的最高噪音為54.2分貝,而待機時的顯卡運行時發出的噪音為41.3分貝,如果我們將它放置在機箱中,相距1M幾乎聽不到顯卡風扇的聲音。另外,困擾許多玩家的“高頻嘯叫”問題似乎沒有出現在GeForce GTX Titan X顯卡上,這得歸功于使用了模壓電感和極化電容,它們可以最大限度地消除這種現象,大幅提升玩家的游戲體驗。
&nbs
自2015年3月18日起,采用Maxwell架構優異GPU的GeForce GTX Titan X顯卡憑借著架構出色、規格強悍的GPU、12GB GDDR5的超大容量顯存以及由此提供最出色游戲性能,輕而易舉的從NV自家的GeForce GTX 980手中接過了“地球最強單芯顯卡”的桂冠。它的每一項優勢,都是壓倒性的,都是之前的卡皇、旗艦們所不能比擬的。
正如我們之前所說過的,初代Maxwell邁出了重要的一步,從它身上我們不難看出工程師在背后付出的極大努力,幸運的是他們努力的方向是正確的,每瓦特性能提升必然是后PC時代顯卡大合唱的主旋律。而新GeForce GTX Titan X在功耗比方面的良好表現更是旗艦顯卡向著實用和節能方向發展的典范產品。
另外,GeForce GTX Titan X也是NVIDIA旗下首款真正意義上為4K分辨率準備的單芯顯卡,尤其是它的12GB GDDR5顯存已經為玩家在4K分辨率下暢玩熱門大作打下了良好基礎。盡管單靠一片GeForce GTX Titan X還沒有辦法實現徹底征服4K分辨率這一目標,但筆者相信,能夠徹底征服4K分辨率的單芯顯卡距離我們已經并不遙遠了。
價格方面,雖然NVIDIA直到GeForce GTX Titan X發布之前幾小時才透露這款顯卡的官方指導價為999美元,與之前GTX Titan、GTX Titan BE的首發價保持不變,但這個數字早前已經被外媒泄露過了。
至于GeForce GTX Titan X在國內的官方價格,也正如同一部分玩家所猜想的那樣,為7999人民幣。而NVIDIA給GeForce GTX Titan X的國內官方指導價定成這樣自然不需要筆者多言,單屏GeForce GTX Titan X是目前地球最強單芯顯卡這一點已經足夠。如果感覺單靠性能還不足以證明GTX Titan X值這個價,那再加上“12GB”超大顯存這條也應該差不多了。
GTX Titan X的“加冕”固然是順理成章、實至名歸,但細想起來卻透出一絲莫名凄涼感。因為自去年9月至今,高端獨顯市場一直由NVIDIA獨領風騷,而他的老對手AMD卻一直處于沉寂狀態,只能祭出“降價”這一法寶來與NV抗衡。不過,就目前的狀況來看NVIDIA在高端獨顯市場一枝獨秀的局面似乎不會維持太久了,因為現在有許多消息稱AMD將使用超級大殺器“Fiji”——Radeon R9 390X來重振雄風,而且R9 390X有可能要比GTX Titan X更為出色。
不過,既然NVIDIA選在這個時間節點發布GeForce GTX Titan X,想必GTX Titan X的性能充滿了信心,或者已經做好了相應的準備。各位想一想將在今年年內重新燃起的A/N單芯卡皇之戰,是不是有點小激動呢?
寫在最后:從1999年到現在從第一個顯卡GPU產生到現在只有短短十幾年的時間。在這短短十幾年當中我們已經看到了GPU的運算能力呈幾何級數提升,這個世界在GPU的虛擬之下更快更真,而更重要的一點是GPU已經將它的應用范圍不斷拓展。
從圖形領域虛擬現實的角度來說,只要有顯示終端的地方就需要一顆GPU。借助于GPU可以讓醫學家觀察到更細微的分子;借助于GPU可以讓軍事演習的擬真度更強;借助于GPU可以讓專業工作站的效率翻倍提升;借助于GPU可以讓電影的特效騙過你的眼睛。而更多的科學研究領域已經開始大量采購GPU設備應用于電腦輔助工程、油氣勘探、金融安全評估等領域。
至此,GPU存在的意義已遠遠不是為圖形運算服務這么簡單。有人說NVIDIA最大的競爭對手就是過去的自己,這句話聽著像是N次元平行世界的科幻,但筆者深以為然。Fermi時代的大核心因為功耗發熱問題飽受爭議,之后無論是NVIDIA還是AMD都保守的將旗艦核心的面積控制合理范圍,雙芯顯卡在Kepler和GCN時代風光了一把。
而這次GeForce GTX Titan X超大核心的問世無疑是NVIDIA在消費級顯卡領域做出的又一次大膽嘗試。不同的是這次GeForce GTX Titan X在性能猛增的情況下依然保證了良好的用戶體驗。安靜穩定高效能比是半導體發展的主旋律,GeForce GTX Titan X的成功也為了以后超大核心顯卡研發積累了寶貴的經驗,無論是用于游戲還是科研,它的意義在高性能計算領域彪炳史冊。<
關注我們


