Recenzia a testovanie NVIDIA GeForce GTX TITAN X: masaker bábätiek. Prehľad grafického adaptéra NVIDIA TITAN X: veľký Pascal Vzhľad a rozmery

Nvidia Geforce GTX Titan X

Najvýkonnejší jednoprocesorový akcelerátor

  • 2. časť - Praktické zoznámenie

Z dôvodu neskorého prijatia testovacej vzorky nového akcelerátora (a softvéru k nemu), ako aj z dôvodu účasti nášho autora Alexeja Berilla na práci GTC, časti tejto recenzie venované architektúre novej Nvidie produktu a analýza syntetických testov bude zverejnená neskôr (asi o týždeň). A teraz predstavujeme materiál, ktorý čitateľov oboznamuje s funkciami grafickej karty, ako aj s výsledkami herných testov.

zariadenia



Nvidia Geforce GTX Titan X 12288 MB 384-bit GDDR5 PCI-E
ParameterVýznamNominálna hodnota (referenčná)
GPUGeforce GTX Titan X (GM200)
RozhraniePCI Express x16
Pracovná frekvencia GPU (ROP), MHz1000—1075 1000—1075
Frekvencia pamäte (fyzická (efektívna)), MHz1750 (7000) 1750 (7000)
Šírka zbernice výmeny pamäte, bit384
Počet výpočtových jednotiek v GPU / frekvencia blokov, MHz24/1000—1075 24/1000—1075
Počet operácií (ALU) na blok128
Celkový počet operácií (ALU)3072
Počet textúrovacích jednotiek (BLF/TLF/ANIS)192
Počet rasterizačných blokov (ROP)96
Rozmery, mm270 × 100 × 35270 × 100 × 35
Počet slotov v systémovej jednotke obsadených grafickou kartou2 2
Textolitová farbačiernačierna
Spotreba energie (špičková v 3D/v 2D režime/v režime „spánku“), W257/98/14 257/98/14
Úroveň hluku (v 2D režime / v 2D režime (prehrávanie videa) / v maximálnom 3D režime), dBA20/21/29,5
Výstupné konektory1×DVI (Dual-Link/HDMI), 1×HDMI 2.0, 3×DisplayPort 1.2
Podpora pre multiprocessingSLI
Maximálny počet prijímačov/monitorov pre simultánny výstup obrazu4 4
Pomocné napájanie: počet 8-pinových konektorov1 1
Pomocné napájanie: počet 6-pinových konektorov1 1
Maximálne 2D rozlíšenie: DP/HDMI/Dual-Link DVI/Single-Link DVI
Maximálne 3D rozlíšenie: DP/HDMI/Dual-Link DVI/Single-Link DVI3840×2400/3840×2400/2560×1600/1920×1200

Dodávané s lokálnou pamäťou

Karta má 12288 MB GDDR5 SDRAM umiestnenej v 24 4 Gb čipoch (12 na každej strane PCB).

Ako syntetické testy pre DirectX 11 sme použili príklady zo súprav Microsoft a AMD SDK, ako aj demo program Nvidia. Prvým je HDRToneMappingCS11.exe a NBodyGravityCS11.exe z DirectX SDK (február 2010) . Vzali sme tiež aplikácie od oboch výrobcov video čipov: Nvidia a AMD. PodrobnostiTessellation11 a PNTriangles11 boli prevzaté z ATI Radeon SDK (sú tiež v DirectX SDK). Okrem toho bol použitý demo program Nvidia Realistic Water Terrain, tiež známy ako Island11.

Syntetické testy boli vykonané na nasledujúcich grafických kartách:

  • Geforce GTX Titan X GTX Titan X)
  • Geforce GTX Titan Z so štandardnými parametrami (skrátene GTX Titan Z)
  • Geforce GTX 980 so štandardnými parametrami (skrátene GTX 980)
  • Radeon R9 295X2 so štandardnými parametrami (skrátene R9 295X2)
  • Radeon R9 290X so štandardnými parametrami (skrátene R9 290X)

Na analýzu výkonu nového modelu grafickej karty Geforce GTX Titan X boli tieto riešenia zvolené z nasledujúcich dôvodov. Geforce GTX 980 je založený na grafickom procesore rovnakej architektúry Maxwell, ale nižšej úrovne - GM204 a bude pre nás veľmi zaujímavé zhodnotiť, čo dala komplikácia čipu GM200. No, dvojčipová grafická karta Geforce GTX Titan Z bola braná len pre referenciu - ako najproduktívnejšia grafická karta Nvidia založená na dvojici čipov GK110 predchádzajúcej architektúry Kepler.

Od konkurenčnej spoločnosti AMD sme do nášho porovnania vybrali aj dve grafické karty. V princípe sú veľmi odlišné, hoci sú založené na rovnakých GPU Hawaii - majú len iný počet GPU na kartách a líšia sa umiestnením a cenou. Geforce GTX Titan X nemá cenových konkurentov, preto sme zobrali najvýkonnejšiu dvojčipovú grafickú kartu Radeon R9 295X2, aj keď takéto porovnanie by nebolo technicky veľmi zaujímavé. V druhom prípade bola prijatá najrýchlejšia jednočipová grafická karta konkurenta, Radeon R9 290X, hoci bola vydaná príliš dávno a je založená na GPU jednoznačne menšej zložitosti. Ale z riešení AMD jednoducho nie je iná možnosť.

Direct3D 10: PS 4.0 testy shaderov pixelov (textúrovanie, slučkovanie)

Zastarané benchmarky DirectX 9 sme opustili, pretože supervýkonné riešenia ako Geforce GTX Titan X v nich nevykazujú veľmi dobré výsledky, pretože sú vždy obmedzené šírkou pásma pamäte, rýchlosťou plnenia alebo textúrou. Nehovoriac o tom, že dvojčipové grafické karty v takýchto aplikáciách nefungujú vždy správne a máme dve z nich.

Druhá verzia RightMark3D obsahuje dva už známe testy PS 3.0 pod Direct3D 9, ktoré boli prepísané pre DirectX 10, ako aj ďalšie dva nové testy. Prvý pár pridal možnosť povoliť self-shadowing a shader supersampling, čo dodatočne zvyšuje zaťaženie video čipov.

Tieto testy merajú výkon cyklických pixel shaderov s veľkým počtom vzoriek textúr (až niekoľko stoviek vzoriek na pixel v najťažšom režime) a relatívne malým zaťažením ALU. Inými slovami, merajú rýchlosť načítania textúr a efektivitu vetvenia v pixel shaderi.

Prvým testom pixel shaderov bude Fur. Pri najnižšom nastavení používa 15 až 30 vzoriek textúr z výškovej mapy a dve vzorky z hlavnej textúry. Detail efektu - režim "High" zvyšuje počet vzoriek na 40-80, zahrnutie supersamplingu "shader" - až 60-120 vzoriek a režim "High" spolu s SSAA sa vyznačuje maximálnou "závažnosťou" - od 160 do 320 vzoriek z výškovej mapy.

Najprv skontrolujme režimy bez zapnutého supervzorkovania, sú pomerne jednoduché a pomer výsledkov v režime „Nízka“ a „Vysoká“ by mala byť približne rovnaká.

Výkon v tomto teste závisí od počtu a efektívnosti TMU a ovplyvňuje aj efektívnosť vykonávania zložitých programov. A vo verzii bez supervzorkovania má efektívna rýchlosť plnenia a šírka pásma pamäte dodatočný vplyv na výkon. Výsledky pri detailovaní úrovne "Vysoká" sú až jeden a pol krát nižšie ako pri "Nízke".

V úlohách procedurálneho vykresľovania kožušiny s veľkým počtom výberov textúr, s vydaním video čipov založených na architektúre GCN, sa AMD už dávno ujalo vedenia. Práve dosky Radeon sú v týchto porovnaniach dodnes najlepšie, čo naznačuje, že sú pri realizácii týchto programov efektívnejšie. Tento záver potvrdzuje aj dnešné porovnanie – grafickú kartu Nvidia považujeme za stratenú dokonca aj pre zastaranú jednočipovú Radeon R9 290X, nehovoriac o najbližšom cenovom konkurentovi od AMD.

V prvom teste Direct3D 10 sa nová grafická karta modelu Geforce GTX Titan X ukázala byť o niečo rýchlejšia ako jej mladšia sestra založená na čipe rovnakej architektúry v podobe GTX 980, ale tá nie je ďaleko. pozadu - 9-12%. Tento výsledok možno vysvetliť citeľne nižšou rýchlosťou textúrovania GTX 980 a v ostatných parametroch zaostáva, aj keď pointa zjavne nie je vo výkone ALU jednotiek. Dvojčipový Titan Z je rýchlejší, no nie taký rýchly ako Radeon R9 295X2.

Pozrime sa na výsledok toho istého testu, ale so zapnutým „shaderovým“ supervzorkovaním, ktoré zoštvornásobí prácu: v takejto situácii by sa malo niečo zmeniť a šírka pásma pamäte s fillrate bude mať menší vplyv:

V náročných podmienkach nová grafická karta modelu Geforce GTX Titan X už výraznejšie predbieha mladší model rovnakej generácie - GTX 980, pričom je rýchlejšia o slušných 33-39%, čo je oveľa bližšie k teoretickému rozdielu. medzi nimi. A backlog od konkurentov v podobe Radeon R9 295X2 a R9 290X sa zmenšil - novinka od Nvidie takmer dobehla jednočipový Radeon. Ten dvojčipový je však ďaleko vpredu, pretože čipy AMD preferujú výpočty pixel po pixeli a sú v takýchto výpočtoch veľmi silné.

Ďalší test DX10 meria výkon pri vykonávaní komplexných cyklických pixel shaderov s veľkým počtom načítaní textúr a nazýva sa Steep Parallax Mapping. Pri nízkych nastaveniach používa 10 až 50 vzoriek textúr z výškovej mapy a tri vzorky z hlavných textúr. Keď zapnete ťažký režim s vlastným tieňovaním, počet vzoriek sa zdvojnásobí a supervzorkovanie toto číslo zoštvornásobí. Najkomplexnejší testovací režim so supervzorkovaním a vlastným tieňovaním vyberá od 80 do 400 hodnôt textúr, teda osemkrát viac ako jednoduchý režim. Najprv skontrolujeme jednoduché možnosti bez supervzorkovania:

Druhý test Direct3D 10 pixel shader je z praktického hľadiska zaujímavejší, pretože rôzne druhy mapovania paralaxy sú široko používané v hrách a ťažké varianty, ako je mapovanie strmej paralaxy, sa už dlho používajú v mnohých projektoch, napríklad v Crysis, Lost Planet a mnoho ďalších hier. Navyše si v našom teste okrem supersamplingu môžete zapnúť aj self-shadowing, ktorý zvýši záťaž videočipu asi dvojnásobne – tento režim sa nazýva „High“.

Diagram je vo všeobecnosti podobný predchádzajúcemu, tiež bez zahrnutia supervzorkovania a tentoraz sa ukázalo, že nová Geforce GTX Titan X je o niečo bližšie ku GTX Titan Z a nestráca toľko na dvojčipovej doske. na dvojici GPU rodiny Kepler. Novinka má za iných podmienok náskok 14-19% pred predchádzajúcim top modelom súčasnej generácie od Nvidie a aj keď si vezmeme porovnanie s grafickými kartami AMD, niečo sa tu zmenilo - v tomto prípade nová GTX Titan X je o niečo horšie ako Radeon R9 290X. Dvojčipový R9 295X2 je však ďaleko pred všetkými. Pozrime sa, čo zmení zahrnutie supervzorkovania:

Keď je povolené supersampling a self-shadowing, úloha sa stáva zložitejšou, kombinované zahrnutie dvoch možností naraz zvyšuje zaťaženie kariet takmer osemkrát, čo spôsobuje vážny pokles výkonu. Rozdiel medzi ukazovateľmi rýchlosti testovaných grafických kariet sa mierne zmenil, aj keď zahrnutie supervzorkovania má menší účinok ako v predchádzajúcom prípade.

Grafické riešenia AMD Radeon fungujú v tomto teste pixel shaderu D3D10 efektívnejšie ako konkurenčné dosky Geforce, no nový čip GM200 mení situáciu k lepšiemu – doska Geforce GTX Titan X založená na čipe architektúry Maxwell je už pred Radeonom R9 290X vo všetkých podmienkach (avšak na základe výrazne menej komplexného GPU). Lídrom zostáva dvojčipové riešenie založené na dvojici Hawaii, no v porovnaní s inými riešeniami Nvidie nie je novinka zlá. Ukázal rýchlosť takmer na úrovni dvojčipovej Geforce GTX Titan Z a prekonal Geforce GTX 980 o 28-33%.

Direct3D 10: PS 4.0 Pixel Shader Benchmarks (výpočet)

Ďalších pár testov pixel shader obsahuje minimálny počet načítaní textúr, aby sa znížil vplyv výkonu TMU. Používajú veľké množstvo aritmetických operácií a presne merajú matematický výkon video čipov, rýchlosť vykonávania aritmetických pokynov v pixel shaderi.

Prvý test z matematiky je Minerál. Ide o komplexný procedurálny test textúrovania, ktorý používa iba dve vzorky údajov o textúre a 65 inštrukcií sin a cos.

Výsledky limitujúcich matematických testov najčastejšie zodpovedajú rozdielu vo frekvenciách a počte výpočtových jednotiek, ale len približne, keďže výsledky sú ovplyvnené rôznou efektivitou ich využitia v konkrétnych úlohách, a optimalizáciou vodičov a najnovšou frekvenciou resp. systémy správy napájania a dokonca aj dôraz na šírku pásma pamäte. V prípade testu Mineral je nový model Geforce GTX Titan X iba o 10 % rýchlejší ako doska GTX 980 založená na čipe GM204 z rovnakej generácie a dvojčipová GTX Titan Z v tomto teste až taká rýchla nebola. - niečo zjavne bráni otvoreniu dosiek Nvidia.

Porovnanie Geforce GTX Titan X s konkurenčnými základnými doskami od AMD by nebolo až také smutné, ak by si GPU v R9 290X a Titan X boli zložitosťou blízke. Ale GM200 je oveľa väčší ako Havaj a jeho malé víťazstvo je len prirodzené. Upgrade architektúry od Nvidie z Kepler na Maxwell priblížil nové čipy v takýchto testoch bližšie ku konkurenčným riešeniam AMD. Ale aj lacnejšie dvojčipové riešenie Radeon R9 295X2 je citeľne rýchlejšie.

Zoberme si druhý test výpočtov shaderov, ktorý sa nazýva Fire. Pre ALU je ťažší a je v ňom len jeden fetch textúry a počet inštrukcií sin a cos sa zdvojnásobil, až na 130. Pozrime sa, čo sa zmenilo so zvyšujúcou sa záťažou:

V druhom matematickom teste od spoločnosti RigthMark vidíme už navzájom odlišné výsledky pre grafické karty. Takže nová Geforce GTX Titan X je už silnejšia (o 20%) pred GTX 980 na čipe s rovnakou grafickou architektúrou a dvojčipová Geforce je veľmi blízko k novinke - Maxwell si s výpočtovými úlohami oveľa lepšie poradí. lepšie ako Kepler.

Radeon R9 290X zostal pozadu, no ako sme už písali, GPU Hawaii je citeľne jednoduchšie ako GM200 a tento rozdiel je logický. Ale hoci dvojčipový Radeon R9 295X2 je naďalej lídrom v matematických testoch, vo všeobecnosti si nový video čip Nvidia v takýchto úlohách počínal dobre, hoci nedosiahol teoretický rozdiel s GM204.

Direct3D 10: Testy geometrie Shader

V RightMark3D 2.0 sú dva testy rýchlosti shadera geometrie, prvá možnosť sa nazýva "Galaxy", technika je podobná "point sprite" z predchádzajúcich verzií Direct3D. Animuje časticový systém na GPU, geometria shader z každého bodu vytvorí štyri vrcholy, ktoré tvoria časticu. Podobné algoritmy by sa mali široko používať v budúcich hrách DirectX 10.

Zmena vyváženia v testoch geometry shader nemá vplyv na konečný výsledok vykresľovania, výsledný obrázok je vždy úplne rovnaký, menia sa len spôsoby spracovania scény. Parameter „GS load“ určuje, v akom shaderi sa výpočty vykonávajú – vo vrchole alebo geometrii. Počet výpočtov je vždy rovnaký.

Uvažujme o prvej verzii testu „Galaxy“ s výpočtami vo vrcholovom shaderi pre tri úrovne geometrickej zložitosti:

Pomer rýchlostí s rôznou geometrickou zložitosťou scén je u všetkých riešení približne rovnaký, výkon zodpovedá počtu bodov, každým krokom sa prepad FPS blíži k dvojnásobku. Táto úloha je pre výkonné moderné grafické karty veľmi jednoduchá a jej výkon je obmedzený rýchlosťou spracovania geometrie a niekedy aj šírkou pásma pamäte a/alebo rýchlosťou plnenia.

Rozdiel medzi výsledkami grafických kariet založených na čipoch Nvidia a AMD je zvyčajne v prospech riešení kalifornskej spoločnosti a je spôsobený rozdielmi v geometrických potrubiach čipov týchto spoločností. Aj v tomto prípade majú špičkové video čipy Nvidia veľa jednotiek na spracovanie geometrie, takže zisk je zrejmý. V testoch geometrie sú dosky Geforce vždy konkurencieschopnejšie ako Radeon.

Nový model Geforce GTX Titan X mierne zaostáva za dvojčipovou doskou GTX Titan Z na GPU predchádzajúcej generácie, ale prekonáva GTX 980 o 12-25%. Grafické karty Radeon vykazujú výrazne odlišné výsledky, keďže R9 295X2 stojí na dvojici GPU a len ona môže v tomto teste konkurovať novinke, zatiaľ čo Radeon R9 290X bol outsiderom. Pozrime sa, ako sa situácia zmení pri prenose časti výpočtov do geometrie shader:

Keď sa v tomto teste zmenila záťaž, čísla sa mierne zmenili, pre dosky AMD a pre riešenia Nvidia. A na veci to vlastne nič nemení. Grafické karty v tomto teste shaderov geometrie zle reagujú na zmeny parametra záťaže GS, ktorý je zodpovedný za prenos časti výpočtov do shadera geometrie, takže závery zostávajú rovnaké.

Bohužiaľ, "Hyperlight" je druhým testom geometry shaderov, ktorý demonštruje použitie niekoľkých techník naraz: instance, stream output, buffer load, ktorý využíva dynamickú tvorbu geometrie kreslením do dvoch buffrov, ako aj novú funkciu Direct3D 10 - stream výstup na Všetky moderné grafické karty AMD jednoducho nefungujú. V určitom okamihu iná aktualizácia ovládača Catalyst spôsobila, že tento test prestal bežať na doskách Catalyst, a to už niekoľko rokov nebolo opravené.

Direct3D 10: rýchlosť načítania textúr z vertex shaderov

Testy "Vertex Texture Fetch" merajú rýchlosť veľkého počtu načítaní textúr z vertex shaderu. Testy sú vo svojej podstate podobné, takže pomer medzi výsledkami kariet v teste „Zem“ a „Vlny“ by mal byť približne rovnaký. Oba testy využívajú mapovanie posunu založené na vzorkovacích dátach textúr, jediným podstatným rozdielom je, že test „Waves“ využíva podmienené skoky, zatiaľ čo test „Earth“ nie.

Zvážte prvý test „Zem“, najskôr v režime „Nízke detaily efektu“:

Naše predchádzajúce štúdie ukázali, že rýchlosť plnenia aj šírka pásma pamäte môžu ovplyvniť výsledky tohto testu, čo je jasne viditeľné na výsledkoch dosiek Nvidia, najmä v jednoduchých režimoch. Nová grafická karta od spoločnosti Nvidia v tomto teste ukazuje rýchlosť, ktorá je jednoznačne nižšia, ako by mala byť - všetky dosky Geforce sa ukázali byť približne na rovnakej úrovni, čo zjavne nezodpovedá teórii. Vo všetkých režimoch jednoznačne narážajú na niečo ako pamäťovú šírku pásma. Radeon R9 295X2 však nie je ani zďaleka dvakrát rýchlejší ako R9 290X.

Mimochodom, tentoraz sa jednočipová doska AMD ukázala byť silnejšia ako všetky dosky Nvidie v ľahkom režime a približne na ich úrovni v tvrdom režime. No a lídrom nášho porovnania sa opäť stal dvojčipový Radeon R9 295X2. Pozrime sa na výkon v rovnakom teste so zvýšeným počtom načítaní textúr:

Situácia na diagrame sa mierne zmenila, jednočipové riešenie AMD v ťažkých režimoch stratilo podstatne viac dosiek Geforce. Nový model Geforce GTX Titan X ukázal rýchlosť až o 14 % vyššiu ako Geforce GTX 980 a prekonal jednočipový Radeon vo všetkých režimoch okrem najľahšieho – kvôli rovnakému zameraniu na niečo. Ak novinku porovnáme s dvojčipovým riešením AMD, potom Titan X dokázal bojovať v ťažkom režime, pričom ukázal tesný výkon, no v ľahkých režimoch zaostával.

Pozrime sa na výsledky druhého testu načítania textúr z vertex shaderov. Test Waves má menej vzoriek, ale používa podmienené skoky. Počet vzoriek bilineárnej textúry je v tomto prípade až 14 ("Nízke detaily efektu") alebo až 24 ("Vysoké detaily efektu") na vertex. Zložitosť geometrie sa mení podobne ako v predchádzajúcom teste.

Výsledky v druhom teste textúrovania vrcholov "Waves" nie sú nič podobné tomu, čo sme videli v predchádzajúcich diagramoch. Rýchlostný výkon všetkých Geforce v tomto teste sa vážne zhoršil a nový model Nvidia Geforce GTX Titan X ukazuje rýchlosť len o niečo vyššiu ako GTX 980, čím zaostáva za dvojčipovým Titanom Z. V porovnaní s konkurenciou boli obe dosky Radeon schopné aby ste v tomto teste ukázali najlepší výkon vo všetkých režimoch. Zvážte druhú verziu toho istého problému:

So zložitosťou úlohy v druhom teste vzorkovania textúr sa rýchlosť všetkých riešení znížila, ale grafické karty Nvidia utrpeli viac, vrátane posudzovaného modelu. Na záveroch sa takmer nič nemení, nový model Geforce GTX Titan X je až o 10-30% rýchlejší ako GTX 980, zaostáva za dvojčipovým Titanom Z aj za oboma doskami Radeon. Radeon R9 295X2 bol v týchto testoch ďaleko popredu a z pohľadu teórie je to až na nedostatočnú optimalizáciu od Nvidie jednoducho nevysvetliteľné.

3DMark Vantage: Testy funkcií

Syntetické testy z balíka 3DMark Vantage nám ukážu, čo nám predtým chýbalo. Testy funkcií z tohto testovacieho balíka majú podporu DirectX 10, sú stále relevantné a zaujímavé, pretože sa líšia od našich. Pri analýze výsledkov najnovšej grafickej karty Geforce GTX Titan X v tomto balíku vyvodíme niekoľko nových a užitočných záverov, ktoré nám unikli pri testoch z rodinných balíkov RightMark.

Test funkcie 1: Výplň textúry

Prvý test meria výkon jednotiek na načítanie textúr. Používa sa na vyplnenie obdĺžnika hodnotami načítanými z malej textúry pomocou viacerých súradníc textúr, ktoré menia každý snímok.

Účinnosť grafických kariet AMD a Nvidia v teste textúry Futuremark je pomerne vysoká a konečné čísla rôznych modelov sú blízko zodpovedajúcim teoretickým parametrom. Takže rozdiel v rýchlosti medzi GTX Titan X a GTX 980 sa ukázal byť 38% v prospech riešenia založeného na GM200, čo sa blíži teórii, pretože nový produkt má jeden a pol krát viac jednotiek TMU , ale fungujú na nižšej frekvencii. Prirodzene, zaostávanie za dual-GTX Titan Z zostáva, pretože dva GPU majú vyššiu rýchlosť textúrovania.

Pokiaľ ide o porovnanie rýchlosti textúrovania novej špičkovej grafickej karty Nvidia s cenovo podobnými riešeniami konkurenta, tu je novinka horšia ako dvojčipový rival, ktorý je relatívnym susedom v cenovom výklenku, ale je pred ním. Radeon R9 290X, aj keď nie príliš veľa. Napriek tomu sú na tom grafické karty AMD s textúrovaním stále o niečo lepšie.

Test funkcie 2: Farebná výplň

Druhou úlohou je test miery plnenia. Využíva veľmi jednoduchý pixel shader, ktorý neobmedzuje výkon. Interpolovaná hodnota farby sa zapíše do vyrovnávacej pamäte mimo obrazovky (cieľ vykreslenia) pomocou alfa miešania. Používa 16-bitovú vyrovnávaciu pamäť mimo obrazovky FP16, ktorá sa najčastejšie používa v hrách, ktoré používajú vykresľovanie HDR, takže tento test je celkom aktuálny.

Čísla druhého subtestu 3DMark Vantage ukazujú výkon jednotiek ROP bez zohľadnenia veľkosti šírky pásma videopamäte (tzv. „efektívna miera plnenia“) a test meria presne výkon ROP. Doska Geforce GTX Titan X, ktorú dnes recenzujeme, je výrazne pred oboma doskami Nvidia, GTX 980 a dokonca aj GTX Titan Z, čím prekonáva jednočipovú dosku založenú na GM204 až o 45 % – počet ROP a ich účinnosť v špičkovom GPU architektúry Maxwell je vynikajúca!

A ak porovnáme rýchlosť vypĺňania scény novej grafickej karty Geforce GTX Titan X s grafickými kartami AMD, potom doska Nvidia, ktorú zvažujeme v tomto teste, vykazuje najlepšiu rýchlosť vypĺňania scény aj v porovnaní s najvýkonnejším dvojčipovým Radeonom R9. 295X2, nehovoriac o značne zaostávajúcom Radeone R9 290X. Veľké množstvo ROP blokov a optimalizácie pre efektívnosť kompresie dát framebufferu urobili svoje.

Test funkcie 3: Mapovanie paralaxnej oklúzie

Jeden z najzaujímavejších testov funkcií, keďže táto technika sa už používa v hrách. Špeciálnou technikou Parallax Occlusion Mapping, ktorá napodobňuje zložitú geometriu, kreslí jeden štvoruholník (presnejšie dva trojuholníky). Používajú sa pomerne náročné operácie sledovania lúčov a hĺbková mapa s vysokým rozlíšením. Tento povrch je tiež zatienený pomocou ťažkého Straussovho algoritmu. Toto je test veľmi zložitého a ťažkého pixel shaderu pre video čip, ktorý obsahuje početné načítanie textúr počas sledovania lúčov, dynamické vetvenie a zložité výpočty Straussovho osvetlenia.

Tento test z balíka 3DMark Vantage sa od predchádzajúcich líši tým, že výsledky v ňom nezávisia len od rýchlosti matematických výpočtov, efektivity vykonávania vetiev, či rýchlosti načítania textúr, ale od viacerých parametrov súčasne. Na dosiahnutie vysokej rýchlosti v tejto úlohe je dôležité správne vyváženie GPU, ako aj efektivita vykonávania zložitých shaderov.

V tomto prípade je dôležitý matematický aj textúrový výkon a v tejto „syntetike“ od 3DMark Vantage sa nová doska Geforce GTX Titan X ukázala byť o viac ako tretinu rýchlejšia ako model založený na GPU rovnakej architektúry Maxwell. . A dokonca aj dvojčipový Kepler v podobe GTX Titan Z prevalcoval novinku o necelých 10 %.

Jednočipová špičková doska Nvidia v tomto teste jednoznačne prekonala jednočipový Radeon R9 290X, ale obe vážne prekonala dvojčipový Radeon R9 295X2. GPU od AMD sú v tejto úlohe o niečo efektívnejšie ako čipy Nvidia a R9 295X2 má dva z nich.

Test funkcií 4: GPU Cloth

Štvrtý test je zaujímavý, pretože počíta fyzikálne interakcie (imitácia látky) pomocou video čipu. Používa sa simulácia vrcholov s použitím kombinovanej operácie shaderov vrcholov a geometrie s niekoľkými prechodmi. Použite stream out na prenos vrcholov z jedného simulačného prechodu do druhého. Testuje sa teda výkon vykonávania vertexových a geometrických shaderov a rýchlosť prúdenia.

Rýchlosť vykresľovania v tomto teste tiež závisí od niekoľkých parametrov naraz a hlavnými faktormi by mal byť výkon spracovania geometrie a efektivita shaderov geometrie. To znamená, že by sa mali ukázať silné stránky čipov Nvidia, ale bohužiaľ - videli sme veľmi zvláštny výsledok (prekontrolovaný), nová grafická karta Nvidia nevykazovala príliš vysokú rýchlosť, mierne povedané. Geforce GTX Titan X v tomto subteste vykázala najhorší výsledok zo všetkých riešení, zaostala dokonca za GTX 980 takmer o 20 %!

No a rovnako nevkusné je na novinku aj porovnanie s doskami Radeon v tomto teste. Napriek teoreticky menšiemu počtu geometrických exekučných jednotiek a geometrickému výkonnostnému oneskoreniu čipov AMD v porovnaní s konkurenčnými riešeniami fungujú obe dosky Radeon v tomto teste veľmi efektívne a prekonávajú všetky tri v porovnaní prezentované dosky Geforce. Opäť to vyzerá na nedostatočnú optimalizáciu ovládačov Nvidia pre konkrétnu úlohu.

Test funkcie 5: Častice GPU

Test fyzickej simulácie efektov založených na časticových systémoch vypočítaných pomocou video čipu. Používa sa aj simulácia vrcholov, každý vrchol predstavuje jednu časticu. Stream out sa používa na rovnaký účel ako v predchádzajúcom teste. Počíta sa niekoľko stoviek tisíc častíc, všetky sú animované samostatne, počítajú sa aj ich kolízie s výškovou mapou.

Podobne ako v jednom z našich testov RightMark3D 2.0 sa častice kreslia pomocou geometrie shader, ktorý vytvára štyri vrcholy z každého bodu, aby vytvoril časticu. Ale test načítava shader bloky predovšetkým s výpočtami vrcholov, testuje sa aj stream out.

V druhom „geometrickom“ teste od 3DMark Vantage sa situácia poriadne zmenila, tentokrát už všetky Geforce ukazujú viac-menej normálny výsledok, aj keď na čele stále zostáva dvojčipový Radeon. Nový model GTX Titan X je o 24 % rýchlejší ako jeho sesterská GTX 980 a približne v rovnakom čase zaostáva za dual-GPU Titan Z predchádzajúcej generácie GPU.

Porovnanie novinky Nvidie s konkurenčnými grafickými kartami od AMD je tentokrát pozitívnejšie – ukázalo výsledok medzi dvoma doskami konkurenčnej spoločnosti a ukázalo sa, že je bližšie k Radeonu R9 295X2, ktorý má dva GPU. Novinka je ďaleko pred Radeonom R9 290X a to nám jasne ukazuje, ako rozdielne môžu byť dva zdanlivo podobné testy: simulácia látky a simulácia časticového systému.

Test funkcie 6: Perlin Noise

Posledný test funkcií balíka Vantage je matematicky náročný test video čipu, počíta niekoľko oktáv šumového algoritmu Perlin v pixel shaderi. Každý farebný kanál používa svoju vlastnú funkciu šumu na zvýšenie zaťaženia video čipu. Perlinov šum je štandardný algoritmus často používaný v procedurálnom textúrovaní, využíva množstvo matematických výpočtov.

V tomto prípade výkon riešení celkom nezodpovedá teórii, aj keď sa blíži tomu, čo sme videli v podobných testoch. V matematickom teste z balíka Futuremark, ktorý ukazuje špičkový výkon videočipov v limitných úlohách, vidíme iné rozloženie výsledkov v porovnaní s podobnými testami z nášho testovacieho balíka.

Už dávno vieme, že videočipy AMD s architektúrou GCN si stále poradia s takýmito úlohami lepšie ako konkurenčné riešenia, najmä v prípadoch, keď sa vykonáva intenzívna „matematika“. Nový top model Nvidie je však založený na veľkom čipe GM200, a tak si Geforce GTX Titan X v tomto teste počínal výrazne lepšie ako Radeon R9 290X.

Ak porovnáme nový produkt s najlepším modelom rodiny Geforce GTX 900, potom v tomto teste bol rozdiel medzi nimi takmer 40% - samozrejme v prospech grafickej karty, o ktorej dnes uvažujeme. To je tiež blízko k teoretickému rozdielu. Pre Titan X to nie je zlý výsledok, len dvojčipový Radeon R9 295X2 bol vpredu a to ďaleko.

Direct3D 11: Compute Shaders

Na testovanie nedávno vydaného špičkového riešenia Nvidia pre úlohy, ktoré využívajú funkcie DirectX 11, ako je teselácia a výpočtové shadery, sme použili príklady a ukážky SDK od spoločností Microsoft, Nvidia a AMD.

Najprv sa pozrieme na benchmarky, ktoré používajú Compute shadery. Ich vzhľad je jednou z najdôležitejších inovácií v najnovších verziách DX API, používajú sa už v moderných hrách na vykonávanie rôznych úloh: post-processing, simulácie atď. Prvý test ukazuje príklad vykresľovania HDR s mapovaním tónov z DirectX SDK, s post-processingom, ktorý využíva pixelové a výpočtové shadery.

Rýchlosť výpočtu vo výpočtových a pixel shader pre všetky dosky AMD a Nvidia je približne rovnaká, rozdiely boli pozorované iba pre grafické karty založené na GPU predchádzajúcich architektúr. Súdiac podľa našich predchádzajúcich testov, výsledky v probléme často nezávisia ani tak od matematického výkonu a výpočtovej účinnosti, ale od iných faktorov, ako je šírka pásma pamäte.

Nová špičková grafická karta je v tomto prípade rýchlejšia ako jednočipové verzie Geforce GTX 980 a Radeon R9 290X, no zaostáva za dvojčipovou R9 295X2, čo je pochopiteľné, pretože má výkon ako dvojica R9. 290X. Ak novinku porovnáme s Geforce GTX 980, tak dnes zvažovaná základná doska kalifornskej spoločnosti je o 34 – 36 % rýchlejšia – presne podľa teórie.

Druhý test výpočtového shadera je tiež prevzatý z Microsoft DirectX SDK a ukazuje výpočtový problém gravitácie N-tela (N-body), čo je simulácia dynamického časticového systému, ktorý je vystavený fyzikálnym silám, ako je gravitácia.

V tomto teste sa najčastejšie kladie dôraz na rýchlosť vykonávania zložitých matematických výpočtov, spracovanie geometrie a efektivitu vykonávania kódu s vetvením. A v tomto teste DX11 sa ukázalo, že zarovnanie síl medzi riešeniami dvoch rôznych spoločností je úplne odlišné - jasne v prospech grafických kariet Geforce.

Čudné sú však aj výsledky dvojice riešení Nvidia založených na rôznych čipoch – Geforce GTX Titan X a GTX 980 sú si takmer rovné, delí ich len 5% rozdiel vo výkone. Dvojčipové vykresľovanie v tejto úlohe nefunguje, takže súperi (jednočipové a dvojčipové modely Radeon) sú v rýchlosti približne rovnaké. No a GTX Titan X je trikrát pred nimi. Zdá sa, že táto úloha sa počíta oveľa efektívnejšie na GPU architektúry Maxwell, čo sme si všimli skôr.

Direct3D 11: teselačný výkon

Výpočtové shadery sú veľmi dôležité, ale ďalšou významnou novinkou v Direct3D 11 je hardvérová teselácia. Veľmi podrobne sme to zvážili v našom teoretickom článku o Nvidia GF100. Tessellation sa už dlho používa v hrách DX11, ako napríklad STALKER: Call of Pripyat, DiRT 2, Aliens vs Predator, Metro Last Light, Civilization V, Crysis 3, Battlefield 3 a ďalšie. Niektoré z nich využívajú teseláciu na modely postáv, iné na simuláciu realistickej vodnej hladiny alebo krajiny.

Existuje niekoľko rôznych schém na rozdelenie grafických primitív (teselácia). Napríklad teselácia phong, trojuholníky PN, rozdelenie Catmull-Clark. Schéma PN Triangles sa teda používa v STALKER: Call of Pripyat a v Metro 2033 - Phong tessellation. Tieto metódy sa pomerne rýchlo a ľahko implementujú do procesu vývoja hry a existujúcich enginov, a preto sa stali populárnymi.

Prvým testom mozaikovania bude príklad mozaikovania detailov z ATI Radeon SDK. Implementuje nielen teseláciu, ale aj dve rôzne techniky spracovania pixel po pixeli: jednoduché prekrytie normálnych máp a mapovanie paralaxnej oklúzie. Poďme teda porovnať riešenia DX11 od AMD a Nvidie v rôznych podmienkach:

V jednoduchom bumpmappingovom teste nie je rýchlosť dosiek veľmi dôležitá, pretože táto úloha sa na dlhú dobu stala príliš jednoduchou a výkon v nej závisí od šírky pásma pamäte alebo rýchlosti plnenia. Dnešný hrdina recenzie je o 23% pred predchádzajúcim špičkovým modelom Geforce GTX 980 založený na čipe GM204 a je o niečo nižší ako jeho konkurent v podobe Radeonu R9 290X. Dvojčipová verzia je ešte o niečo rýchlejšia.

V druhom subteste so zložitejšími výpočtami pixel-by-pixel je novinka už o 34 % rýchlejšia ako Geforce GTX 980, čím sa viac približuje teoretickému rozdielu medzi nimi. Titan X je však tentoraz už o niečo rýchlejší ako jednočipový podmienený konkurent založený na jedinom Havaji. Keďže dva čipy v Radeone R9 295X2 fungujú perfektne, táto úloha je na ňom dokončená ešte rýchlejšie. Aj keď je výkon matematických výpočtov v pixel shaderoch vyšší pre čipy architektúry GCN, vydanie riešení architektúry Maxwell zlepšilo pozície riešení Nvidia.

V subteste ľahkej teselácie je nedávno oznámená doska Nvidia opäť len o štvrtinu rýchlejšia ako Geforce GTX 980 – rýchlosť je možno obmedzená šírkou pásma pamäte, keďže textúrovanie v tomto teste nemá takmer žiadny vplyv. Ak v tomto subteste porovnáme novinku s doskami AMD, tak doska Nvidia je opäť na nižšej úrovni ako oba Radeony, keďže v tomto teselačnom teste je delenie trojuholníkov veľmi mierne a geometrický výkon neobmedzuje celkovú rýchlosť vykresľovania.

Druhý test výkonu teselácie bude ďalším príkladom pre 3D vývojárov z ATI Radeon SDK - PN Triangles. V skutočnosti sú oba príklady zahrnuté aj v DX SDK, takže sme si istí, že vývojári hier si na nich vytvoria vlastný kód. Tento príklad sme testovali s iným faktorom teselácie, aby sme zistili, ako veľmi to ovplyvňuje celkový výkon.

V tomto teste je použitá zložitejšia geometria, preto porovnanie geometrickej mohutnosti rôznych riešení prináša rôzne závery. Moderné riešenia prezentované v materiáli sa celkom dobre vyrovnávajú s ľahkým a stredným geometrickým zaťažením a vykazujú vysokú rýchlosť. Ale zatiaľ čo jeden a dva GPU na Havaji v Radeon R9 290X a R9 295X2 fungujú dobre v svetelných podmienkach, dosky Nvidia sú na vrchole v ťažkých podmienkach. V najťažších režimoch teda dnes predstavená Geforce GTX Titan X ukazuje rýchlosť už citeľne lepšie ako dvojčipový Radeon.

Pokiaľ ide o porovnanie dosiek Nvidia založených na čipoch GM200 a GM204, uvažovaný model Geforce GTX Titan X dnes zvyšuje svoju výhodu zvýšením geometrického zaťaženia, pretože v režime light všetko závisí od šírky pásma pamäte. Vďaka tomu je novinka pred doskou Geforce GTX 980 v závislosti od zložitosti režimu až o 31 %.

Poďme sa pozrieť na výsledky ďalšieho testu, demo programu Nvidia Realistic Water Terrain, známeho aj ako Island. Toto demo využíva mozaikovanie a mapovanie posunov na vykreslenie realisticky vyzerajúceho povrchu oceánu a terénu.

Island test nie je čisto syntetickým testom na meranie čisto geometrického výkonu GPU, keďže obsahuje komplexné pixelové aj výpočtové shadery a takáto záťaž sa približuje skutočným hrám, ktoré využívajú všetky GPU jednotky, a nie len geometrické, ako v predošlých skúšky geometrie. Hoci zaťaženie jednotiek na spracovanie geometrie stále zostáva hlavnou, môže to ovplyvniť napríklad aj rovnaká šírka pásma pamäte.

Všetky grafické karty testujeme pri štyroch rôznych faktoroch mozaikovania – v tomto prípade sa nastavenie nazýva Dynamic Tessellation LOD. S prvým faktorom rozdelenia trojuholníka nie je rýchlosť obmedzená výkonom geometrických blokov a grafické karty Radeon vykazujú pomerne vysoký výsledok, najmä dvojčipová R9 295X2, ktorá dokonca prekonáva výsledok ohlásenej dosky Geforce GTX Titan X , no už pri ďalších úrovniach geometrického zaťaženia výkon kariet Radeon klesá a vedúcu úlohu preberajú riešenia Nvidia.

Výhoda novej dosky Nvidia založenej na videočipe GM200 oproti svojim súperom v takýchto testoch je už celkom slušná, ba dokonca niekoľkonásobná. Ak porovnáme Geforce GTX Titan X s GTX 980, tak rozdiel medzi ich výkonom dosahuje 37-42%, čo je perfektne vysvetlené teóriou a presne tomu zodpovedá. Grafické procesory Maxwell sú výrazne efektívnejšie pri zmiešanom pracovnom zaťažení, rýchlo prepínajú z grafiky na prácu s počítačom a späť a Titan X je v tomto teste oveľa rýchlejší ako dokonca dvojčipový Radeon R9 295X2.

Po analýze výsledkov syntetických testov novej grafickej karty Nvidia Geforce GTX Titan X založenej na novom špičkovom GPU GM200, ako aj po zvážení výsledkov iných modelov grafických kariet od oboch výrobcov diskrétnych video čipov, môžeme konštatovať, že grafická karta, o ktorej dnes uvažujeme, by mala byť najrýchlejšia na trhu a konkurovať najsilnejšej dvojčipovej grafickej karte od AMD. Vo všeobecnosti je to dobrý nasledovník Geforce GTX Titan Black - výkonný jednočip.

Nová grafická karta od Nvidie vykazuje dosť silné výsledky v syntetike – v mnohých testoch, aj keď nie vo všetkých. Radeon a Geforce majú tradične rozdielne silné stránky. Vo veľkom počte testov boli dva GPU v modeli Radeon R9 295X2 rýchlejšie, a to aj vďaka vyššej celkovej šírke pásma pamäte a rýchlosti textúrovania s veľmi efektívnym vykonávaním výpočtových úloh. Ale v iných prípadoch opäť víťazí špičkový grafický procesor architektúry Maxwell, najmä v geometrických testoch a príkladoch teselácie.

V skutočných herných aplikáciách však bude všetko akosi inak, oproti „syntetike“ by mala Geforce GTX Titan X vykazovať rýchlosť výrazne vyššiu, než je úroveň jednočipovej Geforce GTX 980 a ešte viac Radeonu R9 290X. A je ťažké porovnávať novinku s dvojčipovým Radeonom R9 295X2 - systémy založené na dvoch alebo viacerých GPU majú svoje nepríjemné vlastnosti, hoci poskytujú zvýšenie priemernej snímkovej frekvencie pri správnej optimalizácii.

Ale architektonické prvky a funkčnosť sú jednoznačne v prospech prémiového riešenia Nvidie. Geforce GTX Titan X spotrebuje oveľa menej energie ako rovnaký Radeon R9 295X2 a z hľadiska energetickej účinnosti je nový model Nvidia veľmi silný - to je charakteristický rys architektúry Maxwell. Netreba zabúdať ani na väčšiu funkcionalitu nového produktu od Nvidie: je tu podpora pre Feature Level 12.1 v DirectX 12, hardvérová akcelerácia VXGI, nová metóda anti-aliasingu MFAA a ďalšie technológie. O trhovom pohľade sme hovorili už v prvej časti – v elitnom segmente až tak nezáleží na cene. Hlavná vec je, že riešenie by malo byť maximálne funkčné a produktívne v herných aplikáciách. Jednoducho povedané, bolo to najlepšie vo všetkom.

Len aby sme zhodnotili rýchlosť novinky v hrách, v ďalšej časti nášho materiálu určíme výkon Geforce GTX Titan X v našom súbore herných projektov a porovnáme ho s výkonom konkurentov vrátane vyhodnotenia opodstatnenosti. maloobchodnej ceny novinky z pohľadu nadšencov a tiež zistiť, o koľko rýchlejšia je Geforce GTX 980 už v hrách.

Monitor Asus ProArt PA249Q k pracovnému počítaču poskytnutý spoločnosťou Asustek Klávesnica Cougar 700K k pracovnému počítaču poskytnutá firmou Puma

Vzhľadu veľkého GPU založeného na architektúre Maxwell sa nedalo vyhnúť, otázkou je len kedy a v akej podobe. Vo výsledku bol opodstatnený predpoklad, že GM200 zopakuje cestu svojho kolegu z rodiny Keplerov, GK110, debutujúceho v rámci akcelerátora pod značkou TITAN.

NVIDIA GeForce GTX TITAN X

Na testovanie novej grafickej karty bolo tentokrát veľmi málo času, takže recenzia bude komprimovaná. Zahodíme zbytočné argumenty, poďme rovno k veci. Architektúra Maxwell sa v porovnaní s Keplerom vyznačuje zjednodušenou a optimalizovanou štruktúrou streamovacích multiprocesorov (SMM), ktorá umožnila radikálne zmenšiť oblasť SMM pri zachovaní 90% doterajšieho výkonu. Okrem toho GM200 patrí do druhej iterácie architektúry Maxwell, podobne ako predtým vydané čipy GM204 (GeForce GTX 970/980) a GM206 (GeForce GTX 960). Výsledkom je, že má produktívnejší geometrický engine PolyMorph Engine verzie 3.0 a podporuje niektoré výpočtové funkcie na hardvérovej úrovni, ktoré budú pravdepodobne zahrnuté v novej úrovni funkcií Direct3D 12 a sú tiež potrebné pre hardvérovú akceleráciu globálneho VXGI od NVIDIA. osvetľovacej techniky. Pre podrobnejší popis architektúry Maxwell prvej a druhej generácie odkazujeme čitateľov na recenzie GeForce GTX 750 Ti a GeForce GTX 980.

Bloková schéma GPU NVIDIA GM200

Kvalitatívne sa GPU GM200 a GPU nižšej triedy v rade navzájom nelíšia, okrem toho, že iba GM206 má vyhradenú jednotku na dekódovanie videa H.265 (HEVC). Rozdiely sú čisto kvantitatívne. GM200 obsahuje nebývalý počet tranzistorov – 8 miliárd, takže výpočtových jednotiek je v ňom jeden a pol až dvakrát viac ako v GM204 (podľa toho, ktoré treba počítať). Okrem toho sa do prevádzky vrátila 384-bitová pamäťová zbernica. V porovnaní s čipom GK110 nie je nová vlajková loď GPU tak odstrašujúco výkonná, ale napríklad počet ROP je tu dvojnásobný, vďaka čomu je GM200 dokonale pripravený na rozlíšenie 4K.

Pokiaľ ide o podporu výpočtov s dvojitou presnosťou, GM200 sa nelíši od GM204. Každý SMX obsahuje iba štyri jadrá CUDA kompatibilné s FP64, takže kombinovaný výkon pri tejto záťaži je 1/32 FP32.

⇡ Špecifikácie, cena

TITAN X využíva najvýkonnejšiu verziu jadra GM200 s kompletnou sadou aktívnych výpočtových jednotiek. Základná frekvencia GPU je 1000 MHz, Boost Clock je 1076 MHz. Pamäť pracuje na štandardnej frekvencii pre produkty založené na Maxwell 7012 MHz. Objem je však na herné grafické karty nevídaný – 12 GB (a TITAN X je predovšetkým herná grafická karta, aspoň kým sa GM200 neobjavila v hlavnom, „číslovanom“ rade GeForce).

Odporúčané maloobchodné ceny pre TITAN X boli oznámené v posledných hodinách pred zverejnením recenzie. Pre americký trh je cena stanovená na 999 dolárov – teda rovnako ako prvý TITAN na báze GK110.

Poznámka: ceny v tabuľke pre GeForce GTX 780 Ti a TITAN Black sú v čase ukončenia ich predaja.

Model

GPU

video pamäť

TDP, W

RRP* pre americký trh (bez daní), $

kódové meno

Počet tranzistorov, milión

Frekvencia hodín, MHz: Základné hodiny / Boost Clock

Počet jadier CUDA

Počet jednotiek textúry

Šírka autobusu, bit

Typ čipu

Frekvencia hodín: skutočná (efektívna), MHz

Objem, MB

GeForce GTX 780 Ti

GeForce GTX TITAN Black

GeForce GTX 980

GeForce GTX TITAN X

⇡ Stavba

Od úplne prvého „Titanu“ používa NVIDIA rovnaký chladiaci systém v špičkových grafických kartách s určitými obmenami. TITAN X vyniká medzi svojimi predchodcami iba absolútne čiernym telom (len dve vložky na bokoch zostali nenalakované).

NVIDIA GeForce GTX TITAN X

Zadná doska, ktorou bola experimentálne vybavená GeForce GTX 980, v TITAN X opäť absentuje, a to aj napriek tomu, že časť pamäťových čipov je prispájkovaná na zadnej strane dosky. Aj keď čipy GDDR5 vo všeobecnosti nevyžadujú dodatočné chladenie.

Pohľad zozadu na NVIDIA GeForce GTX TITAN X

Ale vrátil sa chladič s parnou komorou, ktorý bol v GTX 980 nahradený jednoduchšou možnosťou.

NVIDIA GeForce GTX TITAN X, chladiaci systém

NVIDIA GeForce GTX TITAN X, chladiaci systém

NVIDIA GeForce GTX TITAN X, chladiaci systém

Grafická karta má tri konektory DisplayPort a po jednom – HDMI a Dual-Link DVI-I.

⇡ Poplatok

Dizajn dosky plošných spojov, ktorý nie je prekvapivý, evokuje asociácie so sériou video adaptérov založených na čipe GK110. Menič napätia je zostavený podľa schémy 6 + 2 (počet fáz na napájanie GPU a pamäťových čipov). Napájanie je dodávané cez jeden 8-pinový a jeden 6-pinový konektor. Prvýkrát tu ale vidíme regulátor výkonu GPU ON Semiconductor NCP81174.

Po oboch stranách dosky je umiestnených 24 pamäťových čipov SK hynix H5GQ4H24MFR-R2C s nominálnou frekvenciou 7 GHz.

NVIDIA GeForce GTX TITAN X, doska plošných spojov, predná strana

NVIDIA GeForce GTX TITAN X, doska plošných spojov, zadná strana

Testovací stojan, metodika testovania

Technológie CPU šetriace energiu sú vo všetkých testoch zakázané. V nastaveniach ovládača NVIDIA je CPU vybraný ako procesor pre výpočet PhysX. V ovládačoch AMD je nastavenie Tesselation presunuté z AMD Optimized do Use application settings.

Referenčné hodnoty: syntetické
Program nastavenie Povolenie
3D Mark 2011 Extrémny test - -
3DMark Test Fire Strike (nie extrémny) - -
Unigine Heaven 4 DirectX 11 max. kvalita, teselácia v režime Extreme AF 16x, MSAA 4x 1920×1080 / 2560×1440
Benchmarky: hry
Program nastavenie Anizotropné filtrovanie, anti-aliasing na celej obrazovke Povolenie
Far Cry 3 + FRAPS DirectX 11 max. kvalita, HDAO. Začiatok misie Secure the Outpost AF, MSAA 4x 2560×1440/3840×2160
Vykrádač hrobov. Vstavaný benchmark Max. kvalitu AF 16x, SSAA 4x 2560×1440/3840×2160
Bioshock Infinite. Vstavaný benchmark Max. kvalitu. Následné spracovanie: normálne AF 16x, FXAA 2560×1440/3840×2160
Crysis 3 + FRAPS Max. kvalitu. Začiatok misie Post Human AF 16x, MSAA 4x 2560×1440/3840×2160
Metro posledné svetlo. Vstavaný benchmark Max. kvalitu AF 16x, SSAA 4x 2560×1440/3840×2160
Company of Heroes 2. Vstavaný benchmark Max. kvalitu AF, SSAA 4x 2560×1440/3840×2160
Battlefield 4 + FRAPS Max. kvalitu. Začiatok misie Tashgar AF 16x, MSAA 4x + FXAA 2560×1440/3840×2160
Zlodej. Vstavaný benchmark Max. kvalitu AF 16x, SSAA 4x + FXAA 2560×1440/3840×2160
Mimozemšťan: Izolácia Max. kvalitu AF 16x, SMAA T2X 2560×1440/3840×2160

Účastníci testu

Nasledujúce grafické karty sa zúčastnili testovania výkonu:

  • NVIDIA GeForce GTX TITAN X (1000/7012 MHz, 12 GB);

⇡ Rýchlosť hodín, spotreba energie, teplota, pretaktovanie

GM110 beží na základnej frekvencii, ktorú GK110 nikdy nedosiahol vo svojich referenčných špecifikáciách. Navyše, GPU Boost pôsobí veľmi agresívne a zdvihne frekvenciu až na 1177 MHz. Procesor sa zároveň uspokojí s napätím 1,174 V, ktoré je v porovnaní so špičkovými produktmi na báze GK110 nižšie.

Nastavenia BIOSu umožňujú zvýšiť limit napájania na 110 % a pridať 83 mV k maximálnemu napätiu na GPU. V skutočnosti sa napätie zvýši iba na 1,23 V, ale súčasne sa otvorí niekoľko ďalších frekvenčných krokov / VID: rozdiel medzi základnou frekvenciou a maximálnou frekvenciou zaznamenanou v reproduktore sa zvýši na 203 MHz.

Pretaktovanie grafickej karty umožnilo dosiahnuť základnú frekvenciu 1252 MHz a v dynamike boli pozorované frekvencie až do 1455 MHz. Video pamäť dokázala pridať 1,2 GHz, úspešne pracovala na efektívnej frekvencii 8212 MHz.

Základné hodiny, MHz Max. Boost Clock, MHz Základné hodiny, MHz (pretaktovanie) Max. registrované Boost Clock, MHz (pretaktovanie)
GeForce GTX TITAN X 1000 1177 (+177) 1252 1455 (+203)
GeForce GTX 980 1127 1253 (+126) 1387 1526 (+139)
GeForce GTX TITAN Black 889 1032 (+143) 1100 1262 (+162)
GeForce GTX TITAN 836 1006 (+145) 966 1150 (+184)
GeForce GTX 780 Ti 876 1020 (+144) 986 1130 (+144)
GeForce GTX 780 863 1006 (+143) 1053 1215 (+162)
GeForce GTX 770 1046 1176 (+130) 1190 1333 (+143)

Spotrebou energie sa TITAN X približuje GTX 780 Ti a ďaleko prevyšuje GTX 980. Na rozdiel od očakávaní nie je v Crysis 3 medzi TITAN X a Radeon R9 290X výrazný rozdiel, no vo FurMarku R9 290X (ako R9 280X) viac sa zahrieva a citeľne prekonáva TITAN x.

Pretaktovanie TITAN X zvyšuje výkon o 5-25 wattov v závislosti od toho, či sa spoliehate na výsledky toho ktorého testu - FurMark alebo Crysis 3.

Maximálna teplota, ktorá je povolená pre GPU je určená nastavením BIOSu, takže TITAN X neprekročí nastavených 83 ° C. Zároveň sa turbína chladiaceho systému roztáča na 49 % maximálnych otáčok – až 2339 ot./min. Na prvý pohľad je to dosť veľa, no v skutočnosti je hluk z chladiča celkom prijateľný.

⇡ Výkon: syntetické referenčné hodnoty

  • TITAN X zaujme už pri prvom teste. Grafická karta je v porovnaní s GTX 780 Ti a Radeon R9 290X jedenapolkrát rýchlejšia.
  • S Radeon R9 280X a GeForce GTX 770 - adaptérmi založenými na kedysi špičkových GPU - je rozdiel viac ako dvojnásobný.

  • Všetko vyššie uvedené platí aj pre 3DMark 2013.

Unigine Heaven 4

  • TITAN X si udržiava náskok približne 50 % pred GTX 780 Ti a Radeon R9 290X vo WQHD rozlíšení. Mimochodom, na rozdiel od 3DMark nie je GTX 980 v tomto teste o nič lepšia ako GTX 780 Ti.
  • V rozlíšení Ultra HD predchádzajúce grafické adaptéry zaplnili medzeru a napriek tomu je TITAN X hlavou a ramenami nad všetkými súpermi.

⇡ Výkon: hry

Tentoraz sa odkloníme od štandardnej formy opisu herných testov. Je úplne zbytočné maľovať pre každú hru, ktorá grafická karta je rýchlejšia, v prípade TITAN X. Vo všetkých hrách je nový „Titan“ pred svojimi súpermi o kolosálny rozdiel. Kvantitatívne ukazovatele majú tendenciu formulovať: TITAN X je o 30 – 50 % rýchlejší ako GeForce GTX 780 Ti a Radeon R9 290X a často dvakrát rýchlejší v porovnaní s Radeonom R9 280X a GeForce GTX 770. Jedinou intrikou je hľadať výkyvy v rámci táto chodba na tej alebo druhej strane. Navyše je tu unikátny prípad: TITAN X sa teší snímkovej frekvencii 24 FPS vo Far Cry 4 pri rozlíšení Ultra HD a MSAA 4x, zatiaľ čo súperi sa nevedia dostať z diery 5-7 FPS (a GeForce GTX 770 resp. ešte menej). Tu zrejme Titan potreboval 12 GB pamäte a ani 4 GB, ktorými je vybavený Radeon R9 290X, na takéto nastavenia vo FC4 nestačia.

vykrádač hrobov

Bioshock Infinite

Crysis 3

⇡ Výkon: Výpočtová technika

Dekódovanie videa (DXVA Checker, Decode Benchmark)

  • Vyhradený dekodér H.264 v GM200 je rovnaký ako v iných čipoch z rodiny Maxwell. Jeho výkon je viac než dostatočný na prehrávanie videí s rozlíšením až Ultra HD a snímkovou frekvenciou 60 Hz a viac.
  • Spomedzi diskrétnych grafických adaptérov AMD sa tým môže pochváliť iba Radeon R9 285. GeForce GTX 780 Ti je schopná dodať až 35 FPS v rozlíšení 3840 × 2160.
  • CPU so 6-8 x86 jadrami sú vhodnejšie na rýchle dekódovanie pre konverziu videa, ale pevný funkčný blok túto prácu vykonáva s menšou spotrebou energie a nakoniec je jednoducho daný výkonným GPU.

  • Jediným GPU s plným hardvérovým dekódovaním H.265 je GM206 v GeForce GTX 960. Ďalší predstavitelia architektúry Maxwell, ako aj Kepler, vykonávajú niektoré operácie na potrubí dekodéra H.264. Zvyšok pripadá na centrálny procesor.
  • Výkon všetkých týchto adaptérov s dobrým CPU stačí na prehrávanie videa v akomkoľvek rozumnom rozlíšení a snímkovej frekvencii. Pre rýchlu prácu je vhodnejšia GTX 960 alebo výkonný CPU.

Luxmark: Izba (komplexný benchmark)

  • Architektúra Maxwell ukazuje v tejto úlohe prekvapivé zvýšenie výkonu oproti Kepleru, vďaka čomu je TITAN X dvojnásobným skromnejším výsledkom než GeForce GTX 780 Ti a prekonáva Radeon R9 290X. To však neznamená, že výsledky LuxMark reprezentujú akúkoľvek úlohu sledovania lúčov.
  • Rozdiel medzi TITAN X a GeForce GTX 980 nie je taký obrovský ako v herných testoch.

Sony Vegas Pro 13

  • Grafické adaptéry AMD naďalej vedú vo vykresľovaní videa. A TITAN X nevyčnieva v skupine najproduktívnejších zariadení NVIDIA.

CompuBench CL: Simulácia oceánskych povrchov

  • TITAN X odoberá dlaň Radeonu R9 290X a kompenzuje výpadok GeForce GTX 980, ktorý je v tomto teste prekvapivo ťažký.

CompuBench CL: Simulácia častíc

  • Tu naopak GTX 980 urobila oproti GTX 780 Ti veľký krok vpred a TITAN X na úspech nadviazal. Radeon R9 290X sa nevyrovná vlajkovej lodi NVIDIA.

SiSoftware Sandra 2015: Vedecká analýza

  • Pokiaľ ide o dvojitú presnosť (FP64), akcelerátory AMD sú stále bezkonkurenčné a dokonca aj Radeon R9 280X založený na zďaleka nie novom GPU môže prekonať TITAN X.
  • Medzi „zelenými“ TITAN X predvídateľne vedie vo výkone v FP64, najmä v porovnaní s úprimne slabou GTX 980.
  • Vo výpočtovej technike FP32 sa TITAN X výrazne odlišuje od všetkých grafických kariet NVIDIA. Len ten poskytuje úroveň výkonu porovnateľnú s Radeonom R9 290X.

⇡ Závery

Vzhľadom na to, že výroba diskrétnych GPU je stále v rámci 28nm procesu, výsledky GeForce GTX TITAN X vyzerajú fantasticky. Pri rovnakom TDP ako grafické adaptéry založené na GK110 dosahuje TITAN X 130 – 150 % výkonu akcelerátorov, ako sú GTX 780 Ti a Radeon R9 290X. Ak si zoberieme prvé 28nm GPU - GK104 (GTX 680, GTX 770) a Radeon R9 280X, tak TITAN X ich častokrát prekonáva dvojnásobne.

TITAN X, rovnako ako jeho predchodcovia na tejto pozícii, je extrémne drahý na jednu grafickú kartu GPU. Umiestnenie sa oproti predchádzajúcim Titanom nezmenilo. Po prvé, toto je alternatíva k SLI konfiguráciám dvoch samostatných GeForce GTX 980: hoci potenciálny výkon tandemu je vyšší, jeden GPU má predvídateľnejší výkon. Po druhé, kompaktné počítače, v ktorých nie je miesto pre dve grafické karty. A nakoniec negrafické výpočty (GP-GPU). Aj keď je výkon FP64 v GM200 obmedzený na 1/32 výkonu FP32, TITAN X toto obmedzenie čiastočne kompenzuje hrubou silou GPU. Okrem toho dominuje výpočtová technika FP32 "prosumer" záťaž (rovnaký Ray Tracing, zrýchlené vykresľovanie videa) a v tejto disciplíne je na tom GM200 minimálne tak dobre ako najlepšie produkty AMD a často prekonáva to isté ako v herných testoch.

Predstavujeme základný podrobný materiál so štúdiou Nvidia Geforce GTX Titan X.

Predmet štúdia: 3D grafický akcelerátor (grafická karta) Nvidia Geforce GTX Titan X 12288 MB 384-bit GDDR5 PCI-E

Podrobnosti vývojára: Nvidia Corporation (ochranná známka Nvidia) bola založená v roku 1993 v Spojených štátoch. Ústredie v Santa Clara (Kalifornia). Vyvíja grafické procesory, technológie. Do roku 1999 bola hlavnou značkou Riva (Riva 128/TNT/TNT2), od roku 1999 do súčasnosti - Geforce. V roku 2000 boli získané aktíva 3dfx Interactive, po čom boli ochranné známky 3dfx / Voodoo prevedené na Nvidiu. Neexistuje žiadna výroba. Celkový počet zamestnancov (vrátane regionálnych úradov) je asi 5000 ľudí.

Časť 1: Teória a architektúra

Ako už viete, v polovici minulého mesiaca Nvidia vydala novú špičkovú grafickú kartu s názvom Geforce GTX Titan X, ktorá sa stala najvýkonnejšou na trhu. Okamžite sme zverejnili podrobnú recenziu tejto novinky, ktorá však obsahovala iba praktické štúdie, bez teoretickej časti a syntetických testov. Stalo sa to v dôsledku rôznych okolností, vrátane tých, ktoré sme nemohli ovplyvniť. Dnes ale túto závadu naprávame a na marcovú novinku sa pozrieme bližšie – za mesiac sa nestalo nič, čo by stratilo na aktuálnosti.

V roku 2013 Nvidia vydala prvé riešenie novej značky grafických kariet Geforce GTX Titan, pomenované po superpočítači v Oak Ridge National Laboratory. Prvý model z nového radu stanovil nové rekordy v oblasti výkonu aj ceny, pričom odporúčaná cena pre americký trh je 999 USD. Išlo o prvú špičkovú grafickú kartu série Titan, ktorá potom pokračovala nie príliš populárnym dvojčipovým Titanom Z a zrýchleným Titan Black, ktorý dostal plne odomknutý GPU GK110 revízie B.

A teraz, na jar 2015, je čas na ďalšiu novinku Nvidie z „titánovej“ prémiovej série. GTX Titan X bol prvýkrát predstavený prezidentom spoločnosti Jensenom Huangom na konferencii herných vývojárov GDC 2015 na podujatí Epic Unreal Engine. V skutočnosti sa táto grafická karta aj tak neviditeľne zúčastnila na prehliadke, bola nainštalovaná v mnohých demo stojanoch, ale Jensen ju oficiálne predstavil.

Pred vydaním Geforce GTX Titan X bola najrýchlejšia jednočipová grafická karta Geforce GTX 980, založená na čipe GM204 rovnakej grafickej architektúry Maxwell, predstavená vlani v septembri. Tento model je veľmi energeticky účinný, poskytuje slušný výpočtový výkon pri spotrebe iba 165 W – to znamená, že je dvakrát energeticky úspornejší ako predchádzajúca generácia Geforce.

GPU Maxwell zároveň podporujú pripravovaný DirectX 12 (vrátane Feature Level 12.1) a ďalšie najnovšie grafické technológie od spoločnosti: Nvidia Voxel Global Illumination (VXGI, písali sme o tom v článku GTX 980), nový Multi-Frame vzorkovaná metóda antialiasingu AA (MFAA), Dynamic Super Resolution (DSR) a ďalšie.Kombinácia výkonu, energetickej účinnosti a funkcií spravila z čipu GM204 najlepší pokročilý grafický procesor v čase jeho vydania.

Všetko sa však raz zmení a GPU s 2048 jadrami a 128 textúrovými jednotkami nahradilo nové GPU založené na rovnakej architektúre Maxwell druhej generácie (prvú si pamätáme z čipu GM107, na ktorom je grafická karta Geforce GTX 750 Ti založené) a tie isté schopnosti, ale s 3072 jadrami CUDA a 192 textúrovými jednotkami – to všetko už bolo zabalené do 8 miliárd tranzistorov. Najvýkonnejším riešením sa samozrejme okamžite stala Geforce GTX Titan X.

Špičkový čip Maxwell druhej generácie, ktorý dnes poznáme pod kódovým označením GM200, bol totiž v Nvidii pripravený už nejaký čas pred jeho ohlásením. Nemalo zmysel vydať ďalšiu špičkovú grafickú kartu, keď dokonca aj Geforce GTX 980 založená na GM204 odviedla skvelú prácu ako najrýchlejšia jednočipová grafická karta na svete. Nvidia nejaký čas čakala na výkonnejšie riešenie od AMD založené na GPU, vyrábané na rovnakej 28 nm procesnej technológii, no nedočkala sa.

Je pravdepodobné, že produkt by bez skutočnej konkurencie vôbec nekysol, napriek tomu sa ho rozhodli vydať, čím si zabezpečili titul spoločnosti, ktorá vyrába najvýkonnejšie GPU. A skutočne, nemalo zmysel čakať na rozhodnutie súpera, pretože bolo odložené minimálne do júna – čakať tak dlho je jednoducho nerentabilné. V takom prípade môžete vždy vydať ešte výkonnejšiu grafickú kartu založenú na rovnakom GPU, ale pracujúcej na vyššej frekvencii.

Prečo však v ére multiplatformových hier s pomerne priemernými požiadavkami na výkon GPU potrebujeme také výkonné riešenia? Po prvé, prvé herné aplikácie využívajúce možnosti DirectX 12, aj keď sú multiplatformové, by sa mali objaviť už čoskoro – veď PC verzie takýchto aplikácií takmer vždy ponúkajú lepšiu grafiku, dodatočné efekty a vyššie rozlíšenie textúr. Po druhé, už boli vydané hry DirectX 11, ktoré dokážu využívať všetky možnosti najvýkonnejších GPU – ako Grand Theft Auto V, o ktorom sa budeme podrobnejšie zaoberať nižšie.

Je dôležité, že grafické riešenia Maxwell od Nvidie plne podporujú takzvanú úroveň funkcií 12.1 z DirectX 12 – najvyššiu v súčasnosti známu. Nvidia už dlhšiu dobu poskytuje vývojárom hier ovládače pre nadchádzajúcu verziu DirectX a teraz sú dostupné aj pre používateľov, ktorí si nainštalovali Microsoft Windows 10 Technical Preview. Niet divu, že to boli grafické karty Geforce GTX Titan X, ktoré boli použité na demonštráciu schopností DirectX 12 na Game Developers Conference, kde bol model prvýkrát predstavený.

Keďže uvažovaný model grafickej karty Nvidia je založený na špičkovej GPU druhej generácie architektúry Maxwell, ktorú sme už preskúmali a ktorá je v detailoch podobná predchádzajúcej architektúre Kepler, je užitočné zoznámiť sa s predchádzajúcimi článkami. o grafických kartách spoločnosti pred prečítaním tohto materiálu. Nvidia:

  • Nvidia Geforce GTX 970 - Dobrá náhrada za GTX 770
  • Nvidia Geforce GTX 980 – nasledovník Geforce GTX 680, ktorý prekonáva aj GTX 780 Ti
  • Nvidia Geforce GTX 750 Ti - Maxwell začína v malom... napriek Maxwellovi
  • Nvidia Geforce GTX 680 je nový líder s jednou päticou v 3D grafike

Poďme sa teda pozrieť na podrobné špecifikácie grafickej karty Geforce GTX Titan X založenej na GPU GM200.

Grafický akcelerátor Geforce GTX Titan X
ParameterVýznam
Kódové meno čipuGM200
Technológia výroby28 nm
Počet tranzistorovasi 8 miliárd
Základná oblasťcca 600 mm 2
ArchitektúraZjednotený, s radom bežných procesorov na spracovanie prúdov mnohých typov údajov: vrcholy, pixely atď.
Hardvérová podpora DirectXDirectX 12 s podporou pre úroveň funkcií 12.1
Pamäťová zbernica384-bit: Šesť nezávislých 64-bitových pamäťových radičov s podporou pamäte GDDR5
Frekvencia GPU1000 (1075) MHz
Výpočtové bloky24 streamingových multiprocesorov vrátane 3072 skalárnych jednotiek ALU s jednoduchou a dvojitou presnosťou s pohyblivou rádovou čiarkou (počet 1/32 FP32) v súlade s normou IEEE 754-2008;
Textúrovacie bloky192 jednotiek na adresovanie a filtrovanie textúr s podporou komponentov FP16 a FP32 v textúrach a podporou trilineárneho a anizotropného filtrovania pre všetky formáty textúr
Rasterizačné jednotky (ROP)6 širokých ROP (96 pixelov) s podporou rôznych režimov vyhladzovania, vrátane programovateľných a s formátom vyrovnávacej pamäte snímok FP16 alebo FP32. Bloky pozostávajú z radu konfigurovateľných ALU a sú zodpovedné za generovanie a porovnávanie hĺbky, multisampling a miešanie
Monitorujte podporuIntegrovaná podpora až štyroch monitorov pripojených cez Dual Link DVI, HDMI 2.0 a DisplayPort 1.2
Referenčné špecifikácie grafickej karty Geforce GTX Titan X
ParameterVýznam
Frekvencia jadra1000 (1075) MHz
Počet univerzálnych procesorov3072
Počet blokov textúry192
Počet zmiešavacích blokov96
Efektívna pamäťová frekvencia7000 (4×1750) MHz
Typ pamäteGDDR5
Pamäťová zbernica384-bitový
Pamäť12 GB
Šírka pásma pamäte336,5 GB/s
Výpočtový výkon (FP32)až 7 teraflopov
Teoretická maximálna miera plnenia96 gigapixelov/s
Teoretická vzorkovacia rýchlosť textúry192 gigatexlov/s
PneumatikaPCI Express 3.0
KonektoryJeden Dual Link DVI, jeden HDMI 2.0 a tri DisplayPort 1.2
Spotreba energieaž 250 W
Extra jedloJeden 8-pinový a jeden 6-pinový konektor
Počet obsadených slotov v šasi systému2
Odporúčaná cena999 USD (USA), 74 990 RUB (Rusko)

Nový model Geforce GTX Titan X dostal meno, ktoré pokračuje v rade prémiových riešení Nvidie pre špecifické polohovanie – jednoducho k nemu pridali písmeno X. Nový model nahradil model Geforce GTX Titan Black a je na úplnom vrchole spoločnosti. aktuálny produktový rad. Nad ním už zostala len dvojčipová Geforce GTX Titan Z (aj keď sa už o nej nedá hovoriť) a pod ňou sú jednočipové modely GTX 980 a GTX 970. je najlepšie výkonové riešenie na trhu pre jednočip grafické karty.

Predmetný model Nvidia je založený na čipe GM200, ktorý má 384-bitovú pamäťovú zbernicu a pamäť beží na frekvencii 7 GHz, čo poskytuje maximálnu šírku pásma 336,5 GB / s - jeden a pol krát viac ako v GTX. 980. To je celkom pôsobivá hodnota, najmä ak si spomenieme na nové metódy kompresie informácií na čipe používané v druhej generácii Maxwell, ktoré pomáhajú využiť dostupnú šírku pásma pamäte oveľa efektívnejšie ako GPU konkurencie.

S touto pamäťovou zbernicou by množstvo videopamäte nainštalovanej na grafickej karte mohlo byť 6 alebo 12 GB, ale v prípade elitného modelu bolo prijaté rozhodnutie nainštalovať 12 GB, aby sa pokračovalo v trende, ktorý nastavili prvé modely GTX Titan. . To je viac než dostatočné na spustenie akýchkoľvek 3D aplikácií bez ohľadu na kvalitatívne parametre - toto množstvo video pamäte je dostatočné na absolútne akúkoľvek existujúcu hru pri akomkoľvek rozlíšení obrazovky a nastavení kvality, vďaka čomu je grafická karta Geforce GTX Titan X obzvlášť lákavá s perspektívou. zobraziť - jeho vlastníkovi nikdy nedôjde video pamäť.

Oficiálna spotreba energie pre Geforce GTX Titan X je 250 W – rovnako ako ostatné jednočipové riešenia v elitnej sérii Titan. Zaujímavosťou je, že 250 W je približne o 50 % viac ako má GTX 980 a o rovnakú hodnotu sa zvýšil aj počet hlavných funkčných blokov. Pomerne vysoká spotreba neprináša žiadne problémy, referenčný chladič odvádza také množstvo tepla na výbornú a nadšenecké systémy po GTX Titan a GTX 780 Ti sú na takúto spotrebu dávno pripravené.

Architektúra

Model grafickej karty Geforce GTX Titan X je založený na novom grafickom procesore GM200, ktorý zahŕňa všetky architektonické prvky čipu GM204, takže všetko uvedené v článku o GTX 980 plne platí pre prémiovú novinku - odporúčame si najprv prečítať materiál, v ktorom sú presne architektonické prvky Maxwell.

GPU GM200 možno nazvať extrémnou verziou GM204, možnou v rámci 28nm procesu. Nový čip je väčší, oveľa rýchlejší a náročnejší na napájanie. Podľa Nvidie „veľký Maxwell“ zahŕňa 8 miliárd tranzistorov, ktoré pokrývajú plochu približne 600 mm 2 – to znamená, že ide o najväčší grafický procesor spoločnosti. „Big Maxwell“ má o 50 % viac stream procesorov, o 50 % viac ROP a o 50 % väčšiu šírku pásma pamäte, čo je dôvod, prečo má takmer jeden a pol krát väčšiu plochu.

Architektonicky je videočip GM200 plne konzistentný s mladším modelom GM204, tvoria ho aj klastre GPC, ktoré obsahujú niekoľko SM multiprocesorov. Špičkový grafický procesor obsahuje šesť GPC klastrov, zložených z 24 multiprocesorov, celkovo má 3072 CUDA jadier a textúrové operácie (vzorkovanie a filtrovanie) sú vykonávané pomocou 192 textúrových jednotiek. A so základnou frekvenciou 1 GHz je výkon textúrových modulov 192 gigatexelov / s, čo je o viac ako tretinu viac ako u predchádzajúcej najvýkonnejšej grafickej karty od spoločnosti - Geforce GTX 980.

Multiprocesor Maxwell druhej generácie je rozdelený do štyroch blokov po 32 jadier CUDA (celkovo 128 jadier na SMM), z ktorých každé má vlastné zdroje na distribúciu príkazov, plánovanie spracovania a ukladanie toku inštrukcií. Vďaka tomu, že každá výpočtová jednotka má svoje dispečerské jednotky, sú výpočtové jadrá CUDA využívané efektívnejšie ako v Kepleri, čím sa znižuje aj spotreba GPU. Samotný multiprocesor sa v porovnaní s GM204 nezmenil:

Na zlepšenie efektívnosti používania vyrovnávacej pamäte v GPU sa vykonalo množstvo zmien v pamäťovom subsystéme. Každý z multiprocesorov v GM200 má vyhradených 96 KB zdieľanej pamäte a vyrovnávacia pamäť prvej úrovne a textúry sú kombinované do 24 KB blokov – dva bloky na multiprocesor (spolu 48 KB na SMM). GPU predchádzajúcej generácie Kepler mali iba 64 KB zdieľanej pamäte, ktorá fungovala aj ako vyrovnávacia pamäť L1. V dôsledku všetkých zmien je účinnosť jadier Maxwell CUDA približne 1,4-krát vyššia ako v podobnom čipe Kepler a energetická účinnosť nových čipov je približne dvakrát vyššia.

Vo všeobecnosti je všetko usporiadané v grafickom procesore GM200 presne rovnakým spôsobom ako v čipe GM204, ktorý sme recenzovali v roku 2014. Nedotkli sa ani výpočtových jadier, ktoré dokážu vykonávať operácie s pohyblivou rádovou čiarkou s dvojnásobnou presnosťou rýchlosťou iba 1/32 rýchlosti výpočtov s jednoduchou presnosťou – rovnako ako Geforce GTX 980. Zdá sa, že Nvidia uznala, že vydanie špecializovaných riešení pre profesionálny trh (GK210) a pre hranie hier (GM200) je celkom opodstatnené.

Pamäťový subsystém GM200 je v porovnaní s GM204 posilnený – je založený na šiestich 64-bitových pamäťových radičoch, ktoré spolu tvoria 384-bitovú zbernicu. Pamäťové čipy pracujú na efektívnej frekvencii 7 GHz, čo dáva špičkovú šírku pásma 336,5 GB/s, čo je jeden a pol krát viac ako u Geforce GTX 980. Nezabudnite na nové metódy kompresie dát od Nvidie , ktoré vám umožňujú dosiahnuť väčšiu efektívnu šírku pásma pamäte v porovnaní s predchádzajúcimi produktmi – na rovnakej 384-bitovej zbernici. V našej recenzii Geforce GTX 980 sme dôkladne zvážili túto novinku druhej generácie čipov Maxwell, ktorá im poskytuje o štvrtinu efektívnejšie využitie videopamäte v porovnaní s Keplerom.

Rovnako ako všetky najnovšie grafické karty Geforce, aj model GTX Titan X má základnú frekvenciu – minimálnu pre prevádzku GPU v 3D režime, ako aj turbo frekvenciu Boost Clock. Základná frekvencia novinky je 1000 MHz, frekvencia Boost Clock je 1075 MHz. Turbofrekvencia ako doteraz znamená len priemernú frekvenciu GPU pre určitú sadu herných aplikácií a iných 3D úloh používaných Nvidiou a skutočná frekvencia prevádzky môže byť aj vyššia – závisí od 3D záťaže a podmienok (teplota, výkon spotreba atď.)

Ukazuje sa, že frekvencia GPU nového produktu je asi o 10 % vyššia ako u GTX Titan Black, ale nižšia ako u GTX 980, pretože veľké GPU musia byť vždy taktované na nižšiu frekvenciu (a GM200 je výrazne väčšia plocha ako GM204) . Preto bude celkový 3D výkon novinky asi o 33 % vyšší ako pri GTX 980, najmä pri porovnaní frekvencií Turbo Boost.

Vo všetkých ostatných ohľadoch je čip GM200 úplne rovnaký ako GM204 – riešenia sú identické vo svojich schopnostiach a podporovaných technológiách. Dokonca aj moduly pre prácu s displejmi a video dátami zostali úplne rovnaké ako pri GM204, na ktorom je založený model Geforce GTX 980. Podľa toho všetko, čo sme napísali o GTX 980 a GTX 970 plne platí aj pre Titan X .

Preto sa na všetky ďalšie otázky o funkčných jemnostiach novinky môžete odvolať na recenzie Geforce GTX 980 a GTX 750 Ti, v ktorých sme podrobne písali o architektúre Maxwell, zariadení streamovacích multiprocesorov (Streaming Multiprocessor - SMM) , organizácia pamäťového subsystému a niektoré ďalšie architektonické rozdiely. Môžete si tiež vyskúšať funkcie, ako je hardvérová podpora pre zrýchlený výpočet globálneho osvetlenia VXGI, nové metódy vyhladzovania na celej obrazovke a vylepšené možnosti grafického rozhrania API DirectX 12.

Riešenie problémov s vývojom nových technických procesov

Môžeme s istotou povedať, že všetci na trhu grafických kariet sú už dávno unavení z 28nm procesnej technológie - sledujeme ju už štvrtý rok a TSMC sa spočiatku vôbec nedokázalo posunúť o krok vpred a potom sa zdalo, že je možné spustiť 20 nm výrobu, ale je to zbytočné, nebolo to dostupné pre veľké GPU - výťažnosť vhodných je dosť nízka a nenašli sa žiadne výhody v porovnaní s vynaloženými 28 nm. Nvidia a AMD preto museli z existujúcich možností vyžmýkať čo najviac a v prípade čipov Maxwell sa to Nvidii jednoznačne podarilo. Z hľadiska výkonu a energetickej účinnosti sa GPU tejto architektúry stali jasným krokom vpred, na ktorý AMD jednoducho nereagovalo – aspoň zatiaľ.

Takže z GM204 dokázali inžinieri Nvidie vyžmýkať oveľa viac výkonu v porovnaní s GK104 s rovnakou úrovňou spotreby energie, hoci čip sa zvýšil o tretinu a vyššia hustota tranzistorov umožnila ešte zvýšiť ich počet - z 3,5 mld.

Ale v prípade najväčšieho čipu architektúry Maxwell nemohli dizajnéri Nvidie príliš zväčšiť veľkosť čipu, v porovnaní s GK110 už má plochu asi 550 mm 2, a to nebolo možné zväčšiť jeho plochu o tretinu alebo aspoň o štvrtinu - takýto GPU by sa stal príliš zložitým a nákladným na výrobu. Musel som niečo obetovať (v porovnaní so starším Keplerom) a toto niečo sa stalo výkonom výpočtov s dvojnásobnou presnosťou - jeho tempo v GM200 je úplne rovnaké ako v iných riešeniach Maxwell, aj keď starší Kepler bol všestrannejší, vhodný pre grafické a pre akékoľvek negrafické výpočty.

Takéto rozhodnutie nebolo pre Keplera ľahké - príliš veľkú časť plochy tohto čipu zaberali jadrá CUDA FP64 a ďalšie špecializované výpočtové jednotky. V prípade veľkého Maxwellu bolo rozhodnuté vystačiť si s grafickými úlohami a bol jednoducho vyrobený ako zväčšená verzia GM204. Nový čip GM200 sa stal čisto grafickým, nemá špeciálne bloky pre výpočty FP64 a ich rýchlosť zostáva rovnaká - iba 1/32 FP32. Ale väčšina plochy GK110, ktorú zaberajú FP64 ALU, bola uvoľnená a na ich miesto boli umiestnené graficky dôležité FP32 ALU.

Takýto krok umožnil výrazne zvýšiť grafický (a výpočtový, ak vezmeme výpočty FP32) v porovnaní s GK110 bez zvýšenia spotreby energie a s miernym zvýšením plochy kryštálov - menej ako 10%. Zaujímavosťou je, že Nvidia tentoraz zámerne išla na oddelenie grafických a výpočtových čipov. Hoci GM200 zostáva veľmi produktívny vo výpočtoch FP32 a špecializované riešenia Tesly na výpočty s jednoduchou presnosťou sú celkom možné, postačujúce na mnohé vedecké úlohy, Tesla K40 zostáva najproduktívnejším pre výpočty FP64.

To je mimochodom rozdiel oproti pôvodnému Titanu - prvé riešenie čiary by sa dalo použiť aj na profesionálne účely na výpočty s dvojnásobnou presnosťou, keďže má aj pomer 1/3 pre výpočty FP64. A mnohí výskumníci použili GTX Titan ako štartovaciu kartu pre svoje aplikácie a úlohy CUDA a úspešne prešli na riešenia Tesla. Na to už GTX Titan X nevyhovuje, budete si musieť počkať na GPU ďalšej generácie. Ak sa na začiatku nerozdelia na grafické a výpočtové čipy, samozrejme.

Rozširujúce karty už takéto delenie majú – model Tesla K80 obsahuje dvojicu čipov GK210, ktoré sa vo videokartách nepoužívajú a od GK110 sa líšia zdvojeným registrovým súborom a zdieľanou pamäťou pre väčší výkon výpočtových úloh. Ukazuje sa, že GK210 možno považovať za výlučne „výpočtový“ procesor a GM200 za čisto „grafický“ (s istou mierou konvenčnosti, pretože obe GPU majú rovnaké schopnosti, len rôzne špecializácie).

Pozrime sa, čo sa stane v ďalších generáciách grafických architektúr Nvidie, ktoré sa už vyrábajú na „tenšom“ technickom procese – možno v nich takéto oddelenie aspoň spočiatku nebude potrebné. Alebo naopak, okamžite sa dočkáme striktného rozdelenia na modely GPU s rôznymi špecializáciami (výpočtové modely budú mať viac výpočtových možností a grafické modely – napríklad bloky TMU a ROP), hoci architektúra zostane rovnaká.

Vlastnosti dizajnu grafickej karty

Ale späť ku Geforce GTX Titan X. Ide o výkonnú grafickú kartu určenú pre nadšencov PC hier, takže by mala mať aj patričný vzhľad – originálny a solídny dizajn dosky a chladiča. Rovnako ako predchádzajúce riešenia rady Titan, aj model Geforce GTX Titan X je pokrytý hliníkovým puzdrom, ktoré grafickej karte dodáva veľmi prémiový vzhľad – vyzerá naozaj pevne.

Chladiaci systém je tiež veľmi pôsobivý - dizajn chladiča Titan X využíva parnú komoru zo zliatiny medi - chladí GPU GM200. Odparovacia komora je spojená s veľkým dvojštrbinovým chladičom z hliníkovej zliatiny, ktorý odvádza teplo prenášané z video čipu. Ventilátor odvádza zohriaty vzduch mimo PC skrinku, čo má pozitívny vplyv na celkový teplotný režim v systéme. Ventilátor je veľmi tichý aj pri pretaktovaní a dlhodobom zaťažení a vo výsledku je 250W GTX Titan X jednou z najtichších grafických kariet vo svojej triede.

Na rozdiel od referenčnej dosky Geforce GTX 980 novinka neobsahuje špeciálnu odnímateľnú dosku, ktorá prekrýva zadnú plochu dosky – to je robené pre zabezpečenie maximálneho prúdenia vzduchu k DPS pre jej chladenie. Doska je napájaná súpravou jedného 8-pinového a jedného 6-pinového PCI Express konektora pomocného napájania.

Keďže Geforce GTX Titan X je určená pre nadšencov, ktorí uprednostňujú riešenia s maximálnym výkonom, všetky komponenty novej grafickej karty boli vybrané s ohľadom na toto a dokonca s určitou rezervou z hľadiska funkcií a vlastností.

Napríklad na zásobovanie grafického procesora v Geforce GTX Titan X energiou sa používa 6-fázový systém napájania s možnosťou dodatočného zosilnenia. Na zabezpečenie prevádzky pamäte GDDR5 sa dodatočne používa ďalší dvojfázový systém napájania. 6 + 2-fázový systém napájania grafickej karty poskytuje danému modelu viac než dostatok energie, a to aj pri pretaktovaní. Referenčná doska Titan X je teda schopná dodať GPU výkon až 275W za predpokladu, že maximálna hodnota cieľového výkonu (cieľ výkonu) je nastavená na 110%.

V záujme ďalšieho zlepšenia potenciálu pretaktovania sa zlepšilo aj chladenie všetkých nových komponentov v porovnaní s pôvodnou grafickou kartou Geforce GTX Titan – prepracovaná doska a chladič viedli k zlepšeniu možností pretaktovania. Výsledkom je, že takmer všetky vzorky Titan X sú schopné pracovať pri frekvenciách až 1,4 GHz alebo viac - s rovnakým referenčným chladičom vzduchu.

Dĺžka referenčnej dosky Geforce GTX Titan X je 267 mm, má tieto výstupné obrazové konektory: jeden Dual-Link DVI, jeden HDMI 2.0 a tri DisplayPort. Geforce GTX Titan X podporuje výstup displeja až do rozlíšenia 5K a je ďalšou grafickou kartou s podporou HDMI 2.0, ktorá konkurentovi stále chýba - to vám umožňuje pripojiť nový produkt k televízorom s rozlíšením 4K, pričom poskytuje maximálnu kvalitu obrazu pri vysokej obnovovacej frekvencii 60 Hz.

Podpora vývojárov hier

Nvidia bola vždy spoločnosťou, ktorá veľmi úzko spolupracuje s tvorcami softvéru a najmä vývojármi hier. Pozrite sa na PhysX – najpopulárnejší herný fyzikálny engine, ktorý sa používa už viac ako 10 rokov vo viac ako 500 hrách. Široké využitie PhysX je okrem iného spôsobené tým, že je integrovaný do jedného z najpopulárnejších herných motorov: Unreal Engine 3 a Unreal Engine 4. Na konferencii vývojárov hier Game Developers Conference 2015 Nvidia oznámila bezplatný prístup k zdrojovým kódom CPU - zameraná časť PhysX 3.3.3 pre vývojárov C++ vo verziách pre Windows, Linux, OS X a Android.

Vývojári teraz budú môcť upraviť kód PhysX motora, ako chcú, a úpravy môžu byť dokonca začlenené do základného kódu Nvidia PhysX. Otvorením zdroja PhysX verejnosti poskytla Nvidia prístup k svojmu fyzikálnemu enginu ešte širšiemu okruhu vývojárov herných aplikácií, ktorí môžu tento pokročilý fyzikálny engine využívať vo svojich hrách.

Nvidia naďalej propaguje ďalšiu vlastnú technológiu, pomerne nový algoritmus simulácie dynamického globálneho osvetlenia VXGI, ktorý zahŕňa podporu špeciálnej hardvérovej akcelerácie na grafických kartách s GPU Maxwell druhej generácie, ako je Geforce GTX Titan X.

Zavedenie VXGI do hry umožní vývojárom poskytnúť veľmi kvalitný výpočet dynamického globálneho osvetlenia v reálnom čase s využitím všetkých možností moderných GPU a poskytnutím najvyššieho výkonu. Aby ste pochopili dôležitosť výpočtu globálneho osvetlenia (vykresľovanie zohľadňujúce nielen priame osvetlenie zo zdrojov svetla, ale aj jeho odraz od všetkých objektov na scéne), stačí sa pozrieť na pár obrázkov – s aktivovanou GI aj bez:

Je jasné, že tento príklad je umelý a v skutočnosti herní dizajnéri používajú špeciálne metódy na simuláciu globálneho tieňovania, umiestňovanie dodatočných svetiel alebo pomocou vopred vypočítaného osvetlenia – ale pred príchodom VXGI buď neboli plne dynamické (vopred vypočítané pre statické geometria) alebo nemali dostatočný realizmus a/alebo výkon. V budúcich hrách je celkom možné použiť VXGI, a to nielen na špičkových GPU.

Technika VXGI bola medzi vývojármi hier veľmi populárna. Mnohí z nich metódu aspoň vyskúšali v testovacích scénach, sú z výsledkov veľmi nadšení a uvažujú o jej začlenení do svojich hier. A tu je ďalšia scéna s kvalitným výpočtom globálneho osvetlenia – ukazuje aj to, aké dôležité je brať do úvahy lúče svetla odrazené od všetkých povrchov scény:

Aj keď vývojári neimplementovali VXGI do svojich vlastných enginov, môžete použiť špeciálnu verziu enginu Unreal Engine 4 VXGI GitHub, ktorá je poskytovaná všetkým zainteresovaným vývojárom – vďaka tomu je možné rýchlo integrovať VXGI do ich hry (a nielen! ) projekty využívajúce tento populárny herný engine – bude si to však vyžadovať určité úpravy, VXGI nemožno jednoducho „povoliť“.

Uvažujme o ďalšej technológii Nvidia – celoobrazovkovom anti-aliasingu metódou MFAA, ktorá poskytuje vynikajúci výkon a zároveň prijateľnú kvalitu vyhladzovania. O tejto metóde sme už písali a len stručne zopakujeme podstatu a perspektívy. Podpora MFAA je jednou z kľúčových vlastností GPU Maxwell v porovnaní s predchádzajúcou generáciou GPU. Pomocou možnosti programovania pozícií pre vzorky vyhladzovania v metóde MSAA tieto vzorky menia každý rámec tak, že MFAA je takmer plnohodnotným MSAA, no s menšou záťažou GPU.

Výsledkom je, že obraz so zapnutým MFAA vyzerá takmer ako s MSAA, ale strata výkonu je oveľa nižšia. Napríklad MFAA 4x poskytuje rýchlosti na rovnakej úrovni ako MSAA 2x a kvalita antialiasingu je blízka MSAA 4x. Preto v tých hrách, kde výkon nestačí na dosiahnutie vysokej snímkovej frekvencie, bude použitie MFAA plne opodstatnené a môže zlepšiť kvalitu. Tu je príklad výsledného výkonu s MSAA a MFAA na grafickej karte Titan X v porovnaní s bežným Titanom (v rozlíšení 4K):

Metóda vyhladzovania MFAA je kompatibilná so všetkými hrami DirectX 10 a DirectX 11 s podporou MSAA (s výnimkou zriedkavých projektov ako Dead Rising 3, Dragon Age 2 a Max Payne 3). MFAA je možné povoliť manuálne v ovládacom paneli Nvidia. MFAA je tiež integrovaná do Geforce Experience a táto metóda bude automaticky povolená pre rôzne hry v prípade optimalizácie pomocou Geforce Experience. Jediným problémom je, že v súčasnosti MFAA stále nie je kompatibilný s technológiou Nvidia SLI, čo sľubujú opraviť v budúcich verziách ovládačov videa.

Moderné hry na Geforce GTX Titan X

Geforce GTX Titan X si so všetkým svojim výkonom a možnosťami dokáže poradiť nielen so súčasnými hrami, ale aj budúcimi projektmi s podporou pripravovanej verzie DirectX 12. kvalita, s aktivovaným anti-aliasingom na celú obrazovku a vykresľovaním vo vysokom rozlíšení – napr. 4K.

Pri vysokých rozlíšeniach a povolenom anti-aliasingu sa stáva obzvlášť dôležitý výkonný pamäťový subsystém a Geforce GTX Titan X má všetko v poriadku – 384-bitové pamäťové rozhranie a čipy pracujúce na efektívnej frekvencii 7 GHz poskytujú šírku pásma 336,5 GB / s - aj keď to nie je rekord, je to celkom slušné.

A je tiež veľmi dôležité, aby sa všetky dáta zmestili do videopamäte, pretože keď je v mnohých hrách povolená MSAA v rozlíšení 4K, množstvo videopamäte jednoducho nestačí - je potrebných viac ako 4 GB pamäte. A Titan X má nielen 6 GB, ale až 12 GB videopamäte, pretože tento rad je stvorený pre tých nadšencov, ktorí si nepotrpia na kompromisy. Je jasné, že pri takom množstve palubnej pamäte nemusí hráč myslieť na to, či sa výkon hry vo vysokom rozlíšení zníži, keď je zapnutý multisampling - vo všetkých hrách pri akomkoľvek nastavení bude 12 GB viac než dosť.

Momentálne si v absolútne každej hre môžete nastaviť ľubovoľné nastavenia a zvoliť si akékoľvek rozlíšenie – Titan X poskytne dostatočnú snímkovú frekvenciu za (takmer) akýchkoľvek podmienok. Tu sú hry, ktoré si Nvidia vybrala, aby demonštrovala výkon svojho riešenia:

Ako môžete vidieť, snímková frekvencia 40 FPS alebo viac je poskytovaná vo väčšine „najťažších“ moderných hier s aktivovaným anti-aliasingom na celej obrazovke, vrátane projektov ako Far Cry 4 – v tejto hre s nastaveniami Ultra a anti-aliasingom. -aliasing v rozlíšení 4K, dosiahnutie prijateľnej rýchlosti vykresľovania je možné len na Titan X alebo konfiguráciách s viacerými čipmi.

A s vydaním hier budúcnosti, ktoré budú podporovať DirectX 12, môžeme očakávať ešte väčší nárast požiadaviek na výkon GPU a video pamäte – zlepšenie kvality vykresľovania nie je dané „zadarmo“. Mimochodom, v tom čase Nvidia ešte netestovala svoju grafickú kartu Titan X v najnovšej hre, ktorá vyšla pomerne nedávno - PC verzii Grand Theft Auto V. Táto séria hier je medzi modernými projektmi najpopulárnejšia, v ktorej vystupujete ako rôzne kriminálne živly v kulisách mesta Los Santos, až podozrivo podobnej skutočnému Los Angeles. PC verzia GTAV bola veľmi očakávaná a nakoniec vydaná v polovici apríla – mesiac po Titane X.

Dokonca aj konzolové verzie (hovoríme samozrejme o súčasnej generácii konzol) hry Grand Theft Auto V boli z hľadiska kvality obrazu celkom dobré a PC verzia hry ponúka niekoľko ďalších možností na jej zlepšenie: výrazne zvýšená vzdialenosť vykreslenia (objekty, efekty, tiene), možnosť hrať pri 60 FPS alebo viac, vrátane rozlíšenia až 4K. Okrem toho sľubujú bohatú a hustú premávku, množstvo dynamických objektov v scéne, vylepšené efekty počasia, tiene, osvetlenie atď.

Použitie niekoľkých technológií Nvidia GameWorks ďalej zlepšilo kvalitu obrazu v GTAV. Pripomeňme, že GameWorks je špeciálna platforma pre vývojárov hier a grafiky, ktorá im poskytuje 3D technológie a nástroje určené pre grafické karty Nvidia. Pridaním technológií GameWorks do hier je pomerne jednoduché dosiahnuť kvalitnú imitáciu realistického dymu, vlny a vlasov, vĺn, ako aj globálneho osvetlenia a iných efektov. GameWorks to výrazne uľahčuje vývojárom tým, že poskytuje príklady, knižnice a súpravy SDK pripravené na použitie v kóde hry.

Grand Theft Auto V využíva pár technológií od Nvidie: ShadowWorks Percentage-Closer Soft Shadows (PCSS) a Temporal Anti-Aliasing (TXAA), ktoré zlepšujú už aj tak dobrú grafiku v hre. PCSS je špeciálna technika vykresľovania tieňov, ktorá má lepšiu kvalitu ako typické metódy mäkkých tieňov. PCSS má tri výhody: mäkkosť okrajov tieňov závisí od vzdialenosti medzi objektom, ktorý vrhá tieň, a povrchom, na ktorý je nakreslený, tiež poskytuje lepšie filtrovanie, ktoré znižuje počet artefaktov v podobe zubatých okrajov tieňov, a použitie vyrovnávacej pamäte tieňov vám umožňuje správne zvládnuť priesečníky tieňov z rôznych objektov a zabrániť vzniku „dvojitých“ tieňov.

Výsledkom je, že keď zapnete PCSS, hra poskytuje jemné realistické dynamické tiene, čo je oveľa lepšie ako to, čo sme videli na herných konzolách. A pre hru ako Grand Theft Auto V s jasným slnkom neustále sa pohybujúcim po horizonte je kvalita tieňov veľmi dôležitá, sú vždy na dohľad. Z nasledujúcich snímok obrazovky môžete vidieť rozdiel medzi dvoma metódami najvyššej kvality používanými v hre (algoritmus AMD verzus metóda Nvidia):

Je jasne vidieť, že metóda PCSS umožňuje získať mäkké okraje tieňov, ktoré sa postupne rozmazávajú, čím viac, čím väčšia je vzdialenosť medzi objektom, z ktorého sa tieň nachádza, a povrchom, ktorý tieň „prijíma“. Zároveň zaradenie PCSS nemá takmer žiadny vplyv na výsledný výkon v hre. Aj keď táto metóda poskytuje lepšiu kvalitu tieňov a realizmus, zapnutie tejto možnosti je pre výkon prakticky „zadarmo“.

Ďalším dôležitým doplnkom PC verzie GTAV je metóda antialiasingu Nvidia TXAA. Temporal Anti-Aliasing je nový algoritmus anti-aliasingu navrhnutý špeciálne na riešenie problémov konvenčných metód anti-aliasingu v pohybe – kde jednotlivé pixely blikajú. Na filtrovanie pixelov na obrazovke pomocou tejto metódy sa vzorky používajú nielen vo vnútri pixelu, ale aj mimo neho, aj spolu so vzorkami z predchádzajúcich snímok, čo umožňuje získať kvalitu filtrovania „film“.

Výhoda metódy oproti MSAA je zrejmá najmä na objektoch s priesvitným povrchom, ako je tráva, lístie stromov a plotové siete. TXAA tiež pomáha vyhladiť efekty pixel po pixeli. Vo všeobecnosti je metóda veľmi kvalitná a približuje sa kvalite profesionálnych metód používaných v 3D grafike, no výsledok po TXAA je v porovnaní s MSAA mierne rozmazanejší, čo sa nepáči všetkým používateľom.

Výkonnostný zásah pri povolení TXAA závisí od hry a podmienok a koreluje hlavne s rýchlosťou MSAA, ktorá sa tiež používa v tejto metóde. Ale v porovnaní s čistými postprocesingovými metódami antialiasingu, ako je FXAA, ktoré poskytujú maximálnu rýchlosť pri nižšej kvalite, sa TXAA zameriava na maximalizáciu kvality pri určitej ďalšej výkonnostnej penalizácii. Ale s takou bohatosťou a detailmi na svete, aké vidíme v Grand Theft Auto V, bude zahrnutie vysokokvalitného anti-aliasingu celkom užitočné.

PC verzia hry má bohaté grafické nastavenia, ktoré vám umožnia získať požadovanú kvalitu obrazu s požadovaným výkonom. GTAV na PC teda poskytuje prijateľnú rýchlosť a kvalitu vykresľovania na všetkých riešeniach Nvidia, počnúc približne od Geforce GTX 660. Aby ste si naplno užili všetky grafické efekty hry, odporúča sa použiť niečo ako Geforce GTX 970/980 alebo dokonca Titan x.

Pre kontrolu nastavení je v hre zabudovaný výkonnostný test – tento benchmark obsahuje päť scén blízkych reálnemu hraniu, čo vám umožní vyhodnotiť rýchlosť vykresľovania v hre na PC s rôznymi hardvérovými konfiguráciami. Majitelia grafických kariet Nvidia to však môžu urobiť jednoduchšie optimalizáciou hry pre vlastný počítač pomocou Geforce Experience. Tento softvér vyberie a upraví optimálne nastavenia pri zachovaní rýchlosti vykresľovania, ktorú je možné prehrať – a to všetko sa vykonáva kliknutím na tlačidlo. Geforce Experience nájde najlepšiu kombináciu funkcií pre Geforce GTX 660 s FullHD monitorom a Titan X s 4K TV, čo poskytuje najlepšie nastavenia pre konkrétny systém.

Plná podpora pre hru GTAV sa objavila v novom zostavení ovládačov Geforce verzie 350.12 WHQL, ktorý má špeciálne optimalizovaný profil pre túto aplikáciu. Táto verzia ovládača poskytne optimálny výkon v hre vrátane ďalších technológií Nvidia: 3D Vision, 4K Surround, Dynamic Super Resolution (DSR), GameStream, G-SYNC (Surround), Multi Frame Sampled Anti-Aliasing (MFAA), Percentage Closer Soft Shadows (PCSS), SLI a ďalšie.

Špeciálny ovládač 350.12 WHQL tiež obsahuje aktualizované profily SLI pre niekoľko hier vrátane nového profilu pre Grand Theft Auto V. Okrem profilov SLI ovládač aktualizuje a pridáva profily pre technológiu 3D Vision a profil pre GTAV bol hodnotenie „Vynikajúce“, čo znamená vynikajúcu kvalitu stereo obrazu v tejto hre – majitelia príslušných okuliarov a monitorov by to mali vyskúšať!

Podpora technológií virtuálnej reality

Téma virtuálnej reality (Virtual Reality – VR) je v súčasnosti jednou z najhlasnejších v hernom priemysle. Oživenie záujmu o VR má v mnohom na svedomí spoločnosť Oculus, ktorú vtedy získal Facebook. Zatiaľ ukázali len prototypy alebo SDK, no plánujú vydať komerčnú verziu prilby Oculus Rift ešte tento rok. Bokom nezostali ani ďalšie spoločnosti. Napríklad známa spoločnosť Valve oznámila plány na partnerstvo s HTC, aby do konca roka 2015 vydala vlastnú prilbu pre virtuálnu realitu.

Prirodzene, aj výrobcovia GPU vidia vo VR budúcnosť a Nvidia úzko spolupracuje s dodávateľmi softvérových a hardvérových riešení pre virtuálnu realitu, aby zabezpečila čo najpohodlnejšiu prácu s grafickými kartami Geforce (alebo dokonca Tegrou, kto vie?) . A nie sú to len marketingové slogany, pretože na to, aby bolo používanie VR pohodlné, je potrebné vyriešiť viacero problémov, vrátane zníženia oneskorenia medzi akciou hráča (pohybom hlavy) a výsledným zobrazením tohto pohybu na displeji - príliš veľké oneskorenie nepokazí len zážitok z virtuálnej reality, ale môže spôsobiť takzvanú kinetózu (nevoľnosť, kinetózu).

Na zníženie tejto latencie podporuje softvér VR Direct od Nvidie funkciu nazývanú asynchrónny časový posun. S použitím asynchrónneho skreslenia času sa scéna vykreslená pred nejakým časom môže pohybovať na základe pohybov hlavy hráča, ktoré neskôr zachytili senzory prilby. Znižuje sa tak latencia medzi akciou a vykreslením obrazu, keďže GPU nemusí pred posunom prepočítavať celú snímku. Nvidia už poskytuje podporu ovládačov pre vývojárov aplikácií VR a vo svojom softvéri môžu použiť asynchrónne skreslenie času.

Okrem výstupného oneskorenia je veľmi dôležité dosiahnuť pohodlné hranie v prilbe pre virtuálnu realitu, a to nielen poskytovať vysokú snímkovú frekvenciu, ale zobrazovať snímky pre každé oko s čo najplynulejšou možnou zmenou. Po popularizácii prilieb budúcej generácie VR ich teda mnohí hráči budú chcieť vyskúšať v moderných hrách, ktoré sú veľmi náročné na výkon GPU. A v niektorých prípadoch budete musieť vytvoriť dvojčipovú konfiguráciu SLI z dvojice výkonných grafických kariet, ako je Geforce GTX Titan X.

Pre zaistenie maximálneho komfortu v takýchto prípadoch ponúka Nvidia technológiu VR SLI, ktorá umožňuje vývojárom hier priradiť konkrétne GPU z páru každému oku s cieľom znížiť latenciu a zlepšiť výkon. V tomto prípade bude obraz pre ľavé oko vykreslený jedným GPU a pre pravé oko druhým GPU. Toto zrejmé riešenie znižuje latenciu a je ideálne pre aplikácie VR.

VR SLI a asynchrónny časový warp zatiaľ nie sú dostupné vo verejných ovládačoch Nvidie, ale to nie je zvlášť potrebné, pretože ich použitie vyžaduje zmeny v spustiteľnom kóde hry. A pre-release video ovládače Geforce s podporou pre VR SLI a Asynchronous Time Warp sú k dispozícii pre vybraných partnerov Nvidia, ako sú Epic, Crytek, Valve a Oculus. Verejný ovládač bude vydaný bližšie k vydaniu finálnych produktov VR v predaji.

Navyše taká výkonná grafická karta, akou je Geforce GTX Titan X, bola použitá v mnohých ukážkach virtuálnej reality na tohtoročnej Game Developers Conference 2015. Tu je len niekoľko príkladov: „Zlodej v tieni“ – spoločný vývoj spoločností Nvidia, Epic , Oculus a WETA Digital, štúdio vizuálnych efektov za filmovou trilógiou Hobit, Back to Dinosaur Island je reboot slávnej 14-ročnej Crytekovej slávnej 14-ročnej ukážky X-Isle: Dinosaur Island a portálu Valve, „Job Simulator“, „TheBluVR“ “ a „Galéria“. Vo všeobecnosti je to až do vydania VR prilieb do predaja a Nvidia bude na to pripravená.

Závery k teoretickej časti

Z architektonického hľadiska sa ukázalo ako veľmi zaujímavé nové top-end GPU druhej generácie architektúry Maxwell. Rovnako ako jeho súrodenci, GM200 využíva to najlepšie z minulých architektúr spoločnosti s pridanou funkčnosťou a všetkými vylepšeniami druhej generácie Maxwell. Funkčne teda novinka vyzerá v pohode, zodpovedajúca modelom radu Geforce GTX 900. Pomocou seriózneho upgradu exekučných jednotiek dosiahli inžinieri Nvidie v Maxwelli zdvojnásobenie pomeru výkonu k spotrebe, pri pridávaní funkčnosti - pripomíname hardvérovú podporu pre zrýchlenie globálneho osvetlenia VXGI a grafické rozhranie API DirectX 12.

Špičková grafická karta Geforce GTX Titan X je navrhnutá pre ultra nadšených hráčov, ktorí chcú od najnovších počítačových hier maximálnu kvalitu a výkon, bežia v najvyšších rozlíšeniach, nastaveniach najvyššej kvality, anti- aliasing, a to všetko s prijateľnou snímkovou frekvenciou. Na jednej strane len málo hier vyžaduje taký výkonný GPU a môžete nainštalovať niekoľko lacnejších grafických kariet. Na druhej strane, kvôli problémom viacčipových riešení so zvýšenou latenciou a nerovnomernými snímkovými frekvenciami dá veľa hráčov prednosť jednému výkonnému GPU pred dvojicou menej výkonných. Nehovoriac o tom, že jednočipová karta zabezpečí aj nižšiu spotrebu a hlučnosť chladiaceho systému.

Prirodzene, v takýchto podmienkach je hlavným problémom Geforce GTX Titan X cena riešenia. Faktom však je, že sa predáva vo výklenku, kde jednoducho nie sú potrebné koncepty odôvodnenia ceny a hodnoty za peniaze - riešenia s maximálnym výkonom sú vždy výrazne drahšie ako tie, ktoré sú im blízke, ale stále nie sú také produktívne. A Titan X je mimoriadne výkonná a drahá grafická karta pre tých, ktorí sú ochotní zaplatiť za maximálnu rýchlosť v 3D aplikáciách.

Geforce GTX Titan X je umiestnená ako prémiová (luxusná, elitná - akokoľvek to nazvať) grafická karta a nemali by existovať žiadne sťažnosti na odporúčanú cenu - najmä preto, že predchádzajúce riešenia v rade (GTX Titan a GTX Titan Čierna) pôvodne stála presne rovnako - 999 dolárov. Toto je riešenie pre tých, ktorí potrebujú najrýchlejší GPU, aký existuje, napriek jeho cene. Navyše, pre najbohatších nadšencov a držiteľov rekordov v 3D benchmarkoch sú k dispozícii systémy s tromi a dokonca štyrmi grafickými kartami Titan X - sú to jednoducho najrýchlejšie videosystémy na svete.

Toto sú požiadavky, ktoré Titan X plne ospravedlňuje a poskytuje - špičková novinka, dokonca aj samotná, vykazuje najvyššiu snímkovú frekvenciu vo všetkých herných aplikáciách a takmer za všetkých podmienok (rozlíšenie a nastavenia) a množstvo rýchlej video pamäte GDDR5 12 GB umožňuje nemyslieť na nedostatok lokálnej pamäte na niekoľko rokov dopredu – ani hry budúcich generácií, s podporou DirectX 12 a pod., jednoducho nedokážu túto pamäť zapchať natoľko, že nebude stačiť.

Rovnako ako v prípade prvého GTX Titan v roku 2013, aj GTX Titan X nastavuje novú latku výkonu a funkčnosti v segmente prémiovej grafiky. Svojho času sa GTX Titan stal pre Nvidiu pomerne úspešným produktom a niet pochýb, že GTX Titan X zopakuje úspech svojho predchodcu. Navyše, model založený na najväčšom videočipe architektúry Maxwell sa stal bez výhrad najproduktívnejším na trhu. Keďže grafické karty, ako je GTX Titan X, vyrába samotná Nvidia a predávajú referenčné vzorky svojim partnerom, od momentu jej oznámenia neboli žiadne problémy s dostupnosťou v obchodoch.

GTX Titan X žije vo všetkých smeroch na najvyššej úrovni: najvýkonnejší GPU z rodiny Maxwell, vynikajúci dizajn grafických kariet v štýle predchádzajúcich modelov Titan, ako aj vynikajúci chladiaci systém - účinný a tichý. Pokiaľ ide o rýchlosť vykresľovania 3D, ide o najlepšiu grafickú kartu súčasnosti, ktorá ponúka o viac ako tretinu vyšší výkon v porovnaní s najlepšími modelmi, ktoré vyšli pred Titanom X – ako napríklad Geforce GTX 980. A ak neuvažujete s duálnou čipové video systémy (ako pár rovnakých GTX 980 alebo jeden Radeon R9 295X2 od konkurenta, ktorý má problémy vlastné konfiguráciám s viacerými čipmi), potom možno Titan X nazvať najlepším riešením pre nemajetných nadšencov.

V ďalšej časti nášho materiálu preskúmame rýchlosť vykresľovania novej grafickej karty Nvidia Geforce GTX Titan X v praxi, pričom jej rýchlosť porovnáme s výkonom najvýkonnejších videosystémov od AMD a s výkonom predchodcov Nvidie. v našej bežnej sade syntetických testov a potom v hrách.

V marci 2015 bola verejnosti predstavená nová vlajková loď grafickej karty od spoločnosti NVIDIA. Herná grafická karta Nvidia Titan X je jednočipová a jej architektúra je založená na algoritme Pascal (pre GPU GP102), patentovanom výrobcom. V čase predstavenia Geforce GTX Titan X bol právom považovaný za najvýkonnejší herný video adaptér.

GPU. GPU má 3584 CUDA jadier so základnou frekvenciou 1417 MHz. V tomto prípade bude frekvencia hodín so zrýchlením na úrovni 1531 MHz.

Pamäť. Vlajková loď bola predstavená s kapacitou 12 Gb, ale neskôr bola vydaná verzia so zníženým objemom 2 krát. Rýchlosť pamäte dosahuje 10 Gb/s. Šírka pásma v pamäťovej zbernici je 384-bit, čo umožňuje mať šírku pásma pamäte 480 Gb/s. Použité sú pamäťové čipy GDDR5X, takže aj pri 6 Gb konfigurácii bude výkon vysoký.

Ďalšie vlastnosti Titan X. Počet ALU je 3584, ROP 96 a počet prekrytých textúrových jednotiek 192. Karta podporuje aj rozlíšenie až 7680×4320, sadu konektorov nových štandardov DP 1.4, HDMI 2.0b, DL-DVI a HDCP verzie 2.2.

Grafická karta pracuje so slotom (zbernicou) PCIe 3.0. Ak chcete poskytnúť plný výkon, musíte mať na zdroji ďalšie 8- a 6-pinové konektory. Karta zaberie dva sloty na základnej doske (SLI je možné pre 2, 3 a 4 karty).

Výška grafickej karty je 4,376″ a dĺžka 10,5″. Odporúča sa používať napájacie zdroje s výkonom 600 W alebo viac.

Prehľad grafickej karty

Hlavný dôraz výrobcovia kládli na zlepšenie grafiky pre VR, ako aj plnú podporu DirectX 12. Výkon grafickej karty v hrách možno mierne zvýšiť pretaktovaním výkonu karty GTX Titan X 12 Gb.


Technológia Pascal je zameraná na VR hry. Použitím ultra-vysokorýchlostnej technológie FinFET sa pri použití prilby dosiahne maximálne vyhladenie. Model Geforce Titan X Pascal je plne kompatibilný s VRWorks, čo dáva efekt úplného ponorenia s možnosťou zažiť fyziku a hmatové vnemy z hry.

Namiesto medených tepelných rúrok je tu použitá odparovacia komora. Maximálna teplota je 94 stupňov (zo stránky výrobcu), v testoch je však priemerná teplota 83-85 stupňov. Pri zvýšení na túto teplotu sa chladnejšia turbína zrýchli. Ak zrýchlenie nestačí, zníži sa taktovacia frekvencia grafického čipu. Hluk z turbíny je celkom rozlíšiteľný, takže ak je to pre používateľa významný ukazovateľ, je lepšie použiť vodné chladenie. Riešenia pre tento model už existujú.

Zlepšenie výkonu ťažby

Spoločnosť sa zamerala na herný výkon. V porovnaní s grafickou kartou Geforce GTX Titan X 12 Gb nezlepšuje ťažbu, ale spotreba je vyššia. Všetky grafické karty série Titan vynikajú výkonom s dvojnásobnou presnosťou FP32 a INT8. To nám umožňuje považovať sériu kariet za akcelerátory profesionálnej triedy. Model s čipom GM200 však nie je, keďže mnohé testy ukazujú degradáciu výkonu pri hashovacích výpočtoch a iných operáciách. Výkon ťažby kryptomeny je len 37,45 Mhash/s.

Neodporúčame používať model X na ťažbu kryptografických mien. Dokonca aj vylepšenie výkonu Nvidia Titan X neprinesie rovnaké výsledky ako Radeon Vega (ak sa vezme v rovnakej cenovej kategórii), nieto Tesla.

Nová karta od rovnakého výrobcu dáva 2,5-krát vyšší výkon. V pretaktovanom stave dal Titan V hodnotu 82,07 Mhash/s.

Výsledky testov v hrách

Ak porovnáme grafickú kartu Titan X Pascal s ostatnými, potom je o 20-25% lepšia ako grafická karta toho istého výrobcu a tiež takmer dvakrát prevyšuje konkurenta Radeon R9 FuryX, ktorý je tiež jednočipový.

Vo všetkých hrách v rozlíšení 4K a UltraHD vidíme plynulý obraz. Dobré výsledky sme dosiahli aj v testoch s použitím režimu SLI.

Porovnanie grafických kariet od rôznych výrobcov

Cena grafickej karty Titan X 12 Gb začína na 1200 dolároch a závisí od výrobcu a množstva pamäte.

Ponúkame vám zoznámenie sa s porovnávacími charakteristikami tovaru od rôznych výrobcov (* - podobné):

ProduktPalit GeForce GTX TITAN XMSI GeForce GTX TITAN XASUS GeForce GTX TITAN X
Zoznam primárnych funkcií
Typ grafickej kartyhra *
Názov GPUNVIDIA GeForce GTX TITAN X *
Kód výrobcuNE5XTIX015KB-PG600F *
Kódové označenie GPUGM 200 *
Technický proces28 nm *
Podporované monitoryštyri *
Rozlíšenie GM200 (maximálne)5120 až 3200 *
Zoznam špecifikácií
Frekvencia GPU1000 MHz *
Pamäť12288 Mb *
Typ pamäteGDDR5 *
Frekvencia pamäte7000 MHz7010 MHz7010 MHz
Šírka pamäťovej zbernice384 bit *
frekvencia RAMDAC400 MHz *
Podpora režimu CrossFire / SLImožné *
Podpora Quad SLImožné* *
Zoznam špecifikácií podľa pripojenia
Konektorypodpora HDC, HDMI, DisplayPort x3 *
Verzia HDMI2.0 *
Matematický blok
Počet univerzálnych procesorov3072 *
Shader verzia5.0 *
Počet blokov textúry192 *
Počet rasterizačných blokov96 *
Pridané vlastnosti
Rozmery267 × 112 mm280 × 111 mm267 × 111 mm
Počet obsadených slotov2 *
cena74300 r.75 000 r.75400 r.

Na základe porovnávacej tabuľky je vidieť, že rôzni výrobcovia dodržiavajú štandardizáciu. Rozdiel v charakteristikách je zanedbateľný: rozdielna frekvencia videopamäte a veľkosti adaptérov.

Teraz nie je v predaji tento model od žiadneho výrobcu. V januári 2018 bol predstavený svet, ktorý niekoľkonásobne prekonáva svojich kolegov vo výkone v hrách a v ťažbe kryptomien.