Az NVIDIA GeForce GTX TITAN X áttekintése és tesztelése: csecsemők lemészárlása. Az NVIDIA TITAN X videoadapter áttekintése: nagy Pascal Megjelenés és méretek

Nvidia Geforce GTX Titan X

A legerősebb egyprocesszoros gyorsító

  • 2. rész - Gyakorlati ismerkedés

Az új gyorsító (és a hozzá tartozó szoftver) tesztmintájának késői kézhezvétele, valamint szerzőnk, Alexei Berillo GTC munkájában való részvétele miatt az áttekintés egyes részei az új Nvidia architektúrájának szentelték. termék és a szintetikus tesztek elemzése később (kb. egy hét múlva) fog megjelenni. Most pedig egy olyan anyagot mutatunk be, amely megismerteti az olvasókkal a videokártya jellemzőivel, valamint a játéktesztek eredményeivel.

Eszköz(ek)



Nvidia Geforce GTX Titan X 12288MB 384 bites GDDR5 PCI-E
ParaméterJelentéseNévleges érték (referencia)
GPUGeforce GTX Titan X (GM200)
FelületPCI Express x16
GPU működési frekvencia (ROP), MHz1000—1075 1000—1075
Memória frekvencia (fizikai (effektív)), MHz1750 (7000) 1750 (7000)
Memóriacsere busz szélessége, bit384
A számítási egységek száma a GPU-ban / a blokkok frekvenciája, MHz24/1000—1075 24/1000—1075
Műveletek száma (ALU) blokkonként128
Összes művelet (ALU)3072
Textúra egységek száma (BLF/TLF/ANIS)192
Raszterezési blokkok száma (ROP)96
Méretek, mm270×100×35270×100×35
A videokártya által elfoglalt nyílások száma a rendszeregységben2 2
Textolit színfeketefekete
Energiafogyasztás (csúcs 3D-ben/2D módban/alvó üzemmódban), W257/98/14 257/98/14
Zajszint (2D módban / 2D módban (videolejátszás) / maximum 3D módban), dBA20/21/29,5
Kimeneti csatlakozók1×DVI (Dual-Link/HDMI), 1×HDMI 2.0, 3×DisplayPort 1.2
Többfeldolgozás támogatásaSLI
A vevők/monitorok maximális száma az egyidejű képkimenethez4 4
Segédteljesítmény: 8 tűs csatlakozók száma1 1
Segédteljesítmény: 6 tűs csatlakozók száma1 1
Maximális 2D felbontás: DP/HDMI/Dual-Link DVI/Single-Link DVI
Maximális 3D felbontás: DP/HDMI/Dual-Link DVI/Single-Link DVI3840×2400/3840×2400/2560×1600/1920×1200

Helyi memóriával együtt

A kártya 12288 MB GDDR5 SDRAM-mal rendelkezik 24 db 4 Gb-os chipben (12 db a PCB mindkét oldalán).

A DirectX 11 szintetikus tesztjeként a Microsoft és az AMD SDK-kból, valamint az Nvidia demóprogramjából származó példákat használtunk. Az első a HDRToneMappingCS11.exe és az NBodyGravityCS11.exe a DirectX SDK-ból (2010. február). Mindkét videochip-gyártótól is vettünk pályázatokat: az Nvidiától és az AMD-től. A DetailTessellation11 és a PNTtriangles11 az ATI Radeon SDK-ból származnak (ezek a DirectX SDK-ban is megtalálhatók). Ezenkívül az Nvidia Realistic Water Terrain demóprogramját, más néven Island11-et használták.

Szintetikus teszteket a következő videokártyákon végeztek:

  • Geforce GTX Titan X GTX Titan X)
  • Geforce GTX Titan Z szabványos paraméterekkel (rövidítve GTX Titan Z)
  • Geforce GTX 980 szabványos paraméterekkel (rövidítve GTX 980)
  • Radeon R9 295X2 szabványos paraméterekkel (rövidítve R9 295X2)
  • Radeon R9 290X szabványos paraméterekkel (rövidítve R9 290X)

A Geforce GTX Titan X videokártya új modelljének teljesítményének elemzéséhez a következő okok miatt választották ezeket a megoldásokat. A Geforce GTX 980 egy ugyanolyan Maxwell architektúrájú, de alacsonyabb szintű - GM204 - grafikus processzorra épül, és nagyon érdekes lesz számunkra értékelni, hogy mit adott a chip bonyolultsága a GM200 számára. Nos, a Geforce GTX Titan Z kétchipes videokártyát csak referenciaként vettük – mint a legproduktívabb Nvidia videokártyát, amely a korábbi Kepler architektúra GK110-es lapkáján alapul.

A rivális AMD cégtől két grafikus kártyát is választottunk összehasonlításunkhoz. Elvileg nagyon különböznek egymástól, bár ugyanazokra a Hawaii GPU-kra épülnek – csak más a GPU-k száma a kártyákon, és eltér egymástól a pozicionálás és az ár. A Geforce GTX Titan X-nek nincs árversenytársa, ezért a legerősebb kétchipes videokártyát választottuk a Radeon R9 295X2-t, bár egy ilyen összehasonlítás technikailag nem lenne túl érdekes. Utóbbihoz a versenytárs leggyorsabb egychipes videokártyáját, a Radeon R9 290X-et vették, bár túl régen adták ki, és egyértelműen kisebb bonyolultságú GPU-ra épül. De egyszerűen nincs más választás az AMD megoldások közül.

Direct3D 10: PS 4.0 pixel shader tesztek (textúrázás, loopolás)

Elhagytuk az elavult DirectX 9 benchmarkokat, mivel az olyan szupererős megoldások, mint a Geforce GTX Titan X nem mutatnak túl jó eredményeket bennük, mivel mindig korlátozza a memória sávszélessége, a kitöltési sebesség vagy a textúra. Arról nem is beszélve, hogy a kétchipes videokártyák nem mindig működnek megfelelően az ilyen alkalmazásokban, nálunk kettő is van.

A RightMark3D második verziója két már ismert PS 3.0 tesztet tartalmaz Direct3D 9 alatt, amelyeket átírtak DirectX 10-re, valamint további két új tesztet. Az első pár hozzáadta az önárnyékolás és a shader szupermintavétel engedélyezésének lehetőségét, ami ráadásul növeli a videochipek terhelését.

Ezek a tesztek nagyszámú textúramintával (akár több száz mintával képpontonként a legnehezebb módban) és viszonylag kis ALU-terheléssel mérik a hurkolt pixel-shader teljesítményét. Más szóval, mérik a textúrák lekérésének sebességét és az elágazás hatékonyságát a pixel shaderben.

Az első pixel shader teszt a Fur lesz. A legalacsonyabb beállításoknál 15-30 textúramintát használ a magasságtérképből és két mintát a fő textúrából. Az Effect detail - "High" mód 40-80-ra növeli a minták számát, a "shader" szuperminta beépítése - akár 60-120 mintára, a "High" módot pedig az SSAA-val együtt a maximális "súlyosság" jellemzi. - 160-320 minta a magassági térképről.

Először nézzük meg azokat a módokat, amelyekben nincs engedélyezve a szupermintavétel, ezek viszonylag egyszerűek, és az "Alacsony" és "Magas" módban az eredmények arányának megközelítőleg azonosnak kell lennie.

Ebben a tesztben a teljesítmény a TMU-k számától és hatékonyságától függ, és az összetett programok végrehajtásának hatékonysága is befolyásolja. A szupermintavételezés nélküli változatban pedig a tényleges kitöltési sebesség és a memória sávszélessége is további hatással van a teljesítményre. A "Magas" szint részletezésekor az eredmények akár másfélszer alacsonyabbak, mint az "Alacsony" esetén.

A nagyszámú textúrakiválasztással járó procedurális szőrmegjelenítés feladataiban, a GCN architektúrára épülő videochipek megjelenésével az AMD már régen magához ragadta a vezetést. Ezekben az összehasonlításokban a mai napig a Radeon kártyák a legjobbak, ami azt jelzi, hogy hatékonyabban hajtják végre ezeket a programokat. Ezt a következtetést a mai összehasonlítás is megerősíti – az általunk vélt Nvidia videokártya még az elavult egylapkás Radeon R9 290X-hez képest is elveszett, nem is beszélve az AMD legközelebbi árversenytársáról.

Az első Direct3D 10 tesztben a Geforce GTX Titan X modell új videokártyája valamivel gyorsabbnak bizonyult, mint a GTX 980 formájában azonos architektúrájú chipre épülő húga, de az utóbbi már nincs messze. mögött - 9-12%. Ez az eredmény a GTX 980 érezhetően alacsonyabb textúrázási sebességével magyarázható, más paraméterekben pedig elmarad, bár a lényeg egyértelműen nem az ALU egységek teljesítményében van. A kétchipes Titan Z gyorsabb, de nem olyan gyors, mint a Radeon R9 295X2.

Nézzük ugyanennek a tesztnek az eredményét, de bekapcsolt "shader" szupermintavétel mellett, ami megnégyszerezi a munkát: ilyen helyzetben valaminek változnia kell, és a memória sávszélessége kitöltési sebességgel kisebb hatással lesz:

Nehéz körülmények között a Geforce GTX Titan X modell új videokártyája már észrevehetően megelőzi az azonos generáció fiatalabb modelljét - a GTX 980-at, tisztességes 33-39%-kal gyorsabb, ami sokkal közelebb áll az elméleti különbséghez. közöttük. A versenytársak lemaradása pedig a Radeon R9 295X2 és R9 290X formájában csökkent – ​​az Nvidia új terméke majdnem utolérte az egychipes Radeont. A kétlapkás azonban jóval előrébb tart, mert az AMD chipek a pixelenkénti számításokat részesítik előnyben, és nagyon erősek az ilyen számításokban.

A következő DX10 teszt az összetett hurkos pixelárnyalatok végrehajtásának teljesítményét méri nagyszámú textúra-lekéréssel, és a Meredek Parallax Mapping nevet kapta. Alacsony beállításoknál 10-50 textúramintát használ a magasságtérképből és három mintát a fő textúrákból. Ha bekapcsolja a nehéz módot önárnyékolással, a minták száma megduplázódik, a szupermintavétel pedig megnégyszerezi ezt a számot. A legösszetettebb tesztmód szupermintavételezéssel és önárnyékolással 80-400 textúraértéket választ ki, vagyis nyolcszor többet, mint az egyszerű mód. Először ellenőrizzük az egyszerű opciókat szupermintavétel nélkül:

A második Direct3D 10 pixel shader teszt gyakorlati szempontból érdekesebb, mivel a parallaxis leképezési változatokat széles körben használják a játékokban, és a nehéz változatokat, mint például a meredek parallaxis leképezést, régóta használják számos projektben, például a Crysisben, Lost Planet és sok más játék. Ráadásul tesztünkben a szupermintavétel mellett bekapcsolható az önárnyékolás, ami körülbelül kétszeresére növeli a videochip terhelését - ezt a módot "High"-nek hívják.

A diagram általánosságban hasonló az előzőhöz, szintén szupermintavétel nélkül, és ezúttal az új Geforce GTX Titan X kicsit közelebb áll a GTX Titan Z-hez, nem annyira veszít a két chipes alaplappal szemben. egy pár Kepler család GPU-n. Eltérő körülmények között az új termék 14-19%-kal előzi meg az Nvidia jelenlegi generációjának korábbi csúcsmodelljét, és még ha az AMD videokártyákkal is összehasonlítjuk, itt valami megváltozott - jelen esetben az új GTX Titan Az X valamivel gyengébb a Radeon R9 290X-nél. A kétchipes R9 295X2 azonban messze mindenki előtt jár. Lássuk, mi változtatja meg a szupermintavételezést:

A szupermintavétel és az önárnyékolás bekapcsolása esetén a feladat nehezedik, két lehetőség együttes beépítése egyszerre csaknem nyolcszorosára növeli a kártyák terhelését, ami komoly teljesítménycsökkenést okoz. A tesztelt videokártyák sebességjelzői között némileg változott a különbség, bár a szupermintavétel beépítése kisebb hatással van, mint az előző esetben.

Az AMD Radeon grafikus megoldások hatékonyabban teljesítenek ebben a D3D10 pixel shader tesztben, mint a versenytárs Geforce kártyák, de az új GM200 chip jobbra változtatja a helyzetet – a Maxwell architektúrára épülő Geforce GTX Titan X kártya már megelőzi a Radeon R9 290X-et minden körülmények között (azonban észrevehetően kevésbé bonyolult GPU alapján). A Hawaii párosra épülő kétchipes megoldás továbbra is vezető helyen áll, de a többi Nvidia megoldáshoz képest nem rossz az új termék. Szinte a kétlapkás Geforce GTX Titan Z szintjén mutatott sebességet, és 28-33%-kal felülmúlta a Geforce GTX 980-at.

Direct3D 10: PS 4.0 Pixel Shader összehasonlítási alapjai (számítástechnika)

A következő néhány pixel shader teszt tartalmazza a minimális számú textúra lekérést, hogy csökkentse a TMU teljesítményének hatását. Nagyszámú aritmetikai műveletet alkalmaznak, és pontosan mérik a videochipek matematikai teljesítményét, az aritmetikai utasítások végrehajtásának sebességét a pixel shaderben.

Az első matematikai teszt ásványi anyag. Ez egy összetett eljárási textúrázási teszt, amely csak két textúra adatmintát és 65 sin és cos utasítást használ.

Az extrém matematikai tesztek eredményei leggyakrabban megfelelnek a frekvenciák és a számítási egységek számának különbségének, de csak hozzávetőlegesen, hiszen az eredményeket befolyásolja a konkrét feladatokban való felhasználásuk eltérő hatékonysága, illetve a meghajtók optimalizálása, illetve a legújabb gyakoriság, ill. energiagazdálkodási rendszerek, és még a memória sávszélességének hangsúlyozása is. A Mineral teszt esetében az új Geforce GTX Titan X modell mindössze 10%-kal gyorsabb, mint az azonos generációból származó GM204 chipre épülő GTX 980-as kártya, és a kétchipes GTX Titan Z sem volt olyan gyors ebben a tesztben. - Valami egyértelműen megakadályozza az Nvidia kártyák megnyitását.

A Geforce GTX Titan X és az AMD versengő alaplapjainak összehasonlítása nem lenne olyan szomorú, ha az R9 290X és a Titan X GPU-i bonyolultságukat tekintve közel állnak egymáshoz. De a GM200 sokkal nagyobb, mint a Hawaii, és a kis győzelme teljesen természetes. Az Nvidia Keplerről Maxwellre történő architektúra-frissítése révén az új lapkák közelebb kerültek a versengő AMD-megoldásokhoz az ilyen tesztekben. De még az olcsóbb kétchipes megoldás, a Radeon R9 295X2 is érezhetően gyorsabb.

Nézzük a shader számítások második tesztjét, amelyet Fire-nek hívnak. Az ALU-hoz nehezebb, és csak egy textúra lekérés van benne, a sin és cos utasítások száma pedig megduplázódott, 130-ra. Lássuk, mi változott a terhelés növekedésével:

A RigthMark második matematikai tesztjében már különböző eredményeket látunk a videokártyákra egymáshoz képest. Tehát az új Geforce GTX Titan X már erősebb (20%-kal) megelőzi a GTX 980-at egy ugyanolyan grafikus architektúrájú chipen, és a kétlapkás Geforce nagyon közel áll az új termékhez - Maxwell sokkal jobban megbirkózik a számítási feladatokkal. jobb, mint Kepler.

Lemaradt a Radeon R9 290X, de ahogy már írtuk, a Hawaii GPU érezhetően egyszerűbb, mint a GM200, és ez a különbség logikus. De bár a kétchipes Radeon R9 295X2 továbbra is vezető szerepet tölt be a matematikai tesztekben, általában az új Nvidia videochip jól teljesített az ilyen feladatokban, bár nem érte el az elméleti különbséget a GM204-hez képest.

Direct3D 10: Geometry Shader tesztek

A RightMark3D 2.0-ban két geometriai árnyékoló sebességteszt létezik, az első opció neve "Galaxy", a technika hasonló a Direct3D korábbi verzióinak "pont spritejéhez". Egy részecskerendszert animál a GPU-n, minden pontból egy geometriai árnyékoló négy csúcsot hoz létre, amelyek részecskéket alkotnak. Hasonló algoritmusokat széles körben kell használni a jövőbeni DirectX 10 játékokban.

Az egyensúly megváltoztatása a geometria shader tesztekben nem befolyásolja a végeredményt, a végső kép mindig pontosan ugyanaz, csak a jelenetfeldolgozási módok változnak. A "GS load" paraméter határozza meg, hogy a számítások melyik shaderben történjenek – csúcsban vagy geometriában. A számítások száma mindig azonos.

Tekintsük a „Galaxy” teszt első változatát, a vertex shaderben végzett számításokkal a geometriai összetettség három szintjére:

A jelenetek különböző geometriai összetettségű sebességeinek aránya minden megoldásnál megközelítőleg azonos, a teljesítmény a pontok számának felel meg, minden lépésnél közel kétszeres az FPS csökkenés. Ez a feladat nagyon egyszerű a nagy teljesítményű modern videokártyák esetében, és a teljesítményt korlátozza a geometriai feldolgozás sebessége, és néha a memória sávszélessége és/vagy kitöltési sebessége.

Az Nvidia és az AMD chipekre épülő videokártyák eredményei közötti különbség általában a kaliforniai cég megoldásai javára szól, ennek oka pedig e cégek chipjeinek geometriai csővezetékeinek eltérése. A legjobb Nvidia videochipek ebben az esetben is sok geometriai feldolgozó egységgel rendelkeznek, így a nyereség nyilvánvaló. A geometriai teszteken a Geforce kártyák mindig versenyképesebbek, mint a Radeon.

Az új Geforce GTX Titan X modell kissé lemarad az előző generációs GPU-k kétlapkás GTX Titan Z kártyájától, de 12-25%-kal felülmúlja a GTX 980-at. A Radeon grafikus kártyák markánsan eltérő eredményeket mutatnak, az R9 295X2 ugyanis egy pár GPU-ra épül, és ebben a tesztben csak ez tudja felvenni a versenyt az újdonsággal, a Radeon R9 290X pedig kívülálló volt. Nézzük meg, hogyan változik a helyzet, amikor a számítások egy részét átvisszük a geometria shaderbe:

Amikor a terhelés megváltozott ebben a tesztben, a számok kissé megváltoztak az AMD kártyák és az Nvidia megoldások esetében. És ez nem igazán változtat semmin. A geometriai árnyékolók ezen tesztjében szereplő videokártyák rosszul reagálnak a GS terhelési paraméterének változásaira, amely felelős a számítások egy részének átviteléért a geometria árnyékolóba, így a következtetések ugyanazok maradnak.

Sajnos a "Hyperlight" a geometria árnyékolók második tesztje, amely egyszerre több technika használatát mutatja be: példányosítás, stream kimenet, pufferterhelés, amely dinamikus geometria létrehozását használja két pufferre rajzolással, valamint egy új Direct3D 10 funkció. - stream kimenet, a Minden modern AMD grafikus kártya egyszerűen nem működik. Valamikor egy másik Catalyst illesztőprogram-frissítés miatt ez a teszt leállt a Catalyst kártyákon, és ezt már évek óta nem javították.

Direct3D 10: textúra lekérési sebesség a vertex shaderekből

A "Vertex Texture Fetch" tesztek nagyszámú textúra lekérésének sebességét mérik egy vertex shaderből. A tesztek lényegében hasonlóak, tehát a „Föld” és a „Hullámok” tesztben a kártyák eredményei közötti aránynak megközelítőleg azonosnak kell lennie. Mindkét teszt textúra mintavételi adatokon alapuló elmozdulásleképezést használ, az egyetlen lényeges különbség, hogy a "Waves" teszt feltételes ugrásokat használ, míg a "Föld" teszt nem.

Tekintsük az első „Föld” tesztet, először „Effect Detail Low” módban:

Korábbi vizsgálataink kimutatták, hogy a kitöltési sebesség és a memória sávszélessége is befolyásolhatja ennek a tesztnek az eredményét, ami jól látható az Nvidia kártyák eredményein, különösen egyszerű módokban. Az Nvidia új videokártyája ebben a tesztben egyértelműen alacsonyabb sebességet mutat, mint amilyennek lennie kellene - az összes Geforce kártya megközelítőleg azonos szintűnek bizonyult, ami egyértelműen nem felel meg az elméletnek. Minden módban egyértelműen belefutnak valami memóriasávszélességbe. A Radeon R9 295X2 azonban közel sem kétszer olyan gyors, mint az R9 290X.

Az AMD egylapkás kártyája egyébként ezúttal erősebbnek bizonyult, mint az összes Nvidia kártyája light módban, és hozzávetőlegesen a saját szintjén kemény módban. Nos, összehasonlításunk éllovasa ismét a kétchipes Radeon R9 295X2 lett. Nézzük meg a teljesítményt ugyanabban a tesztben, megnövekedett számú textúra lekéréssel:

A diagramon látható helyzet némileg változott, az AMD egylapkás megoldása nehéz módokban lényegesen több Geforce kártyát veszített. Az új Geforce GTX Titan X modell akár 14%-kal gyorsabb sebességet mutatott, mint a Geforce GTX 980, és a legkönnyebb mód kivételével minden üzemmódban felülmúlta az egylapkás Radeont – mivel ugyanazt a hangsúlyt helyezte valamire. Ha az új terméket az AMD dual-chipes megoldásával hasonlítjuk össze, akkor a Titan X szoros teljesítményt felmutató, de light módban lemaradva tudott harcolni heavy módban.

Tekintsük a vertex shaderekből származó textúra lekérések második tesztjének eredményeit. A Waves teszt kevesebb mintát tartalmaz, de feltételes ugrásokat használ. A bilineáris textúra minták száma ebben az esetben csúcsonként legfeljebb 14 ("Effect detail Low") vagy 24 ("Effect detail High"). A geometria összetettsége az előző teszthez hasonlóan változik.

A második "Waves" vertex textúrázási teszt eredményei semmiben sem hasonlítanak az előző diagramokon látottakhoz. Az összes Geforce sebességi teljesítménye ebben a tesztben súlyosan leromlott, és az új Nvidia Geforce GTX Titan X modell csak valamivel gyorsabb sebességet mutat, mint a GTX 980, lemaradva a kétchipes Titan Z mögött. A versenytársakhoz képest mindkét Radeon kártya képes volt hogy minden üzemmódban a legjobb teljesítményt mutassák ebben a tesztben. Tekintsük ugyanezen probléma második változatát:

A feladat összetettségével a második textúra-mintavételi tesztben minden megoldás sebessége csökkent, de az Nvidia videokártyák jobban szenvedtek, így a vizsgált modell is. A következtetésekben szinte semmi sem változik, az új Geforce GTX Titan X modell akár 10-30%-kal gyorsabb, mint a GTX 980, lemaradva mind a kétchipes Titan Z, mind a Radeon kártyák mögött. A Radeon R9 295X2 messze előrébb járt ezekben a tesztekben, és elméleti szempontból ez egyszerűen megmagyarázhatatlan, kivéve az Nvidia elégtelen optimalizálását.

3DMark Vantage: Funkciótesztek

A 3DMark Vantage csomagból származó szintetikus tesztek megmutatják, miről maradtunk le korábban. Az ebből a tesztcsomagból származó szolgáltatástesztek DirectX 10 támogatással rendelkeznek, továbbra is relevánsak és érdekesek, mert eltérnek a miénktől. A csomagban található legújabb Geforce GTX Titan X videokártya eredményeit elemezve néhány olyan új és hasznos következtetést vonunk le, amelyek a RightMark család csomagjaiból származó tesztek során elkerültek bennünket.

1. jellemző teszt: Textúra kitöltés

Az első teszt a textúra lekérő egységek teljesítményét méri. Egy téglalap kitöltésére szolgál egy kis textúrából kiolvasott értékekkel, több textúrakoordinátával, amelyek minden képkockát megváltoztatnak.

Az AMD és Nvidia videokártyák hatékonysága a Futuremark textúra tesztjében meglehetősen magas, a különböző modellek végső számai pedig közel állnak a megfelelő elméleti paraméterekhez. A GTX Titan X és a GTX 980 közötti sebességkülönbség tehát 38%-os volt a GM200-ra épülő megoldás javára, ami közel áll az elmélethez, mert az új termék másfélszer több TMU egységet tartalmaz. , de alacsonyabb frekvencián működnek. Természetesen megmarad a lemaradás a dual GTX Titan Z mögött, hiszen a két GPU gyorsabb textúrájú.

Ami az új csúcs Nvidia videokártya textúrázási sebességének összehasonlítását illeti a versenytárs hasonló árú megoldásaival, itt az újdonság alulmúlja a kétchipes riválist, amely az árrésben relatív szomszéd, de megelőzi a Radeon R9 290X, bár nem túl sok. Ennek ellenére az AMD grafikus kártyák még mindig jobban teljesítenek a textúrázás terén.

2. jellemzőteszt: Színkitöltés

A második feladat a kitöltési arány teszt. Nagyon egyszerű pixel shader-t használ, amely nem korlátozza a teljesítményt. Az interpolált színértéket a rendszer egy képernyőn kívüli pufferbe (renderelési cél) írja alfa keveréssel. 16 bites FP16 képernyőn kívüli puffert használ, amely a leggyakrabban használt HDR-megjelenítést használó játékokban, így ez a teszt meglehetősen időszerű.

A második 3DMark Vantage alteszt számai a ROP egységek teljesítményét mutatják, a videomemória sávszélességének (ún. "effektív kitöltési arány") figyelembevétele nélkül, a teszt pedig pontosan a ROP teljesítményét méri. A ma áttekintett Geforce GTX Titan X kártya észrevehetően megelőzi mindkét Nvidia kártyát, a GTX 980-at és még a GTX Titan Z-t is, és akár 45%-kal is felülmúlja a GM204-en alapuló egylapkás kártyát – a ROP-ok számát és azok számát tekintve. A Maxwell architektúra csúcs GPU-jának hatékonysága kiváló!

És ha összehasonlítjuk az új Geforce GTX Titan X videokártya jelenetkitöltési sebességét az AMD videokártyákkal, akkor a tesztben figyelembe vett Nvidia kártya mutatja a legjobb jelenetkitöltési sebességet még a legerősebb kétchipes Radeon R9-hez képest is. 295X2, nem beszélve a jelentős lemaradású Radeon R9 290X-ről. A nagyszámú ROP blokk és a framebuffer adattömörítés hatékonyságát szolgáló optimalizálás elvégezte a feladatát.

3. jellemző teszt: Parallax okklúziós leképezés

Az egyik legérdekesebb funkcióteszt, mivel ezt a technikát már használják a játékokban. Egy négyszöget (pontosabban két háromszöget) rajzol a speciális, összetett geometriát utánzó Parallax Occlusion Mapping technikával. Meglehetősen erőforrás-igényes sugárkövetési műveleteket és nagy felbontású mélységtérképet használnak. Ezt a felületet is árnyékolják a nehéz Strauss-algoritmus segítségével. Ez egy nagyon összetett és nehéz pixel shader tesztje egy videochiphez, amely számos textúra lekérést tartalmaz sugárkövetés, dinamikus elágazás és összetett Strauss-világítási számítások során.

Ez a 3DMark Vantage csomagból származó teszt abban különbözik a korábbiaktól, hogy a benne lévő eredmények nemcsak a matematikai számítások sebességétől, az elágazás-végrehajtás hatékonyságától, vagy a textúralehívások sebességétől függenek, hanem egyszerre több paramétertől is. A feladat nagy sebességének eléréséhez fontos a GPU megfelelő egyensúlya, valamint az összetett shaderek végrehajtásának hatékonysága.

Ebben az esetben mind a matematikai, mind a textúra teljesítménye fontos, és a 3DMark Vantage "szintetikájában" az új Geforce GTX Titan X kártya több mint harmadával gyorsabbnak bizonyult, mint az azonos Maxwell architektúrájú GPU-n alapuló modell. . És még a két chipes Kepler is a GTX Titan Z formájában kevesebb mint 10%-kal felülmúlta az újdonságot.

Az Nvidia egychipes felső kategóriás kártyája egyértelműen felülmúlta az egychipes Radeon R9 290X-et ebben a tesztben, de mindkettőt komolyan felülmúlja a kétchipes Radeon R9 295X2. Az AMD GPU-i ebben a feladatban valamivel hatékonyabbak, mint az Nvidia chipek, és az R9 295X2-ben kettő van belőlük.

4. szolgáltatásteszt: GPU-szövet

A negyedik teszt azért érdekes, mert videochip segítségével számítja ki a fizikai kölcsönhatásokat (szövetimitáció). Csúcsszimulációt alkalmazunk, a vertex és a geometria shader kombinált működésével, több lépéssel. Használja a stream out funkciót a csúcsok egyik szimulációs lépésből a másikba való átviteléhez. Így a vertex és geometria shaderek végrehajtásának teljesítményét és a stream out sebességet teszteljük.

A renderelési sebesség ebben a tesztben is több paramétertől függ egyszerre, és a fő befolyásoló tényező a geometriafeldolgozás teljesítménye és a geometria árnyékolók hatékonysága kell, hogy legyen. Vagyis az Nvidia chipek erősségei meg kellene, hogy látszódjanak, de sajnos - nagyon furcsa eredményt láttunk (újra ellenőrizve), az új Nvidia videokártya finoman szólva sem túl nagy sebességet mutatott. A Geforce GTX Titan X ebben a résztesztben az összes megoldás közül a legrosszabb eredményt mutatta, még a GTX 980-tól is csaknem 20%-kal lemaradva!

Nos, a Radeon kártyákkal való összehasonlítás ebben a tesztben ugyanolyan csúnya egy új termék esetében. Annak ellenére, hogy a geometriai végrehajtó egységek elméletileg kisebb száma és az AMD chipek geometriai teljesítménybeli lemaradása a konkurens megoldásokhoz képest, mindkét Radeon kártya nagyon hatékonyan működik ebben a tesztben, és összehasonlításban felülmúlja mindhárom bemutatott Geforce kártyát. Ismét úgy tűnik, hogy az Nvidia illesztőprogramjaiban nincs optimalizálva egy adott feladathoz.

5. szolgáltatásteszt: GPU részecskék

Teszt a hatások fizikai szimulálására videochip segítségével kiszámított részecskerendszereken. Csúcsszimulációt is alkalmaznak, minden csúcs egyetlen részecskét képvisel. A Stream out ugyanarra a célra használható, mint az előző tesztben. Több százezer részecskét számítanak ki, mindegyiket külön animálják, és a magassági térképpel való ütközésüket is kiszámítják.

Hasonlóan az egyik RightMark3D 2.0 tesztünkhöz, a részecskéket egy geometriai árnyékolóval rajzoljuk meg, amely minden pontból négy csúcsot hoz létre a részecske kialakításához. De a teszt leginkább a shader blokkokat tölti be csúcsszámítással, a stream out is tesztelésre kerül.

A 3DMark Vantage második "geometrikus" tesztjén a helyzet komolyan megváltozott, ezúttal már minden Geforce többé-kevésbé normális eredményt mutat, bár a kétchipes Radeon továbbra is az élen marad. Az új GTX Titan X modell 24%-kal gyorsabb, mint testvére, a GTX 980, és nagyjából ugyanennyivel elmarad az előző generációs GPU-n lévő, kettős GPU-s Titan Z-től.

Az Nvidia újdonságának összehasonlítása az AMD versengő videokártyáival ezúttal pozitívabb – a rivális cég két kártyája között mutatta meg az eredményt, és kiderült, hogy közelebb áll a két GPU-val rendelkező Radeon R9 295X2-höz. Az újdonság messze megelőzi a Radeon R9 290X-et, és ez jól mutatja, hogy mennyire különbözik egymástól a két látszólag hasonló teszt: a szövetszimuláció és a részecskerendszer szimuláció.

6. szolgáltatásteszt: Perlin-zaj

A Vantage csomag utolsó funkciótesztje a videochip matematikailag intenzív tesztje, a Perlin zajalgoritmus több oktávját számolja ki a pixel shaderben. Mindegyik színcsatorna a saját zajfunkcióját használja a videochip terhelésének növelésére. A Perlin zaj egy szabványos algoritmus, amelyet gyakran használnak a procedurális textúrában, sok matematikai számítást használ.

Ebben az esetben a megoldások teljesítménye nem egészen egyezik az elmélettel, bár közel áll ahhoz, amit a hasonló teszteknél láttunk. A Futuremark csomagból származó matematikai tesztben, amely a videochipek csúcsteljesítményét mutatja limitfeladatokban, az eredmények eltérő eloszlását látjuk a tesztcsomagunk hasonló tesztjeihez képest.

Régóta tudjuk, hogy a GCN architektúrájú AMD videochipek még mindig jobban megbirkóznak az ilyen feladatokkal, mint a versenytársak megoldásai, különösen azokban az esetekben, amikor intenzív "matematika" történik. De az Nvidia új csúcsmodellje a nagy GM200 chipre épül, így a Geforce GTX Titan X észrevehetően jobban teljesített, mint a Radeon R9 290X ebben a tesztben.

Ha az új terméket a Geforce GTX 900 család legjobb modelljével hasonlítjuk össze, akkor ebben a tesztben közel 40% volt a különbség köztük - természetesen a ma mérlegelendő videókártya javára. Ez is közel áll az elméleti különbséghez. Nem rossz eredmény a Titan X-nél, csak a kétchipes Radeon R9 295X2 volt előrébb, és messze is.

Direct3D 11: Shaderek számítása

Az Nvidia nemrégiben kiadott csúcstechnológiás megoldásának teszteléséhez a DirectX 11 szolgáltatásait, például a tessellációt és a számítási árnyékolókat használó feladatokhoz a Microsoft, az Nvidia és az AMD SDK-példáit és demóit használtuk.

Először is megvizsgáljuk a Compute shadereket használó benchmarkokat. Megjelenésük az egyik legfontosabb újítás a DX API legújabb verzióiban, már a modern játékokban is alkalmazzák különféle feladatok elvégzésére: utófeldolgozás, szimuláció, stb. a DirectX SDK-ból, utófeldolgozással, amely pixel- és számítási árnyékolókat használ.

A számítási sebesség a számítási és pixel shaderekben az összes AMD és Nvidia kártya esetében megközelítőleg azonos, eltérést csak a korábbi architektúrák GPU-jain alapuló videokártyáknál figyeltek meg. Korábbi tesztjeink alapján egy probléma eredménye gyakran nem annyira a matematikai teljesítménytől és a számítási hatékonyságtól függ, hanem más tényezőktől, például a memória sávszélességétől.

Ebben az esetben az új csúcskategóriás videokártya gyorsabb, mint az egylapkás Geforce GTX 980 és Radeon R9 290X, de mögötte a kétchipes R9 295X2, ami érthető, mert egy pár R9 290X teljesítményével rendelkezik. . Ha az új terméket a Geforce GTX 980-hoz hasonlítjuk, akkor a ma számításba vett kaliforniai cég alaplapja 34-36%-kal gyorsabb - pontosan az elmélet szerint.

A második számítási árnyékoló teszt szintén a Microsoft DirectX SDK-ból származik, és egy N-test (N-test) gravitációs számítási problémát mutat be, egy dinamikus részecskerendszer szimulációját, amely fizikai erőknek, például gravitációnak van kitéve.

Ebben a tesztben leggyakrabban az összetett matematikai számítások végrehajtásának gyorsaságán, a geometriai feldolgozáson és az elágazásos kódvégrehajtás hatékonyságán van a hangsúly. Ebben a DX11-es tesztben pedig teljesen eltérőnek bizonyult az erőkiosztás két különböző cég megoldásai között - egyértelműen a Geforce videokártyák javára.

A különböző lapkákra épülő Nvidia-megoldások párjának eredményei azonban szintén furcsaak - a Geforce GTX Titan X és a GTX 980 szinte egyenrangú, mindössze 5%-os teljesítménykülönbség választja el őket egymástól. A kétchipes renderelés nem működik ebben a feladatban, így a riválisok (egylapkás és kétlapkás Radeon modellek) nagyjából azonos sebességűek. Nos, a GTX Titan X háromszor is megelőzi őket. Úgy tűnik, hogy ezt a feladatot sokkal hatékonyabban lehet kiszámítani a Maxwell architektúrájú GPU-kon, amit korábban megjegyeztünk.

Direct3D 11: Tesselációs teljesítmény

A számítási árnyékolók nagyon fontosak, de a Direct3D 11 másik jelentős újdonsága a hardveres tesszelláció. Az Nvidia GF100-ról szóló elméleti cikkünkben részletesen megvizsgáltuk. A Tessellation-t már régóta használják a DX11-es játékokban, mint például a STALKER: Call of Pripyat, DiRT 2, Aliens vs Predator, Metro Last Light, Civilization V, Crysis 3, Battlefield 3 és mások. Némelyikük tesszellációt használ karaktermodellekhez, mások valósághű vízfelületet vagy tájat szimulálnak.

Számos különböző séma létezik a grafikus primitívek particionálására (tesselláció). Például phong tesselláció, PN háromszögek, Catmull-Clark felosztás. Tehát a PN-háromszögek csempézési sémáját a STALKER: Call of Pripyat és a Metro 2033 - Phong tesszelláció használja. Ezek a módszerek viszonylag gyorsan és egyszerűen beépíthetők a játékfejlesztési folyamatba és a meglévő motorokba, ezért váltak népszerűvé.

Az első tessellációs teszt az ATI Radeon SDK-ból származó Detail Tessellation példa lesz. Nemcsak tesszellációt valósít meg, hanem két különböző pixelenkénti feldolgozási technikát is: a normál térképek egyszerű átfedését és a parallaxis elzáródásos leképezést. Nos, hasonlítsuk össze az AMD és az Nvidia DX11 megoldásait különböző körülmények között:

Az egyszerű bumpmapping tesztnél a táblák sebessége nem nagyon fontos, mivel ez a feladat már régóta túl egyszerűvé vált, és a teljesítmény a memória sávszélességétől vagy kitöltési sebességétől függ. A felülvizsgálat mai hőse 23%-kal megelőzi a GM204 chipre épülő Geforce GTX 980 korábbi csúcsmodelljét, és némileg alulmúlja versenytársát a Radeon R9 290X formájában. A kétchipes változat még egy kicsit gyorsabb is.

A bonyolultabb pixelenkénti számításokkal végzett második résztesztben az új termék már 34%-kal gyorsabb a Geforce GTX 980-nál, ami közelebb áll a köztük lévő elméleti különbséghez. De a Titan X ezúttal már egy kicsivel gyorsabb, mint egy egyetlen Hawaiira épülő, egychipes feltételes versenytárs. Mivel a Radeon R9 295X2 két chipje tökéletesen működik, ez a feladat még gyorsabban teljesít rajta. Bár a matematikai számítások teljesítménye pixel shaderben magasabb a GCN architektúra chipeknél, a Maxwell architektúra megoldások megjelenése javította az Nvidia megoldások pozícióit.

A könnyű tesszellációs résztesztben a nemrég bejelentett Nvidia kártya ismét csak negyeddel gyorsabb, mint a Geforce GTX 980 - a sebességet talán a memória sávszélessége korlátozza, hiszen a textúrának ebben a tesztben szinte semmi hatása nincs. Ha ebben a résztesztben összehasonlítjuk az új terméket az AMD lapokkal, akkor az Nvidia kártya ismét alulmúlja mindkét Radeont, mivel ebben a tesszellációs tesztben a háromszög hasítása nagyon mérsékelt, és a geometriai teljesítmény nem korlátozza az általános renderelési sebességet.

A második tesszellációs teljesítményteszt egy újabb példa az ATI Radeon SDK - PN Triangles 3D fejlesztői számára. Valójában mindkét példa benne van a DX SDK-ban is, így biztosak vagyunk abban, hogy a játékfejlesztők ezek alapján készítik el saját kódjukat. Ezt a példát egy másik tessellációs tényezővel teszteltük, hogy megtudjuk, mennyire befolyásolja az általános teljesítményt.

Ebben a tesztben összetettebb geometriát alkalmazunk, ezért a különböző megoldások geometriai erejének összehasonlítása eltérő következtetéseket von le. Az anyagban bemutatott modern megoldások meglehetősen jól bírják a könnyű és közepes geometriai terheléseket, nagy sebességet mutatva. De míg a Hawaii egy és két GPU-ja a Radeon R9 290X-ben és R9 295X2-ben jól teljesít világos körülmények között, az Nvidia kártyái a legerősebb teljesítményt nyújtják. A ma bemutatott Geforce GTX Titan X tehát a legnehezebb módokban már érezhetően jobban mutatja a sebességet, mint a kétlapkás Radeon.

Ami a GM200 és GM204 chipekre épülő Nvidia kártyák összehasonlítását illeti, a ma vizsgált Geforce GTX Titan X modell a geometriai terhelés növekedésével növeli az előnyét, mivel könnyű módban minden a memória sávszélességétől függ. Ennek köszönhetően az új termék a mód összetettségétől függően akár 31%-kal is megelőzi a Geforce GTX 980 kártyát.

Nézzük meg egy másik teszt, az Nvidia Realistic Water Terrain demóprogram, más néven Sziget eredményeit. Ez a demó tesszellációt és elmozdulás-leképezést használ, hogy valósághű megjelenésű óceánfelszínt és domborzatot jelenítsen meg.

Az Island-teszt nem pusztán szintetikus teszt a tisztán geometriai GPU-teljesítmény mérésére, mivel összetett pixel- és számítási shadereket is tartalmaz, és ez a terhelés közelebb áll a valódi játékokhoz, amelyek minden GPU-egységet használnak, és nem csak geometrikusakat, mint az előzőekben. geometriai tesztek. Bár a geometria feldolgozó egységek terhelése továbbra is a fő terhelés marad, például ugyanaz a memória sávszélessége is befolyásolhatja.

Az összes videokártyát négy különböző tessellációs tényezővel teszteljük – ebben az esetben a beállítást Dynamic Tessellation LOD-nak hívják. Az első háromszög hasítási tényezővel a sebességet nem korlátozza a geometriai blokkok teljesítménye, és a Radeon videokártyák is meglehetősen magas eredményt mutatnak, különösen a kétchipes R9 295X2, amely még a bejelentett Geforce GTX Titan X kártya eredményét is felülmúlja. , de már a következő geometriai terhelési szinteken csökken a Radeon kártyák teljesítménye, és az Nvidia megoldások vezetnek.

A GM200-as videochipre épülő új Nvidia kártya előnye riválisaival szemben az ilyen tesztekben már elég tisztességes, sőt többszörös. Ha összehasonlítjuk a Geforce GTX Titan X-et a GTX 980-al, akkor a teljesítményük közötti különbség eléri a 37-42%-ot, amit az elmélet tökéletesen megmagyaráz, és pontosan megfelel annak. A Maxwell GPU-k észrevehetően hatékonyabbak vegyes terhelés esetén, gyorsan váltanak a grafikáról a számítástechnikára, majd vissza, és a Titan X sokkal gyorsabb, mint a kétlapkás Radeon R9 295X2 ebben a tesztben.

Az új csúcskategóriás GM200 GPU-n alapuló új Nvidia Geforce GTX Titan X videokártya szintetikus tesztjei eredményeinek elemzése, valamint a két különálló videochip gyártó más videokártya-modelljei eredményeinek elemzése után arra a következtetésre juthatunk, hogy a ma fontolóra vett videokártya legyen a leggyorsabb a piacon, versenyezve az AMD legerősebb kétchipes grafikus kártyájával. Általánosságban elmondható, hogy ez a Geforce GTX Titan Black jó követője - egy nagy teljesítményű egychipes.

Az Nvidia új grafikus kártyája meglehetősen erős eredményeket mutat a szintetikus anyagok terén - sok tesztben, bár nem mindenben. A Radeon és a Geforce hagyományosan eltérő erősséggel rendelkezik. Számos teszt során a Radeon R9 295X2 modell két GPU-ja gyorsabb volt, többek között a nagyobb teljes memória sávszélesség és textúrázási sebesség miatt, valamint a számítási feladatok nagyon hatékony végrehajtása miatt. De más esetekben a Maxwell architektúra legjobb grafikus processzora nyer vissza, különösen a geometriai tesztekben és a tesszellációs példákban.

A valódi játékalkalmazásokban azonban minden némileg más lesz, mint a "szintetika", és a Geforce GTX Titan X-nek az egychipes Geforce GTX 980 szintjénél lényegesen magasabb sebességet kell mutatnia, és még inkább a Radeon R9 290X-nél. Az újdonságot pedig nehéz összehasonlítani a kétchipes Radeon R9 295X2-vel - a két vagy több GPU-ra épülő rendszereknek megvannak a maguk kellemetlen tulajdonságai, bár megfelelő optimalizálás mellett az átlagos képkockasebesség növekedését biztosítják.

De az építészeti jellemzők és a funkcionalitás egyértelműen az Nvidia prémium megoldása mellett szól. A Geforce GTX Titan X sokkal kevesebb energiát fogyaszt, mint ugyanaz a Radeon R9 295X2, energiahatékonyság szempontjából pedig nagyon erős az új Nvidia modell – ez a Maxwell architektúra jellegzetessége. Nem szabad megfeledkeznünk az Nvidia új termékének nagyobb funkcionalitásáról sem: támogatja a DirectX 12 12.1-es funkciószintjét, a VXGI hardveres gyorsítást, az új MFAA élsimítási módszert és más technológiákat. A piaci nézőpontról már az első részben beszéltünk - az elit szegmensben nem sok múlik az áron. A lényeg az, hogy a megoldás a lehető legfunkcionálisabb és produktívabb legyen a játékalkalmazásokban. Egyszerűen fogalmazva, mindenben ez volt a legjobb.

Csak annak érdekében, hogy értékeljük az újdonság sebességét a játékokban, anyagunk következő részében meghatározzuk a Geforce GTX Titan X teljesítményét a játékprojekteinkben, és összehasonlítjuk a versenytársak teljesítményével, beleértve az indoklás értékelését is. az újdonság kiskereskedelmi árából a rajongók szemszögéből, és azt is megtudja, mennyivel gyorsabb a Geforce GTX 980 már a játékokban.

Asus ProArt PA249Q monitor munkahelyi számítógéphez a cég által biztosított Asustek A cég által biztosított Cougar 700K billentyűzet munkahelyi számítógéphez Puma

A Maxwell architektúrára épülő nagy GPU megjelenése elkerülhetetlen volt, a kérdés csak az, hogy mikor és milyen formában. Ennek eredményeként jogos volt az a feltételezés, hogy a GM200 megismétli a Kepler családból származó megfelelője, a GK110 útját, amely a TITAN márkanév alatti gyorsító részeként debütál.

NVIDIA GeForce GTX TITAN X

Ezúttal nagyon kevés idő volt az új videokártya tesztelésére, így az áttekintés tömörítve lesz. A felesleges érveket elvetve, térjünk a lényegre. A Maxwell architektúrát a Keplerhez képest a streaming multiprocessors (SMM) egyszerűsített és optimalizált szerkezete jellemzi, amely lehetővé tette az SMM terület radikális csökkentését, miközben a korábbi teljesítmény 90% -át megőrizte. Ezenkívül a GM200 a Maxwell architektúra második iterációjához tartozik, akárcsak a korábban kiadott GM204 (GeForce GTX 970/980) és GM206 (GeForce GTX 960) lapkák. Ezért a PolyMorph Engine 3.0-s verziójú geometriájú motorral rendelkezik, és hardver szinten támogatja néhány számítási funkciót, amelyek valószínűleg az új funkciószintű Direct3D 12-ben fognak szerepelni, és amelyek az NVIDIA VXGI globális megvilágításának hardveres gyorsításához is szükségesek. technológia. Az első és második generációs Maxwell architektúra részletesebb leírásához a GeForce GTX 750 Ti és a GeForce GTX 980 áttekintéseit ajánljuk.

NVIDIA GM200 GPU blokkdiagram

Minőségileg a GM200 GPU és az alacsonyabb kategóriás GPU-k a sorozatban nem különböznek egymástól, csak a GM206 rendelkezik dedikált H.265 (HEVC) videodekóderrel. A különbségek pusztán mennyiségiek. A GM200 soha nem látott számú tranzisztort tartalmaz - 8 milliárdot, tehát másfél-kétszer több számítási egység van benne, mint a GM204-ben (attól függően, hogy melyiket kell számolni). Ezen felül a 384 bites memóriabusz ismét üzembe helyezte. A GK110 chiphez képest az új zászlóshajó GPU nem olyan ijesztően erős, de például a ROP-ok száma itt a duplája, amivel a GM200 jól felkészült a 4K felbontásra.

A kettős pontosságú számítások támogatása szempontjából a GM200 nem különbözik a GM204-től. Minden SMX csak négy FP64-kompatibilis CUDA magot tartalmaz, így a kombinált teljesítmény ezen terhelés mellett az FP32 1/32-e.

⇡ Műszaki adatok, ár

A TITAN X a GM200 mag legerősebb változatát használja aktív számítási egységek teljes készletével. A GPU alapfrekvenciája 1000 MHz, a Boost Clock 1076 MHz. A memória a Maxwell-alapú termékek szabványos, 7012 MHz-es frekvenciáján működik. De a hangerő példátlan a játék videokártyák esetében - 12 GB (és a TITAN X elsősorban játék videokártya, legalábbis addig, amíg a GM200 megjelent a fő, "számozott" GeForce vonalban).

A TITAN X javasolt kiskereskedelmi árait a felülvizsgálat közzététele előtti utolsó órákban közölték. Az amerikai piacon az árat 999 dollárban határozzák meg - ugyanaz, mint az első GK110 alapú TITAN.

Jegyzet: A táblázatban szereplő árak a GeForce GTX 780 Ti és a TITAN Black esetében az utóbbi leállításának idején érvényesek.

Modell

GPU

videó memória

TDP, W

RRP* az amerikai piacra (adók nélkül), $

kód név

Tranzisztorok száma, millió

Órajel frekvencia, MHz: Alap órajel / Boost Clock

CUDA magok száma

A textúra egységek száma

Buszszélesség, bit

Chip típusa

Órajel frekvencia: valós (effektív), MHz

Kötet, MB

GeForce GTX 780 Ti

GeForce GTX TITAN fekete

GeForce GTX 980

GeForce GTX TITAN X

⇡ Építés

A legelső "Titan" óta az NVIDIA ugyanazt a hűtőrendszert használja a csúcskategóriás videokártyákban, némi eltéréssel. A TITAN X csak egy teljesen fekete testtel tűnik ki elődei közül (csak két betét maradt festetlenül az oldalán).

NVIDIA GeForce GTX TITAN X

A kísérletileg GeForce GTX 980-zal felszerelt hátlap ismét hiányzik a TITAN X-ből, annak ellenére, hogy a memórialapkák egy része az alaplap hátoldalára van forrasztva. Bár a GDDR5 chipek általában nem igényelnek további hűtést.

NVIDIA GeForce GTX TITAN X hátulnézet

De visszatért a gőzkamrával ellátott hűtőborda, amelyet a GTX 980-ban egy egyszerűbb lehetőség váltott fel.

NVIDIA GeForce GTX TITAN X, hűtőrendszer

NVIDIA GeForce GTX TITAN X, hűtőrendszer

NVIDIA GeForce GTX TITAN X, hűtőrendszer

A videokártya három DisplayPort csatlakozóval rendelkezik, és egy-egy - HDMI és Dual-Link DVI-I.

⇡ Díj

A nyomtatott áramköri lap kialakítása, ami nem meglepő, asszociációkat ébreszt a GK110 chipre épülő videoadapterek sorozatával. A feszültségátalakító a 6 + 2 séma szerint épül fel (a fázisok száma a GPU és a memória chipek táplálásához). A tápellátás egy 8 tűs és egy 6 tűs csatlakozón keresztül történik. De itt látjuk először az ON Semiconductor NCP81174 GPU teljesítményvezérlőt.

24 db 7 GHz névleges frekvenciájú SK hynix H5GQ4H24MFR-R2C memóriachip található a tábla mindkét oldalán.

NVIDIA GeForce GTX TITAN X, nyomtatott áramköri lap, előlap

NVIDIA GeForce GTX TITAN X, nyomtatott áramköri lap, hátoldal

Tesztállvány, vizsgálati módszertan

Az energiatakarékos CPU-technológiák minden tesztben le vannak tiltva. Az NVIDIA illesztőprogram beállításaiban a CPU van kiválasztva processzorként a PhysX számításhoz. Az AMD illesztőprogramokban a Tesselation beállítás átkerült az AMD Optimized beállításról az Alkalmazásbeállítások használata beállításra.

Mérési szempontok: szintetikus
Program Beállítások Engedély
3D Mark 2011 Extrém teszt - -
3DMark Fire Strike teszt (nem extrém) - -
Unigine Heaven 4 DirectX 11 max. minőség, tesselláció Extreme módban AF 16x, MSAA 4x 1920×1080 / 2560×1440
Benchmark: játékok
Program Beállítások Anizotróp szűrés, teljes képernyős élsimítás Engedély
Far Cry 3 + FRAPS DirectX 11 max. minőség, HDAO. A Secure the Outpost küldetés kezdete AF, MSAA 4x 2560×1440/3840×2160
Tomb Raider. Beépített benchmark Max. minőség AF 16x, SSAA 4x 2560×1440/3840×2160
Bioshock Infinite. Beépített benchmark Max. minőség. Utófeldolgozás: Normál AF 16x, FXAA 2560×1440/3840×2160
Crysis 3 + FRAPS Max. minőség. A Post Human küldetés kezdete AF 16x, MSAA 4x 2560×1440/3840×2160
Metró utolsó fény. Beépített benchmark Max. minőség AF 16x, SSAA 4x 2560×1440/3840×2160
Company of Heroes 2. Beépített benchmark Max. minőség AF, SSAA 4x 2560×1440/3840×2160
Battlefield 4 + FRAPS Max. minőség. A tashgari küldetés kezdete AF 16x, MSAA 4x + FXAA 2560×1440/3840×2160
Tolvaj. Beépített benchmark Max. minőség AF 16x, SSAA 4x + FXAA 2560×1440/3840×2160
Alien: Elszigetelődés Max. minőség AF 16x, SMAA T2X 2560×1440/3840×2160

Teszt résztvevői

A következő videokártyák vettek részt a teljesítménytesztben:

  • NVIDIA GeForce GTX TITAN X (1000/7012 MHz, 12 GB);

⇡ Órajelek, energiafogyasztás, hőmérséklet, túlhajtás

A GM110 olyan alapfrekvencián fut, amelyet a GK110 még soha nem ért el a referencia specifikációiban. Ezenkívül a GPU Boost nagyon agresszíven működik, 1177 MHz-ig növelve a frekvenciát. Ugyanakkor a processzor megelégszik 1,174 V-os feszültséggel, ami alacsonyabb a GK110 alapú csúcstermékekhez képest.

A BIOS-beállítások lehetővé teszik, hogy a teljesítménykorlátot 110%-ra növelje, és 83 mV-ot adjon a GPU maximális feszültségéhez. Valójában a feszültség csak 1,23 V-ra emelkedik, ugyanakkor több további frekvenciafokozat / VID nyílik meg: az alapfrekvencia és a hangszóróban rögzített maximális frekvencia közötti különbség 203 MHz-re nő.

A videokártya túlhajtása lehetővé tette az 1252 MHz-es alapfrekvencia elérését, a dinamikában pedig 1455 MHz-ig terjedő frekvenciákat figyeltek meg. A videomemória 1,2 GHz-et tudott hozzáadni, sikeresen működve 8212 MHz-es effektív frekvencián.

Alap órajel, MHz Max. Boost Clock, MHz Alap órajel, MHz (túlhúzás) Max. regisztrált Boost Clock, MHz (túlhúzás)
GeForce GTX TITAN X 1000 1177 (+177) 1252 1455 (+203)
GeForce GTX 980 1127 1253 (+126) 1387 1526 (+139)
GeForce GTX TITAN fekete 889 1032 (+143) 1100 1262 (+162)
GeForce GTX TITAN 836 1006 (+145) 966 1150 (+184)
GeForce GTX 780 Ti 876 1020 (+144) 986 1130 (+144)
GeForce GTX 780 863 1006 (+143) 1053 1215 (+162)
GeForce GTX 770 1046 1176 (+130) 1190 1333 (+143)

A TITAN X fogyasztás tekintetében közel áll a GTX 780 Ti-hez és jóval meghaladja a GTX 980-at. A várakozásokkal ellentétben a Crysis 3-ban nincs jelentős különbség a TITAN X és a Radeon R9 290X között, viszont a FurMark R9 290X-ben (mint az R9 280X) jobban felmelegszik és észrevehetően felülmúlja a TITAN x-et.

A TITAN X túlhajtása 5-25 wattal növeli a teljesítményt attól függően, hogy melyik teszt eredményére hagyatkozik - FurMark vagy Crysis 3.

A GPU számára megengedett maximális hőmérsékletet a BIOS-beállítások határozzák meg, így a TITAN X nem lépi túl a beállított 83 °C-ot. Ugyanakkor a hűtőrendszer turbinája a maximális fordulatszám 49%-án felpörög - egészen addig. 2339 ford./perc. Első pillantásra ez elég sok, de valójában a hűtő zaja teljesen elfogadható.

⇡ Teljesítmény: szintetikus benchmark

  • A TITAN X már az első teszttől lenyűgöz. A GTX 780 Ti-hez és a Radeon R9 290X-hez képest a grafikus kártya másfélszer gyorsabb.
  • A Radeon R9 280X és a GeForce GTX 770 – az egykor legjobb GPU-kon alapuló adapterek – esetében a különbség több mint kétszeres.

  • A fentiek mindegyike igaz a 3DMark 2013-ra is.

Unigine Heaven 4

  • A TITAN X körülbelül 50%-os előnyt jelent a GTX 780 Ti és a Radeon R9 290X-hez képest WQHD felbontásban. Egyébként a 3DMarkkal ellentétben a GTX 980 semmivel sem jobb, mint a GTX 780 Ti ebben a tesztben.
  • Ultra HD felbontásban a korábbi grafikus adapterek felzárkóztak, és a TITAN X mégis minden rivális felett áll.

⇡ Teljesítmény: játékok

Ezúttal eltérünk a játéktesztek leírásának szokásos formájától. Teljesen értelmetlen minden játékhoz lefesteni, hogy melyik videókártya gyorsabb, a TITAN X esetében. Az új "Titan" minden játékban óriási különbséggel megelőzi riválisát. A mennyiségi mutatók a következő képletet mutatják: A TITAN X 30-50%-kal gyorsabb, mint a GeForce GTX 780 Ti és Radeon R9 290X, és gyakran kétszer gyorsabb a Radeon R9 280X-hez és GeForce GTX 770-hez képest. Az egyetlen intrika az ingadozások keresése. ezen a folyosón belül azon vagy a másik oldalon. Ezen kívül van egy egyedi ház is: a TITAN X 24 FPS-es képsebességet élvez Far Cry 4-ben Ultra HD felbontáson és MSAA 4x-en, míg a riválisok nem tudnak kibújni az 5-7 FPS-es lyukból (és a GeForce GTX 770 ill. még kevesebb). Itt láthatóan 12 GB memóriára volt szüksége a Titannak, és az FC4-ben még a Radeon R9 290X-ben lévő 4 GB sem elég az ilyen beállításokhoz.

sírrabló

Bioshock Infinite

Crysis 3

⇡ Teljesítmény: számítástechnika

Videó dekódolás (DXVA Checker, Decode Benchmark)

  • A GM200 dedikált H.264 dekódere ugyanaz, mint a Maxwell család többi lapkájában. Teljesítménye bőven elegendő ahhoz, hogy akár Ultra HD felbontású és 60 Hz-es vagy magasabb képfrissítésű videókat is lejátszhasson.
  • A diszkrét AMD videoadapterek közül ezzel csak a Radeon R9 285 büszkélkedhet.A GeForce GTX 780 Ti akár 35 FPS leadására is képes 3840 × 2160-as felbontás mellett.
  • A 6-8 x86 magos CPU-k alkalmasabbak a videokonverzió gyors dekódolására, de a fix funkcionalitású blokk ezt kisebb fogyasztás mellett teszi meg, és végül egyszerűen az erős GPU-nak adják.

  • Az egyetlen GPU teljes hardveres H.265 dekódolással a GM206 a GeForce GTX 960-ban. A Maxwell architektúra más képviselői, valamint a Kepler a H.264 dekóder csővezetéken hajtanak végre néhány műveletet. A többi a központi processzorra esik.
  • Mindezen adapterek teljesítménye jó CPU-val elegendő a videó lejátszásához bármilyen ésszerű felbontással és képkockasebesség mellett. Gyors munkához a GTX 960 vagy egy nagy teljesítményű CPU jobban megfelel.

Luxmark: szoba (komplex referencia)

  • A Maxwell architektúra meglepő teljesítménynövekedést mutat a Keplerhez képest ebben a feladatban, így a TITAN X kétszerese a GeForce GTX 780 Ti szerény eredményének, és felülmúlja a Radeon R9 290X teljesítményét. Ez azonban nem jelenti azt, hogy a LuxMark eredményei bármilyen sugárkövetési feladatot reprezentálnak.
  • A TITAN X és a GeForce GTX 980 között nem olyan óriási a különbség, mint a játéktesztekben.

Sony Vegas Pro 13

  • Az AMD videoadapterek továbbra is vezető szerepet töltenek be a videomegjelenítésben. A TITAN X pedig nem tűnik ki a legproduktívabb NVIDIA-eszközök csoportjából.

CompuBench CL: Ocean Surface Simulation

  • A TITAN X elviszi a pálmát a Radeon R9 290X elől, és kompenzálja a GeForce GTX 980 meghibásodását, ami meglepően nehéz ebben a tesztben.

CompuBench CL: Részecskeszimuláció

  • Ezzel szemben itt a GTX 980 nagy lépést tett előre a GTX 780 Ti-hez képest, a TITAN X pedig a sikerre épített. A Radeon R9 290X nem egyezik az NVIDIA zászlóshajójával.

SiSoftware Sandra 2015: Tudományos elemzés

  • A dupla pontosság (FP64) tekintetében az AMD gyorsítók továbbra is páratlanok, sőt a korántsem új GPU-ra épülő Radeon R9 280X is felülmúlhatja a TITAN X-et.
  • A "zöld" TITAN X között előre láthatóan vezet teljesítményben az FP64-ben, különösen az őszintén gyenge GTX 980-hoz képest.
  • Az FP32 számítástechnikában a TITAN X élesen kiemelkedik az összes NVIDIA grafikus kártya közül. Csak ez nyújt a Radeon R9 290X teljesítményéhez hasonló szintű teljesítményt.

⇡ Következtetések

Figyelembe véve, hogy a diszkrét GPU-gyártás még mindig a 28 nm-es folyamaton belül van, a GeForce GTX TITAN X eredményei fantasztikusan néznek ki. A GK110-alapú grafikus adapterekkel azonos TDP mellett a TITAN X az olyan gyorsítók teljesítményének 130-150%-át éri el, mint a GTX 780 Ti és a Radeon R9 290X. Ha az első 28 nm-es GPU-kat vesszük - GK104 (GTX 680, GTX 770) és Radeon R9 280X, akkor a TITAN X gyakran kétszer is felülmúlja őket.

A TITAN X ebben a pozícióban elődeihez hasonlóan rendkívül drága egyetlen GPU-s grafikus kártya esetében. Az elhelyezés nem változott a korábbi Titánokhoz képest. Először is, ez a két különálló GeForce GTX 980 SLI-konfigurációjának alternatívája: bár a tandem potenciális teljesítménye magasabb, egyetlen GPU-nak kiszámíthatóbb a teljesítménye. Másodszor, kompakt PC-k, amelyekben nincs hely két videokártya számára. És végül a nem grafikus számítástechnika (GP-GPU). Bár az FP64 teljesítménye a GM200-ban az FP32 teljesítményének 1/32-ére korlátozódik, a TITAN X részben kompenzálja ezt a korlátozást a GPU nyers erővel. Ezenkívül az FP32 számítástechnika dominál "prosumer" terhelés (ugyanaz a Ray Tracing, gyorsított videó renderelés), és ebben a tudományágban a GM200 legalább olyan jó, mint a legjobb AMD termékek, és gyakran felülmúlja ugyanazt, mint a játéktesztekben.

Bemutatjuk az alapvető részletes anyagot az Nvidia Geforce GTX Titan X tanulmány segítségével.

A vizsgálat tárgya: 3D grafikus gyorsító (videokártya) Nvidia Geforce GTX Titan X 12288 MB 384 bites GDDR5 PCI-E

Fejlesztői részletek: Az Nvidia Corporationt (Nvidia védjegy) 1993-ban alapították az Egyesült Államokban. Székhelye: Santa Clara (Kalifornia). Grafikus processzorokat, technológiákat fejleszt. 1999-ig a fő márka a Riva (Riva 128/TNT/TNT2), 1999-től napjainkig a Geforce volt. 2000-ben a 3dfx Interactive eszközeit felvásárolták, majd a 3dfx / Voodoo védjegyek átkerültek az Nvidiához. Nincs termelés. Az alkalmazottak összlétszáma (a regionális irodákkal együtt) mintegy 5000 fő.

1. rész: Elmélet és építészet

Mint már tudjátok, még a múlt hónap közepén az Nvidia kiadott egy új csúcskategóriás videokártyát Geforce GTX Titan X néven, amely a piac legerősebbjévé vált. Azonnal kiadtunk egy részletes ismertetőt erről az új termékről, de az csak gyakorlati tanulmányokat tartalmazott, elméleti rész és szintetikus tesztek nélkül. Ez különböző körülmények miatt következett be, beleértve azokat is, amelyek rajtunk kívül álltak. De ma kijavítjuk ezt a hibát, és közelebbről megvizsgáljuk a márciusi újdonságot - egy hónap alatt semmi sem történt, ami elvesztette volna jelentőségét.

Az Nvidia még 2013-ban kiadta a Geforce GTX Titan videokártyák új márkájának első megoldását, amelyet az Oak Ridge National Laboratory szuperszámítógépéről neveztek el. Az új termékcsalád első modellje új rekordokat döntött mind a teljesítmény, mind az ár tekintetében, 999 dolláros MSRP-vel az amerikai piacon. Ez volt az első csúcskategóriás Titan sorozatú grafikus kártya, amely aztán folytatódott a nem túl népszerű duplachipes Titan Z-vel és a gyorsított Titan Black-vel, amely egy teljesen feloldott GK110 revision B GPU-t kapott.

És most, 2015 tavaszán eljött az ideje egy újabb Nvidia újdonságnak a "titán" prémium sorozatból. A GTX Titan X-et először Jensen Huang, a cég elnöke mutatta be a GDC 2015 játékfejlesztői konferenciáján, az Epic Unreal Engine rendezvényen. Valójában ez a videokártya látatlanban egyébként is részt vett a show-ban, sok demóstandra telepítették, de Jensen hivatalosan bemutatta.

A Geforce GTX Titan X megjelenése előtt a leggyorsabb egychipes videokártya a tavaly szeptemberben bemutatott, ugyanazon Maxwell grafikus architektúra GM204 lapkáján alapuló Geforce GTX 980 volt. Ez a modell nagyon energiatakarékos, megfelelő feldolgozási teljesítményt biztosít, miközben mindössze 165 W-ot fogyaszt – vagyis kétszer olyan energiahatékony, mint az előző generációs Geforce.

Ugyanakkor a Maxwell architektúrájú GPU-k támogatják a hamarosan megjelenő DirectX 12-t (beleértve a 12.1-es funkciószintet is) és a cég további legújabb grafikus technológiáit: az Nvidia Voxel Global Illuminationt (VXGI, a GTX 980 cikkében írtunk róla), egy új Multi- Frame mintavételes élsimítási módszer AA (MFAA), Dynamic Super Resolution (DSR) és még sok más. A teljesítmény, az energiahatékonyság és a funkciók kombinációja tette a GM204 chipet a legjobb fejlett grafikus processzorrá a megjelenése idején.

De minden megváltozik valamikor, és a 2048 magos és 128 textúraegységgel rendelkező GPU-t egy új GPU váltotta fel, amely ugyanazon a második generációs Maxwell architektúrán alapul (az elsőre a GM107 chipről emlékszünk, amelyen a Geforce GTX 750 Ti videokártya található alapú) és ugyanazokkal a képességekkel, de 3072 CUDA maggal és 192 textúraegységgel – mindezt már 8 milliárd tranzisztorba csomagolták. Természetesen a Geforce GTX Titan X azonnal a legerősebb megoldás lett.

Valójában a csúcskategóriás második generációs Maxwell lapka, amelyet ma GM200 kódnéven ismerünk, egy ideig készen állt az Nvidiánál a bejelentése előtt. Egyszerűen nem volt sok értelme egy újabb csúcskategóriás grafikus kártya kiadásának, amikor még a GM204-re épülő Geforce GTX 980 is nagyszerű munkát végzett a világ leggyorsabb egychipes grafikus kártyájaként. Az Nvidia egy ideig várt az AMD erősebb, GPU-ra épülő megoldására, amely ugyanazon a 28 nm-es technológiával készült, de nem várt.

Valószínű, hogy valódi verseny híján egyáltalán nem borulna el a termék, ennek ellenére a kiadás mellett döntöttek, ezzel biztosítva a legerősebb GPU-kat gyártó cég címét. És valóban, nem volt értelme az ellenfél döntésére várni, mert azt legalább júniusra halasztották – egyszerűen veszteséges ennyit várni. Nos, ebben az esetben mindig kiadhat egy még erősebb videokártyát, amely ugyanazon a GPU-n alapul, de magasabb frekvencián működik.

De miért van szükségünk ilyen erőteljes megoldásokra a többplatformos játékok korában, meglehetősen átlagos GPU-teljesítményigényekkel? Először is, az első, a DirectX 12 képességeit használó játékalkalmazásoknak hamarosan megjelenniük kell, még ha többplatformosak is – elvégre az ilyen alkalmazások PC-s verziói szinte mindig jobb grafikát, további effektusokat és nagyobb felbontású textúrákat kínálnak. Másodszor, már megjelentek a DirectX 11-es játékok, amelyek a legerősebb GPU-k összes képességét ki tudják használni – mint például a Grand Theft Auto V, amiről az alábbiakban részletesebben is szó lesz.

Fontos, hogy az Nvidia Maxwell grafikus megoldásai teljes mértékben támogassák a DirectX 12 úgynevezett Feature Level 12.1 szolgáltatási szintjét – a jelenleg ismert legmagasabb szintet. Az Nvidia már régóta biztosítja a játékfejlesztőknek a DirectX hamarosan megjelenő verziójához illesztőprogramokat, amelyek most már a Microsoft Windows 10 Technical Preview-t telepítő felhasználók számára is elérhetőek. Nem meglepő módon a Geforce GTX Titan X videokártyákkal demonstrálták a DirectX 12 képességeit a Game Developers Conference-en, ahol először mutatták be a modellt.

Mivel az Nvidia videokártya vizsgált modellje a második generációs Maxwell architektúra csúcsminőségű grafikus processzorán alapul, amelyet már megvizsgáltunk, és amely részletesen hasonlít a korábbi Kepler architektúrához, érdemes elolvasni a korábbi cikkeket a a cég videokártyáival, mielőtt elolvasná ezt az anyagot. Nvidia:

  • Nvidia Geforce GTX 970 - Jó helyettesítője a GTX 770-nek
  • Nvidia Geforce GTX 980 – a Geforce GTX 680 követője, még a GTX 780 Ti-t is felülmúlva
  • Nvidia Geforce GTX 750 Ti - A Maxwell kicsiben indul... Maxwell ellenére
  • Az Nvidia Geforce GTX 680 a 3D grafika új, egyfoglalatos piacvezetője

Nézzük tehát a GM200 GPU-n alapuló Geforce GTX Titan X videokártya részletes specifikációit.

Geforce GTX Titan X grafikus gyorsító
ParaméterJelentése
Chip kódnévGM200
Gyártástechnológia28 nm
A tranzisztorok számakörülbelül 8 milliárd
Alapterületkb 600 mm 2
ÉpítészetEgységesített, egy sor közös processzorral számos típusú adatfolyam feldolgozásához: csúcsok, pixelek stb.
DirectX hardver támogatásDirectX 12, a 12.1 funkciószint támogatásával
Memóriabusz384 bites: Hat független 64 bites memóriavezérlő GDDR5 memória támogatással
GPU frekvencia1000 (1075) MHz
Számítási blokkok24 streaming többprocesszor, beleértve 3072 skaláris ALU-t az egyszeres és dupla pontosságú lebegőpontos számításokhoz (az FP32 arány 1/32-e) az IEEE 754-2008 szabványnak megfelelően;
Textúra blokkok192 textúracímző és -szűrő egység FP16 és FP32 komponensek támogatásával a textúrákban, valamint a trilineáris és anizotróp szűrés támogatásával minden textúraformátumhoz
Raszterezési egységek (ROP)6 széles ROP (96 pixel) különböző élsimítási módok támogatásával, beleértve a programozható és FP16 vagy FP32 keretpuffer formátumot. A blokkok egy sor konfigurálható ALU-ból állnak, és felelősek a mélység létrehozásáért és összehasonlításáért, a többszörös mintavételezésért és a keverésért.
Monitor támogatásIntegrált támogatás akár négy, Dual Link DVI, HDMI 2.0 és DisplayPort 1.2 porton keresztül csatlakoztatott monitorhoz
A Geforce GTX Titan X referencia grafikus kártya specifikációi
ParaméterJelentése
Magfrekvencia1000 (1075) MHz
Univerzális processzorok száma3072
Textúra blokkok száma192
Keverési blokkok száma96
Hatékony memóriafrekvencia7000 (4×1750) MHz
Memória típusaGDDR5
Memóriabusz384 bites
Memória méret12 GB
Memória sávszélesség336,5 GB/s
Számítási teljesítmény (FP32)legfeljebb 7 teraflop
Elméleti maximális kitöltési arány96 gigapixel/s
Elméleti textúra mintavételi sebesség192 gigatexel/s
GumiPCI Express 3.0
CsatlakozókEgy Dual Link DVI, egy HDMI 2.0 és három DisplayPort 1.2
Energia fogyasztás250 W-ig
Extra ételEgy 8 tűs és egy 6 tűs csatlakozó
A rendszerházon elfoglalt helyek száma2
Ajánlott ár999 USD (USA), 74 990 RUB (Oroszország)

Az új Geforce GTX Titan X olyan nevet kapott, amely folytatja az Nvidia prémium megoldásainak sorát a konkrét pozicionáláshoz – egyszerűen csak X betűt fűztek hozzá. Az új modell a Geforce GTX Titan Black modellt váltotta fel, és a cég élén áll. jelenlegi termékcsalád. Fölötte már csak a kétlapkás Geforce GTX Titan Z maradt (bár ez már nem említhető), alatta pedig az egychipes GTX 980 és GTX 970 modellek. a piac legjobb teljesítményű megoldása egychipesre videokártyák.

A szóban forgó Nvidia modell a GM200 lapkára épül, amely 384 bites memóriabusszal rendelkezik, és a memória 7 GHz-en fut, ami 336,5 GB/s-os csúcssávszélességet ad – másfélszer többet, mint a GTX-ben. 980. Ez egészen lenyűgöző érték, különösen, ha felidézzük a második generációs Maxwell-nél alkalmazott új, chipen belüli információtömörítési módszereket, amelyek a versenytárs GPU-jánál sokkal hatékonyabban segítenek kihasználni a rendelkezésre álló memória sávszélességét.

Ezzel a memóriabusszal a videokártyára telepített videomemória mennyisége 6 vagy 12 GB lehetett, de az elit modell esetében a 12 GB beépítése mellett döntöttek az első GTX Titan modellek trendjének folytatásaként. . Ez több mint elég bármilyen 3D-s alkalmazás futtatásához a minőségi paraméterek figyelembevétele nélkül - ez a mennyiségű videomemória abszolút minden létező játékhoz elegendő bármilyen képernyőfelbontás és minőségi beállítás mellett, ami a Geforce GTX Titan X videokártyát különösen csábítóvá teszi a kilátással. a jövőbe – a tulajdonosa soha nem fogy ki a videomemóriából.

A Geforce GTX Titan X hivatalos fogyasztási adata 250 W – ez megegyezik az elit Titan sorozat többi egychipes megoldásával. Érdekes módon a 250 W körülbelül 50%-kal több, mint a GTX 980, és a fő funkcionális blokkok száma is ugyanennyivel nőtt. A meglehetősen magas fogyasztás nem okoz gondot, a referenciahűtő kiváló munkát végez ekkora hő elvezetésében, és a lelkes rendszerek a GTX Titan és a GTX 780 Ti után már régóta készen állnak ilyen szintű fogyasztásra.

Építészet

A Geforce GTX Titan X videokártya modellje az új GM200 grafikus processzorra épül, amely tartalmazza a GM204 chip összes architekturális jellemzőjét, így a GTX 980-ról szóló cikkben leírtak teljes mértékben érvényesek a prémium új termékre - tanácsoljuk először olvassa el azt az anyagot, amelyben pontosan Maxwell építészeti jellemzői vannak.

A GM200 GPU a GM204 extrém változatának nevezhető, amely a 28 nm-es folyamaton belül lehetséges. Az új chip nagyobb, sokkal gyorsabb és energiaigényesebb. Az Nvidia szerint a "nagy Maxwell" 8 milliárd tranzisztort tartalmaz, amelyek körülbelül 600 mm 2 -es területet fednek le, vagyis ez a cég legnagyobb grafikus processzora. A "Big Maxwell" 50%-kal több stream processzorral, 50%-kal több ROP-val és 50%-kal nagyobb memória sávszélességgel rendelkezik, ezért csaknem másfélszer nagyobb a területe.

Építészetileg a GM200 videochip teljesen konzisztens a fiatalabb GM204 modellel, emellett GPC klaszterekből áll, amelyek több SM multiprocesszort tartalmaznak. A felső grafikus processzor hat GPC klasztert tartalmaz, 24 többprocesszorból áll, összesen 3072 CUDA maggal, a textúra műveleteket (mintavétel és szűrés) pedig 192 textúraegység segítségével végzik. És 1 GHz-es alapfrekvenciával a textúramodulok teljesítménye 192 gigatexel / s, ami több mint egyharmadával magasabb, mint a cég korábbi legerősebb videokártyájának - Geforce GTX 980 -nak.

A második generációs Maxwell többprocesszor négy, 32 CUDA magból álló blokkra van osztva (összesen 128 mag SMM-enként), amelyek mindegyike saját erőforrásokkal rendelkezik a parancselosztáshoz, a feldolgozás ütemezéséhez és az utasításfolyam puffereléséhez. Tekintettel arra, hogy minden számítási egység saját diszpécser egységekkel rendelkezik, a CUDA számítási magokat hatékonyabban használják, mint a Keplerben, ami szintén csökkenti a GPU energiafogyasztását. Maga a többprocesszor nem változott a GM204-hez képest:

A gyorsítótárak GPU-ban való használatának hatékonyságának javítása érdekében számos változtatást hajtottak végre a memória alrendszeren. A GM200 mindegyik többprocesszora dedikált 96 KB-os megosztott memóriával rendelkezik, és az első szintű és textúra gyorsítótárak 24 KB-os blokkokban vannak kombinálva – többprocesszoronként két blokk (összesen 48 KB SMM-enként). Az előző generációs Kepler GPU-k mindössze 64 KB megosztott memóriával rendelkeztek, ami egyben L1 gyorsítótárként is működött. Az összes változtatás eredményeként a Maxwell CUDA magok hatásfoka mintegy 1,4-szer magasabb, mint egy hasonló Kepler chipben, az új lapkák energiahatékonysága pedig körülbelül kétszerese.

Általánosságban elmondható, hogy a GM200 grafikus processzorban minden pontosan ugyanúgy van elrendezve, mint a 2014-ben áttekintett GM204 chipben. Még csak hozzá sem nyúltak azokhoz a magokhoz, amelyek dupla pontosságú lebegőpontos műveleteket képesek végrehajtani az egyszeres pontosságú számítások sebességének mindössze 1/32-ével – akárcsak a Geforce GTX 980. Úgy tűnik, az Nvidia felismerte, hogy a kiadás A professzionális piacra (GK210) és a játékra (GM200) speciális megoldások kidolgozása meglehetősen indokolt.

A GM200 memória alrendszere megerősített a GM204-hez képest - hat 64 bites memóriavezérlőre épül, ami összesen egy 384 bites buszt alkot. A memóriachipek 7 GHz-es effektív frekvencián működnek, ami 336,5 GB/s-os csúcssávszélességet ad, ami másfélszer nagyobb, mint a Geforce GTX 980. Ne feledkezzünk meg az Nvidia új adattömörítési módszereiről sem. , amelyek lehetővé teszik a korábbi termékekhez képest nagyobb effektív memória sávszélesség elérését - ugyanazon a 384 bites buszon. A Geforce GTX 980 áttekintése során alaposan átgondoltuk a Maxwell chipek második generációjának ezt az újítását, amely a Keplerhez képest negyedével hatékonyabb videomemória-használatot biztosít számukra.

Az összes legújabb Geforce grafikus kártyához hasonlóan a GTX Titan X modellnek is van alapfrekvenciája – ez a minimum a GPU 3D módban történő működéséhez, valamint a Boost Clock turbófrekvenciája. Az újdonság alapfrekvenciája 1000 MHz, a Boost Clock frekvencia pedig 1075 MHz. A turbófrekvencia a korábbiakhoz hasonlóan csak a GPU átlagos frekvenciáját jelenti az Nvidia által használt játékalkalmazások és egyéb 3D-s feladatok meghatározott készletéhez, a tényleges működési frekvencia pedig magasabb is lehet - ez a 3D terheléstől és körülményektől (hőmérséklet, teljesítmény) függ. fogyasztás stb.)

Kiderült, hogy az új termék GPU-frekvenciája körülbelül 10%-kal magasabb, mint a GTX Titan Blacké, de alacsonyabb, mint a GTX 980-é, mivel a nagy GPU-kat mindig alacsonyabb frekvencián kell órajelezni (a GM200 pedig észrevehetően nagyobb terület, mint a GM204) . Ezért az újdonság összesített 3D-s teljesítménye körülbelül 33%-kal magasabb lesz, mint a GTX 980-é, különösen a Turbo Boost frekvenciák összehasonlításakor.

Minden más tekintetben a GM200 chip pontosan megegyezik a GM204-gyel – a megoldások képességeikben és támogatott technológiájukban megegyeznek. Még a kijelzőkkel és videó adatokkal való munkavégzésre szolgáló modulok is pontosan ugyanazok maradtak, mint a Geforce GTX 980 modell alapjául szolgáló GM204-nél, ennek megfelelően mindaz, amit a GTX 980-ról és a GTX 970-ről írtunk, teljes mértékben vonatkozik a Titan X-re is. .

Ezért az újdonság funkcionális finomságaival kapcsolatos minden egyéb kérdésben a Geforce GTX 980 és GTX 750 Ti ismertetőire hivatkozhatunk, amelyekben részletesen írtunk a Maxwell architektúráról, a streaming multiprocesszorok eszközéről (Streaming Multiprocessor - SMM) , a memória alrendszer felépítése és néhány egyéb építészeti különbség. Megnézheti az olyan funkciókat is, mint a gyorsított VXGI globális megvilágítás számításának hardveres támogatása, az új teljes képernyős élsimítási módszerek és a továbbfejlesztett DirectX 12 grafikus API-képességek.

Problémák megoldása új technikai folyamatok fejlesztésével

Bátran kijelenthetjük, hogy a 28 nm-es folyamattechnológiát már régóta elege van a videokártya-piacon – már negyedik éve figyeljük meg, és eleinte a TSMC egyáltalán nem tudott előrelépni, ill. akkor úgy tűnt, hogy be lehet indítani a 20 nm-es gyártást, de hiába, hogy a nagy GPU-knál nem volt elérhető - a megfelelő hozama meglehetősen alacsony, és semmi előnye nem volt az elhasznált 28 nm-hez képest. Ezért az Nvidiának és az AMD-nek a lehető legtöbbet ki kellett kicsikarnia a meglévő lehetőségekből, és a Maxwell chipek esetében ez egyértelműen az Nvidiának sikerült is. Teljesítmény és energiahatékonyság tekintetében az ilyen architektúrájú GPU-k egyértelmű előrelépést jelentettek, amire az AMD egyszerűen nem reagált – legalábbis egyelőre.

Tehát a GM204-ből az Nvidia mérnökei sokkal nagyobb teljesítményt tudtak kicsikarni a GK104-hez képest, ugyanolyan szintű energiafogyasztás mellett, bár a chip harmadával nőtt, és a tranzisztorok nagyobb sűrűsége lehetővé tette számuk további növelését - 3,5 milliárdról 5,2 milliárdra Nyilvánvaló, hogy ilyen körülmények között a GM204 sokkal több végrehajtó egységet tartalmazott, ami nagyobb 3D-s teljesítményt eredményezett.

De a Maxwell architektúra legnagyobb chipje esetében az Nvidia tervezői nem tudták túlságosan megnövelni a chip méretét, a GK110-hez képest már körülbelül 550 mm 2 területtel rendelkezik, és nem Területének harmadával vagy legalább negyedével növelhető - egy ilyen GPU túl bonyolult és költséges lenne a gyártása. Valamit fel kellett áldoznom (a régebbi Keplerhez képest), és ez a valami a dupla pontosságú számítások teljesítménye lett - a GM200-ban pont olyan a tempója, mint a többi Maxwell megoldásban, bár a régebbi Kepler sokoldalúbb volt, alkalmas grafikus és bármilyen nem grafikus számításhoz.

Egy ilyen döntés nem volt könnyű a Kepler számára - a chip területének túl nagy részét a CUDA FP64 magok és más speciális számítási egységek foglalták el. A nagy Maxwell esetében úgy döntöttek, hogy beérik a grafikus feladatokkal, és egyszerűen a GM204 felnagyított változataként készült. Az új GM200 chip tisztán grafikus lett, nem tartalmaz speciális blokkokat az FP64 számításokhoz, sebességük változatlan marad - az FP32-nek csak 1/32-e. De a GK110 FP64 ALU-k által elfoglalt területének nagy része felszabadult, és több grafikai szempontból fontos FP32 ALU került a helyükre.

Egy ilyen lépés lehetővé tette a grafikus (és a számítási, ha FP32 számításokat vesszük) teljesítményének jelentős növelését a GK110-hez képest anélkül, hogy az energiafogyasztást növelte volna, és a kristályterület enyhe növekedésével - kevesebb, mint 10%. Érdekes módon az Nvidia ezúttal szándékosan a grafikus és a számítási chipek szétválasztására ment. Bár a GM200 továbbra is nagyon produktív az FP32 számításaiban, és a Tesla speciális megoldásai az egyszeri precíziós számításokhoz meglehetősen lehetségesek, és sok tudományos feladathoz elegendőek, a Tesla K40 továbbra is a legproduktívabb az FP64 számításokhoz.

Ez a különbség egyébként az eredeti Titanhoz képest - a vonal első megoldása professzionális célokra is használható lenne dupla pontosságú számításokhoz, hiszen az FP64 számításoknál is 1/3-os arányú. Sok kutató pedig a GTX Titan-t használta CUDA-alkalmazásaihoz és feladataihoz kezdőkártyaként, és sikerrel tért át a Tesla megoldásokra. Erre a GTX Titan X már nem alkalmas, várni kell a következő generációs GPU-kra. Természetesen, ha kezdetben nincsenek grafikus és számítási chipekre osztva.

A bővítőkártyáknak már van ilyen felosztása - a Tesla K80 modell egy pár GK210 chipet tartalmaz, amelyeket nem használnak a videokártyákban, és a GK110-től kettős regiszterfájlban és megosztott memóriában különböznek a számítási feladatok jobb teljesítménye érdekében. Kiderült, hogy a GK210 kizárólag „számítástechnikai” processzornak tekinthető, a GM200 pedig tisztán „grafikus” processzornak (bizonyos fokú konvencióval, mivel mindkét GPU-nak ugyanazok a képességei, csak más-más specializáció).

Lássuk, mi történik az Nvidia grafikus architektúráinak következő generációiban, amelyek már „vékonyabb” technikai eljárással készülnek – náluk talán nem lesz szükség ekkora szétválasztásra, legalábbis elsőre. Vagy fordítva, azonnal látni fogjuk a szigorú felosztást a különböző specializációjú GPU modellekre (a számítási modellek több számítási képességgel rendelkeznek, a grafikus modellek pedig - például TMU és ROP blokkok), bár az architektúra változatlan marad.

A videokártya kialakításának jellemzői

De térjünk vissza a Geforce GTX Titan X-hez. Ez egy nagy teljesítményű videokártya, amelyet a PC-játékok szerelmeseinek terveztek, így megfelelő megjelenésű is kell, hogy legyen – az alaplap és a hűtő eredeti és szilárd kialakítása. A Titan vonal korábbi megoldásaihoz hasonlóan a Geforce GTX Titan X modellt is alumínium ház borítja, ami a nagyon prémium megjelenést kölcsönzi a videokártyának - tényleg masszívan néz ki.

A hűtőrendszer is nagyon lenyűgöző – a Titan X hűtő kialakítása rézötvözet gőzkamrát használ – ez hűti a GM200 GPU-t. A párologtató kamra egy nagy, kétnyílású alumíniumötvözet hűtőbordához csatlakozik, amely elvezeti a videochipről átadott hőt. A ventilátor eltávolítja a felmelegedett levegőt a PC házán kívül, ami pozitív hatással van a rendszer általános hőmérsékleti rendszerére. A ventilátor nagyon csendes még túlhajtva és hosszú ideig terhelés alatt is, ennek eredményeként a 250 W-os GTX Titan X az egyik legcsendesebb grafikus kártya kategóriájában.

A Geforce GTX 980 referenciakártyával ellentétben az új termék nem tartalmaz speciális eltávolítható lemezt, amely a tábla hátsó felületét takarja - ez azért történik, hogy a NYÁK-hoz maximális légáramlást biztosítson a hűtéshez. A kártya egy 8 tűs és egy 6 tűs PCI Express kiegészítő tápcsatlakozóból áll.

Mivel a Geforce GTX Titan X a maximális teljesítményű megoldásokat kedvelő rajongóknak készült, az új videokártya minden alkatrészét ennek figyelembevételével választották ki, méghozzá némi fenntartással a funkciók és a jellemzők tekintetében.

Például a Geforce GTX Titan X grafikus processzorának energiával való ellátásához egy 6 fázisú tápegységet használnak további erősítés lehetőségével. A GDDR5 memória működésének biztosítására egy másik kétfázisú táprendszert is használnak. A videokártya 6 + 2 fázisú táprendszere túlhajtás mellett is bőven elegendő teljesítményt biztosít a szóban forgó modellnek. Így a Titan X referenciakártya akár 275 W teljesítményt is képes ellátni a GPU-val, feltéve, hogy a célteljesítmény (teljesítménycél) maximális értéke 110%.

Ezenkívül a túlhajtási potenciál további javítása érdekében az összes új komponens hűtését javították az eredeti Geforce GTX Titan videokártyához képest - az újratervezett kártya és a hűtő jobb túlhajtási képességeket eredményezett. Ennek eredményeként szinte minden Titan X minta képes akár 1,4 GHz-es vagy annál nagyobb frekvencián is működni - ugyanazzal a referencia léghűtővel.

A Geforce GTX Titan X referenciakártya hossza 267 mm, a következő képkimeneti csatlakozókkal rendelkezik: egy Dual-Link DVI, egy HDMI 2.0 és három DisplayPort. A Geforce GTX Titan X támogatja a kijelzőkimenetet 5K felbontásig, és egy másik HDMI 2.0-kompatibilis grafikus kártya, amely még mindig hiányzik a versenytársból – ez lehetővé teszi az új termék csatlakoztatását 4K TV-hez, maximális képminőséget biztosítva magas, 60 képfrissítési gyakoriság mellett. Hz.

Játékfejlesztői támogatás

Az Nvidia mindig is olyan cég volt, amely nagyon szorosan együttműködik a szoftvergyártókkal, és különösen a játékfejlesztőkkel. Vessen egy pillantást a PhysX-re – a legnépszerűbb játékfizikai motorra, amelyet több mint 10 éve használnak több mint 500 játékban. A PhysX széleskörű elterjedése többek között annak köszönhető, hogy az egyik legnépszerűbb játékmotorba: az Unreal Engine 3-ba és az Unreal Engine 4-be integrálták. Így a Game Developers Conference 2015 játékfejlesztői konferencián az Nvidia bejelentette ingyenes hozzáférés a CPU forráskódjaihoz – a PhysX 3.3.3 kiemelt része C++ fejlesztőknek Windows, Linux, OS X és Android verziókban.

A fejlesztők ezentúl tetszés szerint módosíthatják a motor PhysX kódját, és a módosításokat akkor is beépíthetik az alap Nvidia PhysX kódba. A PhysX forrásának nyilvános megnyitásával az Nvidia a játékalkalmazás-fejlesztők még szélesebb körének adott hozzáférést fizikai motorjához, akik ezt a fejlett fizikai motort használhatják játékaikban.

Az Nvidia továbbra is népszerűsít egy másik saját technológiát, a meglehetősen új VXGI dinamikus globális megvilágítás szimulációs algoritmust, amely magában foglalja a speciális hardveres gyorsítás támogatását a második generációs Maxwell GPU-kkal ellátott videokártyákon, például a Geforce GTX Titan X-en.

A VXGI játékba való bevezetése lehetővé teszi a fejlesztők számára, hogy nagyon jó minőségű, valós idejű dinamikus globális megvilágítási számítást készítsenek, a modern GPU-k összes képességét kihasználva és a legmagasabb teljesítményt nyújtva. A globális megvilágítás kiszámításának fontosságának megértéséhez (a renderelés nem csak a fényforrások közvetlen megvilágítását veszi figyelembe, hanem a jelenet összes tárgyáról való visszaverődését is), csak nézzen meg néhány képet - GI-vel és anélkül:

Nyilvánvaló, hogy ez a példa mesterséges, és a valóságban a játéktervezők speciális módszereket használnak a globális árnyékolás szimulálására, további lámpák elhelyezésére vagy előre kiszámított világításra – de a VXGI megjelenése előtt ezek vagy nem voltak teljesen dinamikusak (előre kiszámítva a statikus terhelésre). geometria), vagy nem volt megfelelő realitása és/vagy teljesítménye. A jövőbeli játékokban teljesen lehetséges a VXGI használata, és nem csak a legjobb GPU-kon.

A VXGI technika nagyon népszerű volt a játékfejlesztők körében. Legalábbis sokan kipróbálták a módszert tesztjelenetekben, nagyon izgatottak az eredmények miatt, és fontolgatják, hogy beépítik játékaikba. És itt van egy másik jelenet a globális megvilágítás jó minőségű számításával – ez is azt mutatja, mennyire fontos figyelembe venni a jelenet minden felületéről visszaverődő fénysugarakat:

Míg a fejlesztők nem implementálták a VXGI-t saját motorjukba, használhatja az Unreal Engine 4 VXGI GitHub motor speciális verzióját, amely minden érdeklődő fejlesztő számára elérhető - ez lehetővé teszi a VXGI gyors integrálását a játékukba (és nem csak! ) projektek ezt a népszerű játékmotort használva – ez azonban némi módosítást igényel, a VXGI-t nem lehet egyszerűen "engedélyezni".

Vegyünk egy másik Nvidia technológiát - a teljes képernyős élsimítást az MFAA módszerrel, amely kiváló teljesítményt és egyben elfogadható élsimítási minőséget biztosít. Erről a módszerről már írtunk, és csak röviden ismételjük meg a lényeget és a szempontokat. Az MFAA támogatás a Maxwell GPU-k egyik legfontosabb jellemzője az előző generációs GPU-khoz képest. Az MSAA-módszerben az élsimítási minták pozícióinak programozása révén ezek a minták minden képkockát oly módon változtatnak, hogy az MFAA szinte teljes értékű MSAA, de kevesebb terhelést jelent a GPU-ra.

Ennek eredményeként az MFAA engedélyezésével a kép majdnem olyan, mint az MSAA esetében, de a teljesítményveszteség sokkal kisebb. Például az MFAA 4x olyan sebességet biztosít, mint az MSAA 2x, és az élsimítás minősége megközelíti az MSAA 4x-et. Ezért azokban a játékokban, ahol a teljesítmény nem elegendő a magas képkockasebesség eléréséhez, az MFAA használata teljes mértékben indokolt lesz, és javíthatja a minőséget. Íme egy példa a Titan X grafikus kártya MSAA és MFAA teljesítményére a hagyományos Titanhoz képest (4K felbontásban):

Az MFAA élsimítási módszer kompatibilis az összes DirectX 10 és DirectX 11 játékkal, amely MSAA-támogatással rendelkezik (kivéve az olyan ritka projekteket, mint a Dead Rising 3, a Dragon Age 2 és a Max Payne 3). Az MFAA manuálisan engedélyezhető az Nvidia vezérlőpultján. Ezenkívül az MFAA a Geforce Experience-be integrálva van, és ez a módszer automatikusan engedélyezve lesz a különböző játékoknál a Geforce Experience használatával történő optimalizálás esetén. A probléma csak az, hogy az MFAA jelenleg még mindig nem kompatibilis az Nvidia SLI technológiával, amit ígéretek szerint javítanak a videó-illesztőprogramok jövőbeni verzióiban.

Modern játékok Geforce GTX Titan X-en

Minden erejével és képességeivel a Geforce GTX Titan X nem csak a jelenlegi játékokkal, hanem a jövőbeli projektekkel is képes megbirkózni a közelgő DirectX 12 verzió támogatásával. minőség, teljes képernyős élsimítás engedélyezett és nagy felbontású renderelés – mint pl. 4K.

Nagy felbontásnál és engedélyezett élsimításnál különösen fontossá válik a nagy teljesítményű memória alrendszer, a Geforce GTX Titan X-ben pedig minden rendben van - a 384 bites memória interfész és a 7 GHz-es effektív frekvencián működő chipek sávszélességet biztosítanak. 336,5 GB / s - bár ez nem rekord, elég tisztességes.

És az is nagyon fontos, hogy minden adat beleférjen a videomemóriába, hiszen ha az MSAA sok játékban 4K felbontáson engedélyezve van, a videomemória mennyisége egyszerűen nem elegendő - több mint 4 GB memóriára van szükség. És a Titan X nem csak 6 GB, hanem akár 12 GB videomemóriával rendelkezik, mert ez a vonal azoknak a rajongóknak készült, akik nem tűrik a kompromisszumokat. Nyilvánvaló, hogy ekkora beépített memória mellett a játékosnak nem kell azon gondolkodnia, hogy a játék teljesítménye nagy felbontásban csökken-e, ha a multisampling engedélyezve van - minden játékban bármilyen beállítás mellett 12 GB több lesz. mint elég.

Jelenleg minden játékban bármilyen beállítást megadhat és bármilyen felbontást választhat - a Titan X (majdnem) bármilyen körülmények között elegendő képsebességet biztosít. Itt vannak azok a játékok, amelyeket az Nvidia választott megoldása teljesítményének bemutatására:

Amint láthatja, a legtöbb "legnehezebb" modern játékban 40 FPS vagy nagyobb képkockasebességet biztosítanak a teljes képernyős élsimítással, beleértve a Far Cry 4-hez hasonló projekteket is – ebben a játékban Ultra beállításokkal és anti- -4K felbontású alias, elfogadható renderelési sebesség elérése csak Titan X vagy többchipes konfigurációkon lehetséges.

A jövő DirectX 12-t támogató játékainak megjelenésével pedig a GPU és a videomemória teljesítményével szemben támasztott követelmények még nagyobb növekedésére számíthatunk – a renderelés minőségének javítását nem adják „ingyen”. Az Nvidia egyébként akkor még nem tesztelte a Titan X grafikus kártyáját a legújabb játékban, ami egészen nemrég jelent meg - a Grand Theft Auto V PC-s verziójában. Ez a játéksorozat a legnépszerűbb a modern projektek között, amelyben különféle bűnözői elemekként viselkedsz Los Santos városának díszletében, amely gyanúsan hasonlít az igazi Los Angeleshez. A GTAV PC-s verzióját nagyon várták, és végül április közepén – egy hónappal a Titan X után – jelent meg.

A Grand Theft Auto V játék konzolos verziói (persze a jelenlegi generációs konzolokról beszélünk) is elég jók voltak képminőségben, a játék PC-s verziója pedig még több lehetőséget kínál a javításra: a megnövelt rajzolási távolság (objektumok, effektusok, árnyékok), 60 FPS vagy nagyobb sebességgel való lejátszás, beleértve a 4K felbontást is. Emellett gazdag és sűrű forgalmat, sok dinamikus objektumot a jelenetben, jobb időjárási hatásokat, árnyékokat, világítást stb. ígérnek.

Néhány Nvidia GameWorks technológia használata tovább javította a GTAV képminőségét. Emlékezzünk vissza, hogy a GameWorks egy speciális platform a játék- és grafikai fejlesztők számára, amely az Nvidia videokártyákhoz tervezett 3D technológiákat és segédprogramokat biztosítja számukra. A GameWorks technológiák hozzáadásával a játékokhoz viszonylag egyszerűvé válik a valósághű füst, gyapjú és szőrzet, hullámok, valamint globális megvilágítás és egyéb hatások kiváló minőségű utánzata. A GameWorks nagyban megkönnyíti a fejlesztők dolgát azáltal, hogy példákat, könyvtárakat és SDK-kat kínál, amelyek készen állnak a játékkódban való használatra.

A Grand Theft Auto V néhány ilyen technológiát használ az Nvidia-tól: ShadowWorks Percentage-Closer Soft Shadows (PCSS) és Temporal Anti-Aliasing (TXAA), amelyek javítják a játék amúgy is jó grafikáját. A PCSS egy speciális árnyékleképezési technika, amely jobb minőségű, mint a tipikus lágy árnyékolási módszerek. A PCSS-nek három előnye van: az árnyékélek lágysága az árnyékot vető objektum és a rajzolt felület közötti távolságtól függ, emellett jobb szűrést biztosít, ami csökkenti a műtermékek számát az árnyékok szaggatott szélei formájában, és az árnyékpuffer használata lehetővé teszi a különböző objektumok árnyékmetszéspontjainak helyes kezelését, és megakadályozza a "kettős" árnyékok megjelenését.

Ennek eredményeként, ha a PCSS engedélyezve van, a játék lágy, valósághű, dinamikus árnyékokat biztosít, amelyek sokkal jobbak, mint amit a játékkonzolokon láttunk. Egy olyan játéknál pedig, mint a Grand Theft Auto V, ahol folyamatosan ragyogó napsütés mozog a horizonton, nagyon fontos az árnyékok minősége, mindig szem előtt vannak. A következő képernyőképeken láthatja a különbséget a játékban használt két legjobb minőségű módszer között (AMD algoritmus és Nvidia módszer):

Jól látható, hogy a PCSS módszer lehetővé teszi az árnyékok lágy széleit, amelyek fokozatosan elmosódnak, minél távolabbi a távolság az objektum, amelytől az árnyék van, és az árnyékot "fogadó" felület között. Ugyanakkor a PCSS beépítése szinte nincs hatással a játék végső teljesítményére. Bár ez a módszer jobb árnyékminőséget és valósághűséget biztosít, ennek az opciónak a bekapcsolása gyakorlatilag "ingyenes" a teljesítmény szempontjából.

A GTAV PC-s változatának másik fontos kiegészítése az Nvidia TXAA élsimítási módszer. A Temporal Anti-Aliasing egy új élsimítási algoritmus, amelyet kifejezetten a hagyományos élsimítási módszerek mozgás közbeni problémáinak kezelésére terveztek – ahol az egyes pixelek villognak. A pixelek képernyőn történő szűréséhez ezzel a módszerrel a mintákat nemcsak a pixelen belül, hanem azon kívül is használják, a korábbi képkockák mintáival együtt, ami lehetővé teszi a „mozi” szűrési minőség elérését.

A módszer előnye az MSAA-val szemben különösen észrevehető olyan áttetsző felületű tárgyakon, mint a fű, falevelek és kerítéshálók. A TXAA emellett segít kisimítani pixelről képpontra hatásokat. Általánosságban elmondható, hogy a módszer nagyon jó minőségű, és megközelíti a 3D-s grafikában használt professzionális módszerek minőségét, de a TXAA utáni eredmény kissé elmosódottabb az MSAA-hoz képest, ami nem minden felhasználónak tetszik.

A TXAA engedélyezésének teljesítménye a játéktól és a körülményektől függ, és elsősorban az MSAA sebességével korrelál, amelyet ebben a módszerben is használnak. De összehasonlítva az olyan tisztán utófeldolgozási élsimítási módszerekkel, mint az FXAA, amelyek alacsonyabb minőség mellett is maximális sebességet biztosítanak, a TXAA célja a minőség maximalizálása további teljesítménybüntetés mellett. De a világ olyan gazdagsága és részletgazdagsága mellett, mint azt a Grand Theft Auto V-ben látjuk, a kiváló minőségű élsimítás alkalmazása nagyon hasznos lesz.

A játék PC-s verziója gazdag grafikai beállításokkal rendelkezik, amelyek lehetővé teszik a kívánt képminőség elérését a szükséges teljesítménnyel. Tehát a GTAV PC-n elfogadható renderelési sebességet és minőséget biztosít az összes Nvidia megoldáson, körülbelül a Geforce GTX 660-tól kezdve. Nos, a játék összes grafikai effektusának teljes élvezetéhez javasoljuk, hogy használjon valami, például a Geforce GTX 970/980-at. vagy akár Titan x.

A beállítások ellenőrzéséhez egy teljesítményteszt van beépítve a játékba – ez a benchmark öt, a valódi játékmenethez közel álló jelenetet tartalmaz, amelyek lehetővé teszik a játék renderelési sebességének értékelését egy különböző hardverkonfigurációjú PC-n. Az Nvidia grafikus kártyák tulajdonosai azonban ezt könnyebben megtehetik, ha a játékot saját számítógépükre optimalizálják a Geforce Experience segítségével. Ez a szoftver kiválasztja és módosítja az optimális beállításokat, miközben fenntartja a lejátszható renderelési sebességet – és mindez egyetlen gombnyomással történik. A Geforce Experience megtalálja a funkciók legjobb kombinációját a FullHD monitorral rendelkező Geforce GTX 660 és a 4K TV-vel rendelkező Titan X esetében, így biztosítva a legjobb beállításokat egy adott rendszerhez.

A GTAV játék teljes támogatása a Geforce illesztőprogramok új, 350.12 WHQL verziójában jelent meg, amely speciálisan ehhez az alkalmazáshoz optimalizált profillal rendelkezik. Ez az illesztőprogram-verzió optimális játékon belüli teljesítményt biztosít, beleértve a többi Nvidia-technológiát is: 3D Vision, 4K Surround, Dynamic Super Resolution (DSR), GameStream, G-SYNC (Surround), Multi Frame Sampled Anti-Aliasing (MFAA), Percentage Closer Soft Shadows (PCSS), SLI és még sok más.

Ezenkívül a 350.12 WHQL speciális illesztőprogram frissített SLI-profilokat tartalmaz számos játékhoz, beleértve a Grand Theft Auto V új profilját. Az SLI-profilokon kívül az illesztőprogram frissíti és profilokat ad hozzá mind a 3D Vision technológiához, mind a GTAV-hoz "Kiváló" besorolású, ami kiváló sztereó képminőséget jelent ebben a játékban – a megfelelő szemüveg és monitor tulajdonosai próbálják ki!

A virtuális valóság technológiák támogatása

A virtuális valóság (Virtual Reality – VR) témája ma már az egyik leghangosabb téma a játékiparban. A VR iránti érdeklődés felélénküléséért sok szempontból a Facebook által akkor felvásárolt Oculus cég „okolható”. Eddig csak prototípusokat vagy SDK-kat mutattak be, de a tervek szerint még idén kiadják az Oculus Rift sisak kereskedelmi verzióját. Más cégek sem maradnak ki. Például a jól ismert Valve cég bejelentette, hogy partnerségre lép a HTC-vel, hogy 2015 végéig kiadja saját virtuális valóság sisakját is.

Természetesen a GPU-gyártók is a VR-ben látnak jövőt, az Nvidia pedig szorosan együttműködik a virtuális valósághoz szükséges szoftver- és hardvermegoldások beszállítóival annak érdekében, hogy a lehető legkényelmesebben működjenek a Geforce videokártyákkal (vagy akár a Tegra, ki tudja?) . És ezek nem csak marketing szlogenek, hiszen ahhoz, hogy a VR használata kényelmes legyen, több problémát is meg kell oldani, többek között csökkenteni kell a késleltetést a játékos akciója (fejmozgása) és ennek a mozgásnak a kijelzőn történő megjelenítése között – A túl sok késés nem csak a virtuális valóság élményét rontja el, hanem az úgynevezett mozgási betegséget (betegség, mozgási betegség) is előidézheti.

A késleltetés csökkentése érdekében az Nvidia VR Direct szoftvere támogatja az aszinkron idővetemítés nevű funkciót. Az aszinkron idővetemítés használatával egy régebbi jelenet elmozdulhat a játékos fejmozdulatai alapján, amelyeket később a sisak érzékelői rögzítettek. Ez csökkenti a művelet és a kép megjelenítése közötti késleltetést, mivel a GPU-nak nem kell újraszámolnia a teljes képkockát az eltolás előtt. Az Nvidia már most is biztosít illesztőprogram-támogatást a VR-alkalmazások fejlesztői számára, és aszinkron időtorzítást is alkalmazhatnak a szoftvereikben.

A kimeneti késleltetésen túlmenően nagyon fontos, hogy a virtuális valóság sisakjában kényelmes játékmenetet érjünk el, nem csak az, hogy magas képkockasebességet biztosítsunk, hanem az is, hogy a lehető legsimább változtatással jelenítse meg a képkockákat minden szem számára. Ennek megfelelően a jövő generációs VR-sisakok népszerűsítése után a játékosok közül sokan szeretnék kipróbálni azokat modern, GPU-erőt igénylő játékokban. És bizonyos esetekben két chipes SLI konfigurációt kell létrehoznia egy pár erős videokártyából, mint például a Geforce GTX Titan X.

Az ilyen esetekben a maximális kényelem biztosítása érdekében az Nvidia VR SLI technológiát kínál, amely lehetővé teszi a játékfejlesztők számára, hogy egy párból egy adott GPU-t rendeljenek minden szemhez a késleltetés csökkentése és a teljesítmény javítása érdekében. Ebben az esetben a képet a bal szem számára egy GPU, a jobb szem számára pedig a második GPU jeleníti meg. Ez a kézenfekvő megoldás csökkenti a késleltetést, és ideális VR alkalmazásokhoz.

A VR SLI és az aszinkron időtekercselés egyelőre nem érhető el az Nvidia nyilvános meghajtóiban, de ez nem is különösebben szükséges, hiszen használatukhoz módosítani kell a játék futtatható kódját. A VR SLI-t és az Asynchronous Time Warp-ot támogató, kiadás előtti Geforce video-illesztőprogramok pedig bizonyos Nvidia-partnerek, például az Epic, a Crytek, a Valve és az Oculus számára elérhetők. Nos, a nyilvános illesztőprogramot a végleges VR-termékek értékesítése előtt adják ki.

Ezenkívül az olyan erős grafikus kártyát, mint a Geforce GTX Titan X, számos virtuális valóság bemutatón használtak az idei Game Developers Conference 2015-ön. Íme, csak néhány példa: „Thief in the Shadows” – az Nvidia, az Epic közös fejlesztése. , az Oculus és a WETA Digital, a The Hobbit Movie Trilogy mögött álló vizuális effektus-stúdió, a Back to Dinosaur Island a Crytek híres, 14 éves X-Isle: Dinosaur Island demójának és a Valve's Portal ”, „Job Simulator”, „TheBluVR” újraindítása. ” és a „Galéria”. Általában a VR-sisakok értékesítésén múlik, és az Nvidia készen áll erre.

Következtetések az elméleti részről

Építészeti szempontból a Maxwell architektúra második generációjának új csúcskategóriás GPU-ja nagyon érdekesnek bizonyult. Testvéreihez hasonlóan a GM200 is a vállalat korábbi architektúráinak legjavát használja, hozzáadott funkciókkal és a Maxwell második generációjának minden fejlesztésével. Ezért funkcionálisan az újdonság a Geforce GTX 900 sorozat modelljeinek megfelelően jól néz ki.A végrehajtó egységek komoly fejlesztésének segítségével az Nvidia mérnökei a teljesítmény-fogyasztás arány megkétszerezését érték el Maxwellben, miközben funkcionalitást adunk – felhívjuk a figyelmet a VXGI globális megvilágításgyorsítási és grafikus API DirectX 12 hardveres támogatására.

A csúcskategóriás Geforce GTX Titan X grafikus kártyát olyan rendkívül lelkes játékosok számára tervezték, akik a legjobb minőséget és teljesítményt szeretnék elérni a legújabb PC-játékokkal, a legmagasabb felbontáson, a legmagasabb minőségi beállításokkal és teljes képernyős élsimítással. , és mindezt elfogadható képkockasebességgel. Egyrészt kevés játékhoz kell ilyen erős GPU, és be lehet szerelni pár olcsóbb videokártyát. Másrészt a megnövekedett késleltetésű és egyenetlen képkockasebességű többchipes megoldások problémái miatt sok játékos egy erős GPU-t részesít előnyben egy pár kevésbé erős GPU-val szemben. Arról nem is beszélve, hogy az egychipes kártya alacsonyabb energiafogyasztást és a hűtőrendszer zaját is biztosítja.

Természetesen ilyen körülmények között a Geforce GTX Titan X fő problémája a megoldás ára. De tény, hogy olyan résben árulják, ahol egyszerűen nincs szükség az árindoklás és az ár-érték arány fogalmára - a maximális teljesítményű megoldások mindig lényegesen drágábbak, mint a hozzájuk közel állók, de mégsem olyan produktívak. A Titan X pedig egy rendkívül erős és drága grafikus kártya azok számára, akik hajlandóak fizetni a 3D alkalmazások maximális sebességéért.

A Geforce GTX Titan X prémium (luxus, elit - nevezzük akárhogy is) videokártyaként van pozicionálva, és az ajánlott árra sem lehet panasz - főleg a vonal korábbi megoldásai (GTX Titan és GTX Titan Black) óta. ) kezdetben pontosan ugyanannyiba került – 999 dollár. Ez a megoldás azok számára, akiknek az ára ellenére a létező leggyorsabb GPU-ra van szükségük. Sőt, a 3D benchmarkok leggazdagabb rajongói és rekorderei számára három, sőt négy Titan X videokártyával rendelkező rendszerek is elérhetők – ezek egyszerűen a világ leggyorsabb videórendszerei.

Ezeket a kéréseket a Titan X teljes mértékben igazolja és teljesíti – a csúcskategóriás újdonság, még önmagában is, a legmagasabb képkockasebességet mutatja minden játékalkalmazásban és szinte minden körülmények között (felbontás és beállítások), valamint a 12-es gyors GDDR5 videomemória mennyisége A GB lehetővé teszi, hogy ne gondoljon a helyi memória hiányára több évre előre - még a jövő generációinak játékai sem, amelyek támogatják a DirectX 12-t stb., egyszerűen nem tudják annyira eltömíteni ezt a memóriát, hogy nem lesz elég.

A 2013-as első GTX Titanhoz hasonlóan a GTX Titan X is új mércét állít fel a teljesítmény és a funkcionalitás terén a prémium grafikus szegmensben. Egy időben a GTX Titan meglehetősen sikeres termék lett az Nvidia számára, és kétségtelen, hogy a GTX Titan X megismétli elődje sikerét. Sőt, a Maxwell architektúra legnagyobb videochipére épülő modell fenntartások nélkül a legproduktívabb a piacon. Mivel az olyan videokártyákat, mint a GTX Titan X, maga az Nvidia gyártja, és referenciamintákat adnak el partnereiknek, a bejelentés pillanatától kezdve nem volt probléma a bolti elérhetőséggel.

A GTX Titan X minden tekintetben a legmagasabb szintjét képviseli: a Maxwell család legerősebb GPU-ja, a grafikus kártyák kiváló dizájnja a korábbi Titan modellek stílusában, valamint a kiváló hűtőrendszer - hatékony és csendes. A 3D renderelési sebességet tekintve ez korunk legjobb videokártyája, amely több mint harmadával nagyobb teljesítményt nyújt a Titan X előtt megjelent legjobb modellekhez képest - mint például a Geforce GTX 980. És ha nem gondolja a dual- chip-videórendszerek (mint például egy pár ugyanolyan GTX 980 vagy egy Radeon R9 295X2 egy versenytárstól, amely a többchipes konfigurációkban rejlő problémákkal küzd), akkor a Titan X nevezhető a legjobb megoldásnak a nem szegény rajongók számára.

Anyagunk következő részében az új Nvidia Geforce GTX Titan X videokártya renderelési sebességét vizsgáljuk meg a gyakorlatban, összehasonlítva a sebességét az AMD legerősebb videórendszereinek teljesítményével, illetve az Nvidia elődeinek teljesítményével. a szokásos szintetikus tesztsorozatunkban, majd a játékokban.

2015 márciusában a nagyközönségnek bemutatták az NVIDIA új zászlóshajó grafikus kártyáját. Az Nvidia Titan X gaming videokártya egylapkás, architektúrája a gyártó által szabadalmaztatott Pascal algoritmusra épül (a GP102 GPU-hoz). A Geforce GTX Titan X bemutatásakor joggal számított a legerősebb játékvideó adapternek.

GPU. A GPU 3584 CUDA magot tartalmaz, 1417 MHz-es alapfrekvenciával. Ebben az esetben az órajel frekvencia gyorsulással 1531 MHz szinten lesz.

Memória. A zászlóshajót 12 Gb-os kapacitással mutatták be, de később megjelent egy 2-szeres csökkentett hangerős verzió is. A memória sebessége eléri a 10 Gb/s-ot. A memóriabusz sávszélessége 384 bites, ami 480 Gb / s memória sávszélességet tesz lehetővé. GDDR5X memóriachipeket használnak, így még 6 Gb-os konfiguráció esetén is magas lesz a teljesítmény.

A Titan X egyéb jellemzői. Az ALU-k száma 3584, a ROP 96, az overlay textúra egységek száma pedig 192. A kártya támogatja a 7680×4320-as felbontást, valamint az új DP 1.4, HDMI 2.0b, DL-DVI és HDCP készletet is. 2.2-es verziójú csatlakozók.

A videokártya PCIe 3.0 slottal (busszal) működik. A teljes teljesítmény biztosításához további 8 és 6 tűs csatlakozókra van szükség a tápegységen. A kártya két nyílást foglal el az alaplapon (SLI 2, 3 és 4 kártyához lehetséges).

A grafikus kártya magassága 4,376 hüvelyk, a hossza 10,5 hüvelyk. 600 W vagy annál nagyobb teljesítményű tápegységek használata javasolt.

Videokártya áttekintése

A gyártók fő hangsúlyt a VR grafikai fejlesztésére, valamint a DirectX 12 teljes támogatására helyezték. A videokártya teljesítménye a játékokban némileg növelhető a GTX Titan X 12 Gb kártya teljesítményének túlhajtásával.


A Pascal technológia a VR-játékokat célozza meg. Az ultra-nagy sebességű FinFET technológia segítségével sisak használatakor maximális simítás érhető el. A Geforce Titan X Pascal modell teljes mértékben kompatibilis a VRWorks-szel, ami a játék fizikájának és tapintási érzeteinek átélésének képességével a teljes elmélyülés hatását kelti.

A réz hőcsövek helyett itt párologtató kamrát használnak. A maximum hőmérséklet 94 fok (a gyártó honlapjáról), a teszteken azonban 83-85 fok az átlaghőmérséklet. Amikor erre a hőmérsékletre emelkedik, a hűtőturbina felgyorsul. Ha a gyorsítás nem elegendő, akkor a grafikus chip órajel-frekvenciája csökken. A turbina zaja jól megkülönböztethető, tehát ha ez jelentős mutató a felhasználó számára, akkor jobb a vízhűtés használata. Erre a modellre már léteznek megoldások.

Bányászati ​​teljesítmény javítása

A cég a játékteljesítményre összpontosított. A videokártyához képest a Geforce GTX Titan X 12 Gb nem javítja a bányászatot, de a fogyasztás magasabb. Minden Titan sorozatú grafikus kártya kiemelkedik FP32 és INT8 dupla pontosságú teljesítményével. Ez lehetővé teszi számunkra, hogy egy sor kártyát professzionális osztálygyorsítónak tekintsünk. A GM200 chippel ellátott modell azonban nem, mivel számos teszt teljesítményromlást mutat a hash-számítások és egyéb műveletek során. A kriptovaluta bányászat teljesítménye mindössze 37,45 Mhash/s.

Nem javasoljuk az X modell használatát kriptográfiai valuták bányászatára. Még az Nvidia Titan X teljesítményének javítása sem fogja elérni ugyanazt az eredményt, mint a Radeon Vega (ha ugyanabban az árkategóriában vesszük), nem beszélve a Tesláról.

Ugyanazon gyártó új kártyája 2,5-szer nagyobb teljesítményt nyújt. Túlhúzott állapotban a Titan V 82,07 Mhash / s értéket adott.

Teszt eredmények a játékokban

Ha a Titan X Pascal videokártyát másokkal hasonlítjuk össze, akkor 20-25%-kal jobb, mint az azonos gyártó videokártyája, ráadásul majdnem kétszer felülmúlja a versenytárs Radeon R9 FuryX-et, amely szintén egychipes.

Minden 4K és UltraHD játékban sima képet látunk. Az SLI módot használó teszteken is jó eredményeket értünk el.

Különböző gyártók videokártyáinak összehasonlítása

A Titan X 12 Gb videokártya ára 1200 dollártól kezdődik, és a gyártótól és a memória mennyiségétől függ.

Kínáljuk, hogy megismerkedjen a különböző gyártók termékeinek összehasonlító jellemzőivel (* - hasonló):

TermékPalit GeForce GTX TITAN XMSI GeForce GTX TITAN XASUS GeForce GTX TITAN X
Elsődleges jellemzők listája
Videokártya típusajátszma, meccs *
A GPU neveNVIDIA GeForce GTX TITAN X *
Gyártói kódNE5XTIX015KB-PG600F *
GPU kódnévGM 200 *
Technikai folyamat28 nm *
Támogatott monitoroknégy *
Felbontás GM200 (maximum)5120 és 3200 között *
A specifikációk listája
GPU frekvencia1000Mhz *
Memória méret12288 Mb *
Memória típusaGDDR5 *
Memória frekvencia7000 Mhz7010 MHz7010 MHz
Memóriabusz szélesség384 bites *
RAMDAC frekvencia400 Mhz *
CrossFire /SLI mód támogatásalehetséges *
Quad SLI támogatáslehetséges* *
Specifikációk listája csatlakozásonként
CsatlakozókHDC, HDMI, DisplayPort x3 támogatása *
HDMI verzió2.0 *
Matek blokk
Univerzális processzorok száma3072 *
Shader verzió5.0 *
Textúra blokkok száma192 *
Raszterezési blokkok száma96 *
További jellemzők
Méretek267×112 mm280×111 mm267×111 mm
Az elfoglalt helyek száma2 *
Ár74300 r.75000 r.75400 r.

Az összehasonlító táblázat alapján látható, hogy a különböző gyártók megfelelnek a szabványosításnak. A jellemzők különbsége jelentéktelen: eltérő a videomemória frekvenciája és az adapterek mérete.

Jelenleg nem kapható ez a modell egyetlen gyártótól sem. 2018 januárjában mutatkozott be a világ, amely a játékokban és a kriptovaluta bányászatában többszörösen felülmúlja társait.