Recenzja i testowanie NVIDIA GeForce GTX TITAN X: masakra dzieci. Przegląd karty graficznej NVIDIA TITAN X: duży wygląd i wymiary Pascal

Nvidia Geforce GTX Titan X

Najpotężniejszy akcelerator jednoprocesorowy

  • Część 2 - Praktyczna znajomość

Ze względu na późne otrzymanie próbki testowej nowego akceleratora (i oprogramowania do niego), a także udział naszego autora Aleksieja Berillo w pracach GTC, część recenzji poświęcona jest architekturze nowej Nvidii produkt i analiza testów syntetycznych ukaże się później (za około tydzień). A teraz przedstawiamy materiał, który zapoznaje czytelników z funkcjami karty graficznej, a także z wynikami testów gier.

Urządzenia)



Nvidia Geforce GTX Titan X 12288 MB 384-bit GDDR5 PCI-E
ParametrOznaczającyWartość nominalna (odniesienie)
GPUGeforce GTX Titan X (GM200)
BerłoPCI Express x16
Częstotliwość pracy GPU (ROP), MHz1000—1075 1000—1075
Częstotliwość pamięci (fizyczna (efektywna)), MHz1750 (7000) 1750 (7000)
Szerokość magistrali wymiany pamięci, bit384
Liczba jednostek obliczeniowych w GPU / częstotliwość bloków, MHz24/1000—1075 24/1000—1075
Liczba operacji (ALU) na blok128
Operacje ogółem (ALU)3072
Liczba jednostek teksturujących (BLF/TLF/ANIS)192
Liczba bloków rasteryzacji (ROP)96
Wymiary, mm270×100×35270×100×35
Liczba gniazd w jednostce systemowej zajmowanych przez kartę graficzną2 2
Kolor tekstolitowyczarnyczarny
Pobór mocy (szczyt w 3D/w trybie 2D/w trybie „uśpienia”), W257/98/14 257/98/14
Poziom hałasu (w trybie 2D / w trybie 2D (odtwarzanie wideo) / w trybie maksymalnie 3D), dBA20/21/29,5
Gniazda wyjściowe1×DVI (Dual-Link/HDMI), 1×HDMI 2.0, 3×DisplayPort 1.2
Wsparcie dla przetwarzania wieloprocesowegoSLI
Maksymalna liczba odbiorników/monitorów do jednoczesnego wyświetlania obrazu4 4
Zasilanie pomocnicze: liczba złączy 8-pinowych1 1
Zasilanie pomocnicze: liczba złączy 6-pinowych1 1
Maksymalna rozdzielczość 2D: DP/HDMI/Dual-Link DVI/Single-Link DVI
Maksymalna rozdzielczość 3D: DP/HDMI/Dual-Link DVI/Single-Link DVI3840×2400/3840×2400/2560×1600/1920×1200

W pakiecie z pamięcią lokalną

Karta posiada 12288 MB pamięci GDDR5 SDRAM umieszczonej w 24 układach 4Gb (12 z każdej strony PCB).

Jako syntetyczne testy dla DirectX 11 użyliśmy przykładów z pakietów Microsoft i AMD SDK, a także programu demonstracyjnego Nvidia. Pierwszym z nich jest HDRToneMappingCS11.exe i NBodyGravityCS11.exe z zestawu DirectX SDK (luty 2010). Wzięliśmy również aplikacje od obu producentów chipów wideo: Nvidii i AMD. DetailTessellation11 i PNTriangles11 zostały zaczerpnięte z pakietu ATI Radeon SDK (są także w DirectX SDK). Dodatkowo wykorzystano program demonstracyjny Realistic Water Terrain firmy Nvidia, znany również jako Island11.

Testy syntetyczne przeprowadzono na następujących kartach wideo:

  • Geforce GTX Titan X GTX Tytan X)
  • Geforce GTX Titan Z o standardowych parametrach (w skrócie GTX Titan Z)
  • GeForce GTX 980 o standardowych parametrach (w skrócie GTX 980)
  • Radeon R9 295X2 o standardowych parametrach (w skrócie R9 295X2)
  • Radeon R9 290X o standardowych parametrach (w skrócie R9 290X)

Aby przeanalizować wydajność nowego modelu karty graficznej Geforce GTX Titan X, rozwiązania te zostały wybrane z następujących powodów. Geforce GTX 980 jest oparty na procesorze graficznym o tej samej architekturze Maxwell, ale niższego poziomu - GM204, i bardzo ciekawie będzie dla nas ocenić, jakie komplikacje dały chip do GM200. Cóż, dwuukładowa karta graficzna Geforce GTX Titan Z została wzięta tylko w celach informacyjnych – jako najbardziej wydajna karta graficzna Nvidii oparta na parze chipów GK110 z poprzedniej architektury Kepler.

Od konkurencyjnej firmy AMD wybraliśmy również do porównania dwie karty graficzne. Zasadniczo są one bardzo różne, choć bazują na tych samych GPU Hawaii – mają po prostu inną liczbę GPU na kartach i różnią się rozmieszczeniem i ceną. Geforce GTX Titan X nie ma konkurentów cenowych, więc wzięliśmy najmocniejszą dwuprocesorową kartę graficzną Radeon R9 295X2, chociaż takie porównanie nie byłoby zbyt interesujące technicznie. W przypadku tej ostatniej wzięto pod uwagę najszybszą jednoukładową kartę graficzną konkurenta, Radeon R9 290X, chociaż została ona wypuszczona zbyt dawno temu i opiera się na wyraźnie mniejszej złożoności GPU. Ale po prostu nie ma innego wyboru spośród rozwiązań AMD.

Direct3D 10: testy shaderów pikseli PS 4.0 (teksturowanie, zapętlanie)

Porzuciliśmy przestarzałe testy porównawcze DirectX 9, ponieważ super wydajne rozwiązania, takie jak Geforce GTX Titan X, nie dają w nich zbyt dobrych wyników, ponieważ są zawsze ograniczone przepustowością pamięci, szybkością wypełniania lub teksturowaniem. Nie wspominając już o tym, że karty graficzne z dwoma chipami nie zawsze działają poprawnie w takich aplikacjach, a mamy ich dwie.

Druga wersja RightMark3D zawiera dwa znane już testy PS 3.0 pod Direct3D 9, które zostały przepisane dla DirectX 10, a także dwa nowe testy. Pierwsza para dodała możliwość włączenia self-shadowingu i supersamplingu shaderów, co dodatkowo zwiększa obciążenie chipów wideo.

Testy te mierzą wydajność zapętlonych shaderów pikseli przy dużej liczbie próbek tekstur (do kilkuset próbek na piksel w najcięższym trybie) i stosunkowo małym obciążeniu ALU. Innymi słowy, mierzą szybkość pobierania tekstur i wydajność rozgałęziania w pixel shaderze.

Pierwszym testem shadera pikseli będzie Fur. Przy najniższych ustawieniach używa od 15 do 30 próbek tekstur z mapy wysokości i dwóch próbek z głównej tekstury. Szczegółowość efektu – tryb „High” zwiększa ilość próbek do 40-80, włączenie supersamplingu „shader” – do 60-120 próbek, a tryb „High” wraz z SSAA charakteryzuje się maksymalną „surowością” - od 160 do 320 próbek z mapy wysokości.

Sprawdźmy najpierw tryby bez włączonego supersamplingu, są one stosunkowo proste, a stosunek wyników w trybach „Low” i „High” powinien być w przybliżeniu taki sam.

Wydajność w tym teście zależy od liczby i wydajności TMU, ma to również wpływ na wydajność wykonywania złożonych programów. A w wersji bez supersamplingu efektywna szybkość wypełniania i przepustowość pamięci również mają dodatkowy wpływ na wydajność. Wyniki przy szczegółowości na poziomie „Wysokim” są do półtora raza niższe niż w przypadku „Niskiego”.

W zadaniach proceduralnego renderowania futra z dużą liczbą wyborów tekstur, wraz z wydaniem chipów wideo opartych na architekturze GCN, AMD już dawno przejęło prowadzenie. To właśnie płyty Radeon do dziś są w tych porównaniach najlepsze, co wskazuje na to, że są one wydajniejsze w wykonywaniu tych programów. Ten wniosek potwierdza dzisiejsze porównanie – karta graficzna Nvidii, którą uważamy za przegraną nawet z przestarzałym, jednoukładowym Radeonem R9 290X, nie wspominając o najbliższym cenowo konkurentze AMD.

W pierwszym teście Direct3D 10 nowa karta graficzna modelu Geforce GTX Titan X okazała się nieco szybsza niż jej młodsza siostra oparta na chipie o tej samej architekturze w postaci GTX 980, ale ta ostatnia nie jest daleko z tyłu - 9-12%. Wynik ten można wytłumaczyć zauważalnie niższą szybkością teksturowania GTX 980 i pozostaje w tyle pod względem innych parametrów, chociaż wyraźnie nie chodzi o wydajność jednostek ALU. Dwuczipowy Titan Z jest szybszy, ale nie tak szybki jak Radeon R9 295X2.

Spójrzmy na wynik tego samego testu, ale z włączonym supersamplingiem „shaderowym”, co czterokrotnie zwiększa pracę: w takiej sytuacji coś powinno się zmienić, a przepustowość pamięci z szybkością wypełniania będzie miała mniejszy efekt:

W trudnych warunkach nowa karta graficzna modelu Geforce GTX Titan X już wyraźniej wyprzedza młodszy model z tej samej generacji - GTX 980, który jest szybszy o przyzwoite 33-39%, co jest znacznie bliższe teoretycznej różnicy między nimi. A zaległości konkurentów w postaci Radeona R9 295X2 i R9 290X zmniejszyły się - nowy produkt Nvidii prawie dogonił jednoukładowego Radeona. Jednak dwuchipowy jest daleko do przodu, ponieważ chipy AMD preferują obliczenia piksel po pikselu i są bardzo mocne w takich obliczeniach.

Następny test DX10 mierzy wydajność wykonywania złożonych, zapętlonych shaderów pikseli z dużą liczbą pobieranych tekstur i nazywa się Steep Parallax Mapping. Przy niskich ustawieniach używa od 10 do 50 próbek tekstur z mapy wysokości i trzech próbek z głównych tekstur. Po włączeniu trybu ciężkiego z samocieniowaniem liczba próbek jest podwojona, a supersampling czterokrotnie. Najbardziej złożony tryb testowy z supersamplingiem i samocieniowaniem wybiera od 80 do 400 wartości tekstur, czyli osiem razy więcej niż tryb prosty. Najpierw sprawdzamy proste opcje bez supersamplingu:

Drugi test Direct3D 10 pixel shader jest bardziej interesujący z praktycznego punktu widzenia, ponieważ odmiany mapowania paralaksy są szeroko stosowane w grach, podczas gdy ciężkie warianty, takie jak strome mapowanie paralaksy, są od dawna wykorzystywane w wielu projektach, na przykład w Crysis, Lost Planet i wiele innych gier. Ponadto w naszym teście oprócz supersamplingu można włączyć automatyczne cieniowanie, co około dwukrotnie zwiększa obciążenie układu wideo - ten tryb nazywa się „Wysoki”.

Schemat jest generalnie podobny do poprzedniego, również bez włączenia supersamplingu, i tym razem nowy Geforce GTX Titan X okazał się nieco bliższy GTX Titan Z, nie tracąc tak bardzo do płyty opartej na dwóch chipach na parze procesorów graficznych z rodziny Kepler. W innych warunkach nowy produkt wyprzedza o 14-19% poprzedni topowy model obecnej generacji od Nvidii i nawet jeśli weźmiemy porównanie z kartami graficznymi AMD, coś się tutaj zmieniło – w tym przypadku nowy GTX Titan X jest nieco gorszy od Radeona R9 290X. Dwuprocesorowy R9 295X2 wyprzedza jednak wszystkich. Zobaczmy, co zmieni włączenie supersamplingu:

Gdy włączone są supersampling i self-shadowing, zadanie staje się trudniejsze, połączone włączenie dwóch opcji jednocześnie zwiększa obciążenie kart prawie ośmiokrotnie, powodując poważny spadek wydajności. Różnica między wskaźnikami prędkości testowanych kart graficznych nieznacznie się zmieniła, chociaż włączenie supersamplingu ma mniejszy efekt niż w poprzednim przypadku.

W tym teście D3D10 pixel shader rozwiązania graficzne AMD Radeon działają wydajniej niż konkurencyjne karty Geforce, ale nowy układ GM200 zmienia sytuację na lepsze – karta Geforce GTX Titan X oparta na układzie architektury Maxwell już wyprzedza Radeona R9 290X w każdych warunkach (jednak w oparciu o zauważalnie mniej skomplikowany układ GPU). Liderem pozostaje rozwiązanie dual-chip bazujące na parze Hawaii, ale w porównaniu z innymi rozwiązaniami Nvidii, nowy produkt nie jest zły. Pokazał prędkość prawie na poziomie dwuprocesorowego Geforce GTX Titan Z i wyprzedził Geforce GTX 980 o 28-33%.

Direct3D 10: testy porównawcze cieniowania pikseli PS 4.0 (komputery)

Kolejne kilka testów shaderów pikseli zawiera minimalną liczbę pobieranych tekstur, aby zmniejszyć wpływ wydajności TMU. Używają dużej liczby operacji arytmetycznych i dokładnie mierzą matematyczną wydajność chipów wideo, szybkość wykonywania instrukcji arytmetycznych w pixel shaderze.

Pierwszym testem z matematyki jest Mineral. Jest to złożony test proceduralny dotyczący teksturowania, który wykorzystuje tylko dwie próbki danych tekstury oraz 65 instrukcji sin i cos.

Wyniki granicznych testów matematycznych najczęściej odpowiadają różnicy częstotliwości i liczby jednostek obliczeniowych, ale tylko w przybliżeniu, gdyż na wyniki ma wpływ różna efektywność ich wykorzystania w określonych zadaniach, optymalizacja sterowników oraz ostatnia częstotliwość i systemy zarządzania energią, a nawet nacisk na przepustowość pamięci. W przypadku testu Mineral nowy model Geforce GTX Titan X jest tylko o 10% szybszy od płyty GTX 980 opartej na chipie GM204 z tej samej generacji, a dwuprocesorowy GTX Titan Z nie był w tym teście tak szybki - coś wyraźnie uniemożliwia otwarcie płyt Nvidii.

Porównanie Geforce GTX Titan X z konkurencyjnymi płytami głównymi AMD nie byłoby takie smutne, gdyby procesory graficzne w R9 290X i Titan X były zbliżone do złożoności. Ale GM200 jest znacznie większy niż Hawaje, a jego mała wygrana jest naturalna. Aktualizacja architektury Nvidii z Keplera do Maxwella zbliżyła nowe układy do rozwiązań konkurencyjnych AMD w takich testach. Ale nawet tańsze dwuukładowe rozwiązanie Radeon R9 295X2 jest zauważalnie szybsze.

Rozważmy drugi test obliczeń shaderów, który nazywa się Ogień. Jest cięższy dla ALU, a jest w nim tylko jedno pobieranie tekstur, a liczba instrukcji sin i cos została podwojona, aż do 130. Zobaczmy, co się zmieniło wraz ze wzrostem obciążenia:

W drugim teście matematycznym RigthMark widzimy już różne wyniki dla kart wideo względem siebie. Tak więc nowy Geforce GTX Titan X jest już mocniejszy (o 20%) przed GTX 980 na chipie o tej samej architekturze graficznej, a dwuukładowy Geforce jest bardzo zbliżony do nowego produktu - Maxwell radzi sobie z zadaniami obliczeniowymi lepszy niż Kepler.

Radeon R9 290X pozostaje w tyle, ale jak już pisaliśmy, GPU Hawaii jest zauważalnie prostszy niż GM200, a ta różnica jest logiczna. Ale chociaż dwuukładowy Radeon R9 295X2 nadal jest liderem w testach matematycznych, ogólnie nowy układ wideo Nvidii radził sobie dobrze w takich zadaniach, chociaż nie osiągnął teoretycznej różnicy w stosunku do GM204.

Direct3D 10: Testy shaderów geometrii

W RightMark3D 2.0 dostępne są dwa testy szybkości shaderów geometrii, pierwsza opcja nazywa się „Galaxy”, a technika jest podobna do „sprites point” z poprzednich wersji Direct3D. Animuje system cząstek na GPU, a shader geometrii z każdego punktu tworzy cztery wierzchołki, które tworzą cząstkę. Podobne algorytmy powinny być szeroko stosowane w przyszłych grach DirectX 10.

Zmiana balansu w testach Geometry Shadera nie wpływa na ostateczny wynik renderowania, ostateczny obraz jest zawsze dokładnie taki sam, zmieniają się tylko metody przetwarzania sceny. Parametr „obciążenie GS” określa, w jakim shaderze wykonywane są obliczenia – w wierzchołku czy w geometrii. Liczba obliczeń jest zawsze taka sama.

Rozważmy pierwszą wersję testu „Galaxy”, z obliczeniami w Vertex Shader, dla trzech poziomów złożoności geometrycznej:

Stosunek prędkości przy różnej złożoności geometrycznej scen jest w przybliżeniu taki sam dla wszystkich rozwiązań, wydajność odpowiada liczbie punktów, przy każdym kroku spadek FPS jest bliski dwukrotności. To zadanie jest bardzo proste w przypadku nowoczesnych kart graficznych o dużej mocy, a jego wydajność jest ograniczona szybkością przetwarzania geometrii, a czasami przepustowością pamięci i/lub szybkością wypełniania.

Różnica między wynikami kart graficznych opartych na układach Nvidia i AMD jest zwykle na korzyść rozwiązań firmy kalifornijskiej i wynika z różnic w geometrycznych rurociągach układów tych firm. Również w tym przypadku topowe chipy wideo Nvidii mają wiele jednostek przetwarzania geometrii, więc zysk jest oczywisty. W testach geometrii płyty Geforce są zawsze bardziej konkurencyjne niż Radeon.

Nowy model Geforce GTX Titan X nieco pozostaje w tyle za dwuukładową płytą GTX Titan Z na kartach graficznych poprzedniej generacji, ale przewyższa GTX 980 o 12-25%. Karty graficzne Radeon wykazują wyraźnie inne wyniki, ponieważ R9 295X2 jest oparty na parze procesorów graficznych i tylko on może konkurować z nowością w tym teście, podczas gdy Radeon R9 290X był outsiderem. Zobaczmy, jak zmienia się sytuacja po przeniesieniu części obliczeń do Geometry Shadera:

Kiedy w tym teście zmieniło się obciążenie, liczby zmieniły się nieznacznie, zarówno dla płyt AMD, jak i dla rozwiązań Nvidii. I to tak naprawdę niczego nie zmienia. Karty graficzne w tym teście shaderów geometrii słabo reagują na zmiany parametru obciążenia GS, który odpowiada za przeniesienie części obliczeń do shadera geometrii, więc wnioski pozostają takie same.

Niestety, „Hyperlight” to drugi test shaderów geometrii, demonstrujący użycie kilku technik jednocześnie: instancjonowanie, wyjście strumieniowe, ładowanie bufora, który wykorzystuje dynamiczne tworzenie geometrii poprzez rysowanie do dwóch buforów, a także nową funkcję Direct3D 10 – Wyjście strumieniowe, na Wszystkie nowoczesne karty graficzne AMD po prostu nie działają. W pewnym momencie kolejna aktualizacja sterownika Catalyst spowodowała zatrzymanie tego testu na płytach Catalyst i nie zostało to naprawione od kilku lat.

Direct3D 10: szybkość pobierania tekstur z programów do cieniowania wierzchołków

Testy „Vertex Texture Fetch” mierzą szybkość pobierania dużej liczby tekstur z Vertex Shader. Testy są zasadniczo podobne, więc stosunek wyników kart w testach „Ziemia” i „Fale” powinien być w przybliżeniu taki sam. Oba testy wykorzystują mapowanie przemieszczeń w oparciu o dane z próbkowania tekstur, jedyną istotną różnicą jest to, że test „Fale” wykorzystuje skoki warunkowe, podczas gdy test „Ziemia” nie.

Rozważmy pierwszy test „Ziemia”, najpierw w trybie „Szczegóły efektu Niski”:

Nasze wcześniejsze badania wykazały, że zarówno szybkość wypełniania, jak i przepustowość pamięci mogą wpływać na wyniki tego testu, co wyraźnie widać na wynikach płyt Nvidii, zwłaszcza w prostych trybach. Nowa karta graficzna Nvidii w tym teście pokazuje prędkość wyraźnie niższą niż powinna - wszystkie karty Geforce okazały się być w przybliżeniu na tym samym poziomie, co wyraźnie nie odpowiada teorii. We wszystkich trybach wyraźnie natrafiają na coś w rodzaju przepustowości pamięci. Radeon R9 295X2 nie jest jednak ani trochę szybszy od R9 290X.

Nawiasem mówiąc, tym razem jednoukładowa płyta AMD okazała się mocniejsza niż wszystkie płyty Nvidii w trybie lekkim i mniej więcej na ich poziomie w trybie twardym. Cóż, dwuprocesorowy Radeon R9 295X2 ponownie stał się liderem naszego porównania. Przyjrzyjmy się wydajności w tym samym teście ze zwiększoną liczbą pobieranych tekstur:

Sytuacja na diagramie nieco się zmieniła, rozwiązanie jednoukładowe AMD w ciężkich trybach straciło znacznie więcej płyt Geforce. Nowy Geforce GTX Titan X wykazał prędkość do 14% wyższą niż Geforce GTX 980 i przewyższał jednoukładowego Radeona we wszystkich trybach z wyjątkiem najlżejszego – z powodu tego samego nacisku na coś. Jeśli porównamy nowy produkt z dwuprocesorowym rozwiązaniem AMD, to Titan X był w stanie walczyć w trybie ciężkim, pokazując bliską wydajność, ale pozostając w tyle w trybach lekkich.

Rozważmy wyniki drugiego testu pobierania tekstur z programów do cieniowania wierzchołków. Test Waves ma mniej próbek, ale wykorzystuje skoki warunkowe. Liczba próbek tekstury dwuliniowej w tym przypadku wynosi do 14 („Szczegóły efektu Niska”) lub do 24 („Szczegóły efektu Wysoka”) na wierzchołek. Podobnie jak w poprzednim teście zmienia się złożoność geometrii.

Wyniki drugiego testu teksturowania wierzchołków „Fale” nie przypominają tego, co widzieliśmy na poprzednich diagramach. Szybkość wszystkich kart Geforce w tym teście poważnie się pogorszyła, a nowy model Nvidia Geforce GTX Titan X wykazuje prędkość tylko nieznacznie wyższą niż GTX 980, pozostając w tyle za dwuprocesorowym Titan Z. W porównaniu z konkurencją obie karty Radeon były w stanie aby pokazać najlepszą wydajność w tym teście we wszystkich trybach. Rozważ drugą wersję tego samego problemu:

Wraz ze złożonością zadania w drugim teście próbkowania tekstur szybkość wszystkich rozwiązań spadła, ale karty graficzne Nvidii ucierpiały bardziej, w tym rozważany model. Niemal nic się nie zmienia we wnioskach, nowy model Geforce GTX Titan X jest do 10-30% szybszy niż GTX 980, pozostając w tyle za dwuprocesorowymi Titan Z i obiema kartami Radeon. Radeon R9 295X2 był w tych testach daleko do przodu i z teoretycznego punktu widzenia jest to po prostu niewytłumaczalne, poza niewystarczającą optymalizacją ze strony Nvidii.

3DMark Vantage: Testy funkcji

Testy syntetyczne z pakietu 3DMark Vantage pokażą nam to, czego wcześniej przegapiliśmy. Testy funkcji z tego pakietu testowego obsługują DirectX 10, są nadal aktualne i interesujące, ponieważ różnią się od naszych. Analizując wyniki najnowszej karty graficznej Geforce GTX Titan X w tym pakiecie, wyciągniemy kilka nowych i użytecznych wniosków, które umknęły nam w testach z pakietów z rodziny RightMark.

Test funkcji 1: Wypełnienie teksturą

Pierwszy test mierzy wydajność jednostek pobierania tekstur. Służy do wypełniania prostokąta wartościami odczytanymi z małej tekstury przy użyciu wielu współrzędnych tekstury, które zmieniają każdą klatkę.

Wydajność kart graficznych AMD i Nvidia w teście tekstur Futuremark jest dość wysoka, a końcowe dane różnych modeli są zbliżone do odpowiednich parametrów teoretycznych. Tak więc różnica prędkości między GTX Titan X a GTX 980 okazała się 38% na korzyść rozwiązania opartego na GM200, co jest bliskie teorii, ponieważ nowy produkt ma półtora raza więcej jednostek TMU , ale działają z niższą częstotliwością. Oczywiście opóźnienie w stosunku do Titan Z z dwoma kartami GTX jest nadal aktualne, ponieważ oba procesory graficzne mają większe prędkości teksturowania.

Jeśli chodzi o porównanie szybkości teksturowania nowej topowej karty graficznej Nvidii z podobnymi cenowo rozwiązaniami konkurenta, tutaj nowość jest gorsza od dwuchipowego rywala, który jest warunkowym sąsiadem w niszy cenowej, ale wyprzedza Radeon R9 290X, choć nie za dużo. Mimo to karty graficzne AMD wciąż radzą sobie nieco lepiej z teksturowaniem.

Test funkcji 2: Wypełnienie kolorem

Drugim zadaniem jest test szybkości napełniania. Wykorzystuje bardzo prosty shader pikseli, który nie ogranicza wydajności. Interpolowana wartość koloru jest zapisywana w buforze poza ekranem (cel renderowania) przy użyciu mieszania alfa. Wykorzystuje 16-bitowy bufor pozaekranowy FP16, najczęściej używany w grach korzystających z renderowania HDR, więc ten test jest dość aktualny.

Liczby drugiego podtestu 3DMark Vantage pokazują wydajność jednostek ROP, bez uwzględnienia przepustowości pamięci wideo (tzw. „efektywna szybkość wypełniania”), a test dokładnie mierzy wydajność ROP. Karta Geforce GTX Titan X, którą dzisiaj recenzujemy, wyraźnie wyprzedza obie karty Nvidii, GTX 980, a nawet GTX Titan Z, przewyższając nawet o 45% jednoukładową kartę opartą na GM204 - liczba ROP i ich wydajność w topowym GPU architektury Maxwell jest doskonała!

A jeśli porównamy szybkość wypełniania scen nowej karty graficznej Geforce GTX Titan X z kartami wideo AMD, to karta Nvidia, którą rozważamy w tym teście, pokazuje najlepszą szybkość wypełniania scen, nawet w porównaniu z najpotężniejszym dwuprocesorowym Radeonem R9 295X2, nie wspominając o znacznie pozostającym w tyle za Radeonem R9 290X. Duża liczba bloków ROP i optymalizacje pod kątem wydajności kompresji danych w buforze ramki spełniły swoje zadanie.

Test funkcji 3: Mapowanie okluzji paralaksy

Jeden z najciekawszych testów funkcji, ponieważ ta technika jest już wykorzystywana w grach. Rysuje jeden czworokąt (a dokładniej dwa trójkąty) za pomocą specjalnej techniki Parallax Occlusion Mapping, która imituje złożoną geometrię. Wykorzystywane są raczej wymagające dużej ilości zasobów operacje ray tracingu i mapa głębi o wysokiej rozdzielczości. Ta powierzchnia jest również zacieniona przy użyciu ciężkiego algorytmu Straussa. Jest to test bardzo złożonego i ciężkiego shadera pikseli dla chipa wideo, który zawiera liczne pobrania tekstur podczas ray tracingu, dynamicznych rozgałęzień i złożonych obliczeń oświetlenia Strauss.

Ten test z pakietu 3DMark Vantage różni się od poprzednich tym, że wyniki w nim zależą nie tylko od szybkości obliczeń matematycznych, wydajności wykonywania gałęzi czy szybkości pobierania tekstur, ale od kilku parametrów jednocześnie. Aby osiągnąć dużą prędkość w tym zadaniu, ważna jest prawidłowa równowaga GPU, a także wydajność wykonywania złożonych shaderów.

W tym przypadku ważna jest zarówno wydajność matematyczna, jak i tekstury, a w tej „syntetyce” od 3DMark Vantage nowa płyta Geforce GTX Titan X okazała się o ponad jedną trzecią szybsza od modelu opartego na GPU o tej samej architekturze Maxwell . I nawet dwuprocesorowy Kepler w postaci GTX Titan Z przewyższał nowość o mniej niż 10%.

Jednoukładowa, topowa płyta główna Nvidii w tym teście wyraźnie przewyższała jednoukładowego Radeona R9 290X, ale obie są znacznie lepsze od dwuukładowego Radeona R9 295X2. Procesory graficzne AMD są w tym zadaniu nieco bardziej wydajne niż Nvidia, a R9 295X2 ma dwa z nich.

Test funkcji 4: Tkanina GPU

Czwarty test jest interesujący, ponieważ oblicza interakcje fizyczne (imitacja tkaniny) za pomocą chipa wideo. Wykorzystywana jest symulacja wierzchołków, wykorzystująca połączone działanie programów do cieniowania wierzchołków i geometrii, z kilkoma przejściami. Użyj strumienia, aby przenieść wierzchołki z jednego przebiegu symulacji do drugiego. W ten sposób testowana jest wydajność wykonywania programów do cieniowania wierzchołków i geometrii oraz szybkość przesyłania strumieniowego.

Szybkość renderowania w tym teście zależy również od kilku parametrów jednocześnie, a głównymi czynnikami wpływającymi na to powinna być wydajność przetwarzania geometrii oraz wydajność shaderów geometrii. Oznacza to, że powinny pojawić się mocne strony chipów Nvidii, ale niestety - widzieliśmy bardzo dziwny wynik (sprawdzony ponownie), nowa karta graficzna Nvidii nie pokazała zbyt dużej prędkości, delikatnie mówiąc. Geforce GTX Titan X w tym podteście pokazał najgorszy wynik ze wszystkich rozwiązań, pozostając w tyle za GTX 980 nawet o prawie 20%!

Cóż, porównanie z płytami Radeon w tym teście jest równie brzydkie jak na nowy produkt. Pomimo teoretycznie mniejszej liczby geometrycznych jednostek wykonawczych i geometrycznego opóźnienia wydajności układów AMD w porównaniu z konkurencyjnymi rozwiązaniami, obie karty Radeon działają w tym teście bardzo wydajnie i przewyższają wszystkie trzy przedstawione w porównaniu karty Geforce. Ponownie wygląda to na brak optymalizacji sterowników Nvidii pod kątem konkretnego zadania.

Test funkcji 5: cząsteczki GPU

Test fizycznej symulacji efektów w oparciu o układy cząstek obliczonych za pomocą chipa wideo. Wykorzystywana jest również symulacja wierzchołków, każdy wierzchołek reprezentuje pojedynczą cząstkę. Stream out jest używany w tym samym celu, co w poprzednim teście. Oblicza się kilkaset tysięcy cząstek, wszystkie są animowane osobno, obliczane są również ich kolizje z mapą wysokości.

Podobnie jak w jednym z naszych testów RightMark3D 2.0, cząstki są rysowane za pomocą shadera geometrii, który tworzy cztery wierzchołki z każdego punktu, aby utworzyć cząstkę. Ale test ładuje bloki cieniowania przede wszystkim z obliczeniami wierzchołków, testowany jest również strumień.

W drugim teście „geometrycznym” od 3DMark Vantage sytuacja poważnie się zmieniła, tym razem wszystkie Geforces pokazują już mniej więcej normalny wynik, choć dwuchipowy Radeon nadal pozostaje na czele. Nowy model GTX Titan X jest o 24% szybszy niż jego siostrzany GTX 980 i mniej więcej w tym samym czasie za dwu-GPU Titan Z w poprzedniej generacji GPU.

Porównanie nowości Nvidii z konkurencyjnymi kartami graficznymi AMD tym razem jest bardziej pozytywne - pokazało wynik między dwiema płytami konkurencyjnej firmy i okazało się bliższe Radeonowi R9 295X2, który ma dwa GPU. Nowość znacznie wyprzedza Radeona R9 290X, a to wyraźnie pokazuje nam, jak różne mogą być dwa pozornie podobne testy: symulacja tkaniny i symulacja systemu cząstek.

Test funkcji 6: Szum Perlina

Ostatni test funkcji pakietu Vantage to matematycznie intensywny test układu wideo, który oblicza kilka oktaw algorytmu szumu Perlina w pixel shaderze. Każdy kanał koloru wykorzystuje własną funkcję szumu, aby zwiększyć obciążenie układu wideo. Szum Perlina jest standardowym algorytmem często używanym w teksturowaniu proceduralnym, wykorzystuje wiele obliczeń matematycznych.

W tym przypadku wydajność rozwiązań nie do końca pokrywa się z teorią, choć jest zbliżona do tego, co widzieliśmy w podobnych testach. W teście matematycznym z pakietu Futuremark, który pokazuje szczytową wydajność chipów wideo w zadaniach limitowych, widzimy inny rozkład wyników w porównaniu do podobnych testów z naszego pakietu testowego.

Od dawna wiemy, że chipy wideo AMD z architekturą GCN nadal radzą sobie z takimi zadaniami lepiej niż rozwiązania konkurencji, zwłaszcza w przypadkach intensywnej „matematyki”. Ale nowy topowy model Nvidii jest oparty na dużym chipie GM200, więc Geforce GTX Titan X wypadł w tym teście zauważalnie lepiej niż Radeon R9 290X.

Jeśli porównamy nowy produkt z najlepszym modelem z rodziny Geforce GTX 900, to w tym teście różnica między nimi wyniosła prawie 40% - oczywiście na korzyść karty graficznej, którą dzisiaj rozważamy. Jest to również bliskie różnicy teoretycznej. Niezły wynik jak na Titan X, tylko dwuprocesorowy Radeon R9 295X2 był na czele i daleko do przodu.

Direct3D 11: Shadery obliczeniowe

Aby przetestować niedawno wydane, najwyższej klasy rozwiązanie Nvidii do zadań korzystających z funkcji DirectX 11, takich jak teselacja i shadery obliczeń, wykorzystaliśmy przykłady SDK i wersje demonstracyjne firm Microsoft, Nvidia i AMD.

Najpierw przyjrzymy się testom porównawczym, które używają shaderów obliczeniowych. Ich wygląd to jedna z najważniejszych innowacji w najnowszych wersjach API DX, są już wykorzystywane we współczesnych grach do wykonywania różnych zadań: post-processingu, symulacji itp. Pierwszy test pokazuje przykład renderowania HDR z mapowaniem tonów z pakietu DirectX SDK z przetwarzaniem końcowym, które wykorzystuje moduły cieniowania pikseli i obliczeń.

Szybkość obliczeń w shaderach obliczeniowych i pikseli dla wszystkich płyt AMD i Nvidia jest w przybliżeniu taka sama, różnice zaobserwowano tylko w przypadku kart graficznych opartych na procesorach graficznych o poprzednich architekturach. Sądząc po naszych poprzednich testach, wyniki problemu często zależą nie tyle od mocy matematycznej i wydajności obliczeniowej, ile od innych czynników, takich jak przepustowość pamięci.

W tym przypadku nowa karta graficzna z najwyższej półki jest szybsza niż jednoukładowe wersje Geforce GTX 980 i Radeon R9 290X, ale za dwuprocesorowym R9 295X2, co jest zrozumiałe, ponieważ ma moc pary R9. 290X. Jeśli porównamy nowy produkt z Geforce GTX 980, to rozważana dzisiaj płyta główna kalifornijskiej firmy jest o 34-36% szybsza - dokładnie zgodnie z teorią.

Drugi test cieniowania obliczeniowego również pochodzi z Microsoft DirectX SDK i pokazuje problem obliczeń grawitacyjnych N-body (N-body), symulację dynamicznego systemu cząstek, który podlega siłom fizycznym, takim jak grawitacja.

W teście tym najczęściej kładziony jest nacisk na szybkość wykonania skomplikowanych obliczeń matematycznych, obróbkę geometrii oraz efektywność wykonania kodu z rozgałęzieniami. A w tym teście DX11 wyrównanie sił między rozwiązaniami dwóch różnych firm okazało się zupełnie inne – wyraźnie na korzyść kart graficznych Geforce.

Jednak wyniki pary rozwiązań Nvidii opartych na różnych chipach są również dziwne - Geforce GTX Titan X i GTX 980 są prawie równe, dzieli je tylko 5% różnica w wydajności. Renderowanie dwuprocesorowe nie działa w tym zadaniu, więc konkurenci (modele Radeon z jednym i dwoma układami) są mniej więcej równe szybkości. Cóż, GTX Titan X wyprzedza ich trzykrotnie. Wygląda na to, że zadanie to jest obliczane znacznie sprawniej na GPU architektury Maxwell, o czym pisaliśmy wcześniej.

Direct3D 11: Wydajność teselacji

Shadery obliczeniowe są bardzo ważne, ale kolejną ważną nowością w Direct3D 11 jest teselacja sprzętowa. Rozważyliśmy to bardzo szczegółowo w naszym teoretycznym artykule o Nvidii GF100. Teselacja jest używana od dawna w grach DX11, takich jak STALKER: Call of Pripyat, DiRT 2, Aliens vs Predator, Metro Last Light, Civilization V, Crysis 3, Battlefield 3 i innych. Niektóre z nich wykorzystują teselację do modeli postaci, inne do symulacji realistycznej powierzchni wody lub krajobrazu.

Istnieje kilka różnych schematów partycjonowania prymitywów graficznych (teselacja). Na przykład teselacja fonga, trójkąty PN, podział Catmull-Clark. Tak więc schemat kafelkowania PN Triangles jest używany w STALKER: Call of Pripyat oraz w Metro 2033 - teselacja Phong. Metody te są stosunkowo szybkie i łatwe do zaimplementowania w procesie tworzenia gier i istniejących silnikach, dlatego stały się popularne.

Pierwszym testem teselacji będzie przykład szczegółowej teselacji z pakietu ATI Radeon SDK. Implementuje nie tylko teselację, ale także dwie różne techniki przetwarzania piksel po pikselu: prostą nakładkę map normalnych i mapowanie okluzji paralaksy. Cóż, porównajmy rozwiązania DX11 od AMD i Nvidii w różnych warunkach:

W prostym teście bumpmappingu prędkość płyt nie jest bardzo ważna, ponieważ zadanie to od dawna staje się zbyt łatwe, a wydajność w nim zależy od przepustowości pamięci lub szybkości wypełniania. Dzisiejszy bohater recenzji wyprzedza o 23% poprzedni topowy model Geforce GTX 980 oparty na układzie GM204 i nieco gorszy od swojego konkurenta w postaci Radeona R9 290X. Wersja dwuchipowa jest jeszcze trochę szybsza.

W drugim podteście z bardziej złożonymi obliczeniami piksel po pikselu nowy produkt jest już o 34% szybszy od Geforce GTX 980, co jest bliższe teoretycznej różnicy między nimi. Ale tym razem Titan X jest już nieco szybszy niż jednoukładowy, warunkowy konkurent oparty na jednym Hawajach. Ponieważ dwa chipy w Radeonie R9 295X2 działają idealnie, to zadanie jest na nim wykonywane jeszcze szybciej. Chociaż wydajność obliczeń matematycznych w pixel shaderach jest wyższa w przypadku układów z architekturą GCN, wydanie rozwiązań architektury Maxwell poprawiło pozycję rozwiązań Nvidii.

W podteście lekkiej teselacji ogłoszona niedawno płyta Nvidii jest znowu tylko o jedną czwartą szybsza od Geforce GTX 980 – być może prędkość jest ograniczona przepustowością pamięci, ponieważ teksturowanie w tym teście prawie nie daje żadnego efektu. Jeśli porównamy nowy produkt z kartami AMD w tym podteście, to karta Nvidii znów jest gorsza od obu Radeonów, ponieważ w tym teście teselacji podział trójkątów jest bardzo umiarkowany, a wydajność geometryczna nie ogranicza ogólnej szybkości renderowania.

Drugi test wydajności teselacji będzie kolejnym przykładem dla programistów 3D z pakietu ATI Radeon SDK - PN Triangles. W rzeczywistości oba przykłady są również zawarte w DX SDK, więc jesteśmy pewni, że twórcy gier tworzą na ich podstawie własny kod. Przetestowaliśmy ten przykład z innym współczynnikiem teselacji, aby zobaczyć, jak bardzo wpływa on na ogólną wydajność.

W teście tym stosowana jest bardziej złożona geometria, dlatego porównanie mocy geometrycznej różnych rozwiązań prowadzi do różnych wniosków. Nowoczesne rozwiązania zaprezentowane w materiale dość dobrze radzą sobie z lekkimi i średnimi obciążeniami geometrycznymi, wykazując dużą prędkość. Ale podczas gdy jeden i dwa procesory graficzne Hawaii w Radeonach R9 290X i R9 295X2 dobrze sobie radzą w lekkich warunkach, karty Nvidii wychodzą na czoło w ciężkich warunkach. Tak więc w najtrudniejszych trybach zaprezentowany dzisiaj Geforce GTX Titan X wykazuje prędkość już zauważalnie lepszą niż dwuukładowy Radeon.

Jeśli chodzi o porównanie płyt Nvidia opartych na chipach GM200 i GM204, rozważany dziś model Geforce GTX Titan X zwiększa swoją przewagę wraz ze wzrostem obciążenia geometrycznego, ponieważ w trybie lekkim wszystko zależy od przepustowości pamięci. W efekcie nowy produkt wyprzedza kartę Geforce GTX 980, w zależności od złożoności trybu, nawet o 31%.

Przyjrzyjmy się wynikom innego testu, programu demonstracyjnego Nvidia Realistic Water Terrain, znanego również jako Island. To demo wykorzystuje teselację i mapowanie przemieszczeń, aby renderować realistycznie wyglądającą powierzchnię i teren oceanu.

Test Island nie jest czysto syntetycznym testem do pomiaru czysto geometrycznej wydajności GPU, ponieważ zawiera zarówno złożone shadery pikseli, jak i obliczenia, a takie obciążenie jest bliższe prawdziwym grom wykorzystującym wszystkie jednostki GPU, a nie tylko geometryczne, jak w poprzednim testy geometrii. Chociaż obciążenie jednostek przetwarzania geometrii nadal pozostaje głównym, na przykład ta sama przepustowość pamięci może również mieć wpływ.

Testujemy wszystkie karty graficzne przy czterech różnych współczynnikach teselacji — w tym przypadku ustawienie to nosi nazwę Dynamic Tessellation LOD. Dzięki pierwszemu współczynnikowi podziału trójkąta prędkość nie jest ograniczona wydajnością bloków geometrycznych, a karty graficzne Radeon wykazują dość wysoki wynik, zwłaszcza dwuukładowy R9 295X2, który nawet przewyższa wynik zapowiedzianej płyty Geforce GTX Titan X , ale już przy kolejnych geometrycznych poziomach obciążenia wydajność kart Radeon spada, a rozwiązania Nvidia wysuwają się na prowadzenie.

Przewaga nowej płyty Nvidii opartej na chipie wideo GM200 nad rywalami w takich testach jest już całkiem przyzwoita, a nawet wielokrotna. Jeśli porównamy Geforce GTX Titan X z GTX 980, to różnica między ich wydajnością sięga 37-42%, co doskonale tłumaczy teoria i dokładnie jej odpowiada. Procesory graficzne Maxwell są zauważalnie bardziej wydajne w mieszanych obciążeniach roboczych, szybko przełączając się z grafiki na komputery iz powrotem, a Titan X jest znacznie szybszy niż nawet dwuukładowy Radeon R9 295X2 w tym teście.

Po przeanalizowaniu wyników testów syntetycznych nowej karty graficznej Nvidia Geforce GTX Titan X opartej na nowym, topowym procesorze graficznym GM200, a także rozważeniu wyników innych modeli kart graficznych obu producentów dyskretnych układów wideo, możemy stwierdzić, że rozważana dzisiaj karta graficzna powinna być najszybszą na rynku, konkurującą z najsilniejszą dwuprocesorową kartą graficzną AMD. Ogólnie rzecz biorąc, jest to dobry zwolennik Geforce GTX Titan Black - potężnego pojedynczego chipa.

Nowa karta graficzna Nvidii pokazuje całkiem dobre wyniki w syntetykach – w wielu testach, choć nie we wszystkich. Radeon i Geforce tradycyjnie mają różne mocne strony. W dużej liczbie testów dwa procesory graficzne w modelu Radeon R9 295X2 były szybsze, w tym ze względu na wyższą ogólną przepustowość pamięci i szybkość teksturowania przy bardzo wydajnej realizacji zadań obliczeniowych. Ale w innych przypadkach wygrywa topowy procesor graficzny architektury Maxwell, zwłaszcza w testach geometrycznych i przykładach teselacji.

Jednak w prawdziwych grach wszystko będzie trochę inne w porównaniu do „syntetyków”, a Geforce GTX Titan X powinien pokazywać prędkość zauważalnie wyższą niż poziom jednoukładowego Geforce GTX 980, a tym bardziej Radeona R9 290X . I trudno porównywać nowość z dwuprocesorowym Radeonem R9 295X2 - układy oparte na dwóch lub więcej GPU mają swoje nieprzyjemne cechy, chociaż zapewniają wzrost średniej liczby klatek na sekundę przy odpowiedniej optymalizacji.

Ale cechy architektoniczne i funkcjonalność wyraźnie przemawiają za rozwiązaniem premium Nvidii. Geforce GTX Titan X zużywa znacznie mniej energii niż ten sam Radeon R9 295X2, a pod względem energooszczędności nowy model Nvidii jest bardzo mocny – to charakterystyczna cecha architektury Maxwell. Nie powinniśmy zapominać o większej funkcjonalności nowego produktu Nvidii: wsparcie dla poziomu funkcji 12.1 w DirectX 12, akceleracja sprzętowa VXGI, nowa metoda antyaliasingu MFAA i inne technologie. O rynkowym punkcie widzenia mówiliśmy już w pierwszej części - w elitarnym segmencie nie tyle zależy od ceny. Najważniejsze, aby rozwiązanie było jak najbardziej funkcjonalne i wydajne w aplikacjach do gier. Mówiąc najprościej, był najlepszy we wszystkim.

Tylko w celu oceny szybkości nowości w grach, w dalszej części naszego materiału określimy wydajność Geforce GTX Titan X w naszym zestawie projektów gier i porównamy ją z wydajnością konkurentów, w tym ocenimy uzasadnienie ceny detalicznej nowości z punktu widzenia entuzjastów, a także przekonaj się, o ile szybszy jest już Geforce GTX 980 w grach.

Asus ProArt PA249Q monitor do komputera roboczego dostarczony przez firmę Asustek Klawiatura Cougar 700K do komputera roboczego dostarczona przez firmę Puma

Pojawienie się dużego GPU opartego na architekturze Maxwell było nieuniknione, pozostaje tylko pytanie kiedy i w jakiej formie. W rezultacie uzasadnione było założenie, że GM200 powtórzy drogę swojego odpowiednika z rodziny Kepler, czyli GK110, debiutującego jako część akceleratora pod marką TITAN.

NVIDIA GeForce GTX TITAN X

Tym razem było bardzo mało czasu na przetestowanie nowej karty graficznej, więc recenzja zostanie skompresowana. Odrzucając niepotrzebne argumenty, przejdźmy od razu do sedna. Architektura Maxwell w porównaniu z Keplerem charakteryzuje się uproszczoną i zoptymalizowaną strukturą multiprocesorów strumieniowych (SMM), co pozwoliło na radykalne zmniejszenie obszaru SMM, przy zachowaniu 90% dotychczasowej wydajności. Ponadto GM200 należy do drugiej iteracji architektury Maxwell, podobnie jak wcześniej wydane układy GM204 (GeForce GTX 970/980) i GM206 (GeForce GTX 960). W rezultacie ma wydajniejszy silnik geometrii PolyMorph Engine w wersji 3.0 i obsługuje niektóre funkcje obliczeniowe na poziomie sprzętowym, które prawdopodobnie zostaną uwzględnione w nowym poziomie funkcji Direct3D 12 i są również niezbędne do sprzętowej akceleracji globalnego VXGI firmy NVIDIA. technologia oświetlenia. Bardziej szczegółowy opis architektury Maxwell pierwszej i drugiej generacji można znaleźć w recenzjach GeForce GTX 750 Ti i GeForce GTX 980.

Schemat blokowy GPU NVIDIA GM200

Pod względem jakości GPU GM200 i niższe procesory graficzne w linii nie różnią się od siebie, z wyjątkiem tego, że tylko GM206 ma dedykowaną jednostkę dekodowania wideo H.265 (HEVC). Różnice są czysto ilościowe. GM200 zawiera niespotykaną dotąd liczbę tranzystorów - 8 miliardów, a więc jest w nim od półtora do dwóch razy więcej jednostek obliczeniowych niż w GM204 (w zależności od tego, które z nich liczyć). Ponadto do użytku powróciła 384-bitowa magistrala pamięci. W porównaniu z układem GK110 nowy flagowy procesor graficzny nie jest tak zastraszająco potężny, ale np. liczba ROP-ów jest tutaj podwojona, co sprawia, że ​​GM200 jest dobrze przygotowany do rozdzielczości 4K.

Pod względem obsługi obliczeń podwójnej precyzji, GM200 nie różni się od GM204. Każdy SMX zawiera tylko cztery rdzenie CUDA kompatybilne z FP64, więc łączna wydajność przy tym obciążeniu wynosi 1/32 FP32.

⇡ Specyfikacje, cena

TITAN X wykorzystuje najmocniejszą wersję rdzenia GM200 z pełnym zestawem aktywnych jednostek obliczeniowych. Podstawowa częstotliwość GPU to 1000 MHz, Boost Clock to 1076 MHz. Pamięć działa ze standardową częstotliwością 7012 MHz dla produktów opartych na Maxwell. Ale wolumen jest bezprecedensowy w przypadku kart graficznych do gier - 12 GB (a TITAN X to przede wszystkim karta wideo do gier, przynajmniej do czasu pojawienia się GM200 w głównej, „numerowanej” linii GeForce).

Sugerowane ceny detaliczne TITAN X zostały ogłoszone w ostatnich godzinach przed opublikowaniem recenzji. Na rynku amerykańskim cena została ustalona na 999 dolarów - tyle samo, co w pierwszym TITAN opartym na GK110.

Notatka: Ceny w tabeli dla GeForce GTX 780 Ti i TITAN Black są w czasie, gdy te ostatnie zostały wycofane.

Model

GPU

pamięć wideo

TDP, W

Sugerowana cena detaliczna* dla rynku amerykańskiego (bez podatków), . USD

kryptonim

Liczba tranzystorów, miliony

Częstotliwość zegara, MHz: zegar bazowy / zegar doładowania

Liczba rdzeni CUDA

Liczba jednostek tekstury

Szerokość magistrali, bit

Frytkowy rodzaj

Częstotliwość zegara: rzeczywista (efektywna), MHz

Objętość, MB

GeForce GTX 780 Ti

GeForce GTX TITAN Czarny

GeForce GTX 980

GeForce GTX TITAN X

⇡ Budownictwo

Od pierwszego „Titana” NVIDIA używa tego samego systemu chłodzenia w najlepszych kartach graficznych, z pewnymi odmianami. TITAN X wyróżnia się na tle poprzedników jedynie absolutnie czarnym korpusem (niemalowane pozostały tylko dwie wstawki po bokach).

NVIDIA GeForce GTX TITAN X

Tylna płyta, która była eksperymentalnie wyposażona w GeForce GTX 980, jest ponownie nieobecna w TITAN X, mimo że część układów pamięci jest przylutowana z tyłu płyty. Chociaż chipy GDDR5 generalnie nie wymagają dodatkowego chłodzenia.

Widok z tyłu NVIDIA GeForce GTX TITAN X

Ale wrócił radiator z komorą parową, który w GTX 980 został zastąpiony prostszą opcją.

NVIDIA GeForce GTX TITAN X, system chłodzenia

NVIDIA GeForce GTX TITAN X, system chłodzenia

NVIDIA GeForce GTX TITAN X, system chłodzenia

Karta graficzna ma trzy złącza DisplayPort i po jednym - HDMI i Dual-Link DVI-I.

⇡ Opłata

Konstrukcja płytki drukowanej, co nie dziwi, budzi skojarzenia z serią adapterów wideo opartych na układzie GK110. Konwerter napięcia jest zbudowany zgodnie ze schematem 6 + 2 (liczba faz odpowiednio do zasilania GPU i układów pamięci). Zasilanie jest dostarczane przez jedno złącze 8-stykowe i jedno 6-stykowe. Ale po raz pierwszy widzimy tutaj kontroler mocy GPU ON Semiconductor NCP81174.

Po obu stronach płyty znajdują się 24 chipy pamięci SK hynix H5GQ4H24MFR-R2C o nominalnej częstotliwości 7 GHz.

NVIDIA GeForce GTX TITAN X, płytka drukowana, przód

NVIDIA GeForce GTX TITAN X, płytka drukowana, tył

Stanowisko badawcze, metodyka badań

Energooszczędne technologie procesora są wyłączone we wszystkich testach. W ustawieniach sterownika NVIDIA procesor jest wybierany jako procesor do obliczeń PhysX. W sterownikach AMD ustawienie Tesselacji zostało przeniesione z opcji AMD Optimized do Use application settings.

Benchmarki: syntetyczne
Program Ustawienia Pozwolenie
Znak 3D 2011 Ekstremalny test - -
3DMark Test ognistego uderzenia (nie ekstremalny) - -
Unigine Niebo 4 DirectX 11 maks. jakość, teselacja w trybie Extreme AF 16x, MSAA 4x 1920×1080 / 2560×1440
Benchmarki: gry
Program Ustawienia Filtrowanie anizotropowe, pełnoekranowy antyaliasing Pozwolenie
Far Cry 3 + FRAPS DirectX 11 maks. jakość, HDAO. Początek misji Zabezpiecz posterunek AF, MSAA 4x 2560×1440/3840×2160
Tomb Raider. Wbudowany benchmark Maks. jakość AF 16x, SSAA 4x 2560×1440/3840×2160
BioShock Infinite. Wbudowany benchmark Maks. jakość. Przetwarzanie końcowe: normalne AF 16x, FXAA 2560×1440/3840×2160
Kryzys 3 + FRAPS Maks. jakość. Początek misji Post Human AF 16x, MSAA 4x 2560×1440/3840×2160
Metro: Ostatnie Światło. Wbudowany benchmark Maks. jakość AF 16x, SSAA 4x 2560×1440/3840×2160
Company of Heroes 2. Wbudowany benchmark Maks. jakość AF, SSAA 4x 2560×1440/3840×2160
Battlefield 4 + FRAPS Maks. jakość. Początek misji Tashgar AF 16x, MSAA 4x + FXAA 2560×1440/3840×2160
Złodziej. Wbudowany benchmark Maks. jakość AF 16x, SSAA 4x + FXAA 2560×1440/3840×2160
Obcy: izolacja Maks. jakość AF 16x, SMAA T2X 2560×1440/3840×2160

Uczestnicy testu

W testach wydajności wzięły udział następujące karty wideo:

  • NVIDIA GeForce GTX TITAN X (1000/7012 MHz, 12 GB);

⇡ Prędkości zegara, zużycie energii, temperatura, podkręcanie

GM110 pracuje z częstotliwością podstawową, której GK110 nigdy nie osiągnął w swoich specyfikacjach referencyjnych. Dodatkowo GPU Boost działa bardzo agresywnie, podnosząc częstotliwość do 1177 MHz. Jednocześnie procesor zadowala się napięciem 1,174 V, które jest niższe w porównaniu z topowymi produktami opartymi na GK110.

Ustawienia BIOS pozwalają zwiększyć limit mocy do 110% i dodać 83 mV do maksymalnego napięcia na GPU. W rzeczywistości napięcie wzrasta tylko do 1,23 V, ale jednocześnie otwiera się kilka dodatkowych stopni częstotliwości / VID: różnica między częstotliwością podstawową a częstotliwością maksymalną zarejestrowaną w głośniku wzrasta do 203 MHz.

Podkręcanie karty graficznej umożliwiło osiągnięcie częstotliwości podstawowej 1252 MHz, a w dynamice zaobserwowano częstotliwości do 1455 MHz. Pamięć wideo była w stanie dodać 1,2 GHz, z powodzeniem działając na efektywnej częstotliwości 8212 MHz.

Zegar bazowy, MHz Maks. Zegar doładowania, MHz Zegar bazowy, MHz (podkręcanie) Maks. zarejestrowany Boost Clock, MHz (podkręcanie)
GeForce GTX TITAN X 1000 1177 (+177) 1252 1455 (+203)
GeForce GTX 980 1127 1253 (+126) 1387 1526 (+139)
GeForce GTX TITAN Czarny 889 1032 (+143) 1100 1262 (+162)
GeForce GTX TITAN 836 1006 (+145) 966 1150 (+184)
GeForce GTX 780 Ti 876 1020 (+144) 986 1130 (+144)
GeForce GTX 780 863 1006 (+143) 1053 1215 (+162)
GeForce GTX 770 1046 1176 (+130) 1190 1333 (+143)

Pod względem zużycia energii TITAN X zbliża się do GTX 780 Ti i znacznie przewyższa GTX 980. Wbrew oczekiwaniom w Crysis 3 nie ma znaczącej różnicy między TITANEM X a Radeonem R9 290X, ale w FurMarku R9 290X (podobnie jak R9 280X) bardziej się nagrzewa i wyraźnie przewyższa TITAN x.

Podkręcanie TITAN X zwiększa moc o 5-25 watów w zależności od tego, czy polegasz na wynikach którego testu - FurMark czy Crysis 3.

Maksymalna dozwolona temperatura GPU jest określana przez ustawienia BIOS-u, dzięki czemu TITAN X nie wykracza poza ustawione 83°C. W tym samym czasie turbina układu chłodzenia rozkręca się z 49% maksymalnej prędkości - do 2339 obr./min. Na pierwszy rzut oka to całkiem sporo, ale w rzeczywistości hałas z chłodnicy jest całkiem do przyjęcia.

⇡ Wydajność: syntetyczne testy porównawcze

  • TITAN X imponuje już od pierwszego testu. W porównaniu z GTX 780 Ti i Radeonem R9 290X karta graficzna jest półtora raza szybsza.
  • W przypadku Radeonów R9 280X i GeForce GTX 770 — adapterów opartych na niegdyś topowych układach graficznych — różnica jest ponad dwukrotna.

  • Wszystkie powyższe informacje dotyczą również 3DMark 2013.

Unigine Niebo 4

  • TITAN X ma około 50% przewagę nad GTX 780 Ti i Radeonem R9 290X w rozdzielczości WQHD. Nawiasem mówiąc, w przeciwieństwie do 3DMark, GTX 980 nie jest w tym teście lepszy od GTX 780 Ti.
  • W rozdzielczości Ultra HD poprzednie karty graficzne wypełniły lukę, a mimo to TITAN X przewyższa wszystkich rywali o głowę i ramiona.

⇡ Wydajność: gry

Tym razem odejdziemy od standardowej formy opisywania testów gier. Nie ma sensu malować dla każdej gry, która karta graficzna jest szybsza, w przypadku TITAN X. We wszystkich grach nowy „Titan” kolosalnie wyprzedza swoich rywali. Wskaźniki ilościowe skłaniają się do wzoru: TITAN X jest o 30-50% szybszy od GeForce GTX 780 Ti i Radeona R9 290X, a często nawet dwukrotnie szybszy od Radeona R9 280X i GeForce GTX 770. Jedyną intrygą jest szukanie wahań w tym korytarzu po tej lub drugiej stronie. Do tego dochodzi wyjątkowy przypadek: TITAN X cieszy się liczbą klatek na sekundę 24 FPS w Far Cry 4 w rozdzielczości Ultra HD i MSAA 4x, podczas gdy rywale nie mogą wyjść z dziury 5-7 FPS (oraz GeForce GTX 770 i nawet mniej). Tutaj podobno Titan potrzebował 12 GB pamięci, a nawet 4 GB, w które wyposażony jest Radeon R9 290X, to za mało na takie ustawienia w FC4.

Tomb Raider

BioShock Infinite

Crysis 3

⇡ Wydajność: Obliczenia

Dekodowanie wideo (DXVA Checker, Decode Benchmark)

  • Dekoder H.264 w GM200 jest taki sam, jak w innych układach z rodziny Maxwell. Jego wydajność jest więcej niż wystarczająca do odtwarzania filmów w rozdzielczościach do Ultra HD i szybkości klatek 60 Hz i wyższych.
  • Wśród dyskretnych kart wideo AMD może się tym pochwalić tylko Radeon R9 285. GeForce GTX 780 Ti jest w stanie dostarczyć do 35 FPS w rozdzielczości 3840 × 2160.
  • Procesory z 6-8 rdzeniami x86 są lepiej przystosowane do szybkiego dekodowania w celu konwersji wideo, ale stały blok funkcjonalności robi to przy mniejszym zużyciu energii, a na koniec jest po prostu oddany potężnemu procesorowi graficznemu.

  • Jedynym GPU z pełnym sprzętowym dekodowaniem H.265 jest GM206 w GeForce GTX 960. Inni przedstawiciele architektury Maxwell, a także Kepler, wykonują część operacji na potoku dekodera H.264. Reszta przypada na procesor centralny.
  • Wydajność wszystkich tych adapterów z dobrym procesorem wystarcza do odtwarzania wideo w dowolnej rozsądnej rozdzielczości i liczbie klatek na sekundę. Do pracy z szybkością lepiej nadaje się GTX 960 lub potężny procesor.

Luxmark: Pokój (złożony test porównawczy)

  • Architektura Maxwell wykazuje w tym zadaniu zaskakujący wzrost wydajności w porównaniu z Keplerem, co sprawia, że ​​TITAN X jest dwukrotnie lepszy od GeForce GTX 780 Ti i przewyższa Radeon R9 290X. Nie oznacza to jednak, że wyniki LuxMark są reprezentatywne dla jakiegokolwiek zadania ray tracingu.
  • Różnica między TITANEM X a GeForce GTX 980 nie jest tak duża, jak w testach gamingowych.

Sony Vegas Pro 13

  • Karty wideo AMD nadal przodują w renderowaniu wideo. A TITAN X nie wyróżnia się w gronie najwydajniejszych urządzeń NVIDII.

CompuBench CL: symulacja powierzchni oceanu

  • TITAN X odbiera Radeonowi R9 290X dłoń i rekompensuje niepowodzenie GeForce GTX 980, który w tym teście jest zaskakująco trudny.

CompuBench CL: Symulacja cząstek

  • Tutaj natomiast GTX 980 zrobił duży krok naprzód w porównaniu z GTX 780 Ti, a TITAN X zbudował na tym sukcesie. Radeon R9 290X nie może się równać z flagowym modelem NVIDII.

SiSoftware Sandra 2015: Analiza naukowa

  • Pod względem podwójnej precyzji (FP64) akceleratory AMD wciąż nie mają sobie równych, a nawet Radeon R9 280X oparty na dalekim od nowego GPU może przewyższyć TITAN X.
  • Wśród „zielonych” TITAN X przewidywalnie prowadzi pod względem wydajności w FP64, zwłaszcza w porównaniu ze szczerze słabym GTX 980.
  • W obliczeniach FP32 TITAN X wyraźnie wyróżnia się na tle wszystkich kart graficznych NVIDIA. Tylko, że zapewnia poziom wydajności porównywalny z Radeonem R9 290X.

⇡ Wnioski

Biorąc pod uwagę, że dyskretna produkcja GPU nadal mieści się w procesie 28 nm, wyniki GeForce GTX TITAN X wyglądają fantastycznie. Przy tym samym TDP, co karty graficzne oparte na GK110, TITAN X osiąga 130-150% wydajności akceleratorów, takich jak GTX 780 Ti i Radeon R9 290X. Jeśli weźmiemy pod uwagę pierwsze 28-nanometrowe GPU – GK104 (GTX 680, GTX 770) i ​​Radeon R9 280X, to TITAN X często przewyższa je dwukrotnie.

TITAN X, podobnie jak jego poprzednicy na tej pozycji, jest niezwykle kosztowny jak na pojedynczą kartę graficzną GPU. Pozycjonowanie nie zmieniło się od poprzednich Tytanów. Po pierwsze, jest to alternatywa dla konfiguracji SLI dwóch oddzielnych kart GeForce GTX 980: chociaż potencjalna wydajność tandemu jest wyższa, pojedynczy procesor graficzny ma bardziej przewidywalną wydajność. Po drugie, kompaktowe komputery PC, w których nie ma miejsca na dwie karty graficzne. I wreszcie obliczenia niegraficzne (GP-GPU). Chociaż wydajność FP64 w GM200 jest ograniczona do 1/32 wydajności FP32, TITAN X częściowo kompensuje to ograniczenie brutalną siłą GPU. Ponadto komputery FP32 dominuje w „prosument” obciążenia (ten sam Ray Tracing, przyspieszone renderowanie wideo), a w tej dyscyplinie GM200 jest co najmniej tak dobry, jak najlepsze produkty AMD, a często przewyższa te same, co w testach gier.

Przedstawiamy podstawowy szczegółowy materiał w badaniu Nvidia Geforce GTX Titan X.

Przedmiot studiów Akcelerator grafiki 3D (karta graficzna) Nvidia Geforce GTX Titan X 12288 MB 384-bit GDDR5 PCI-E

Szczegóły programisty: Nvidia Corporation (znak towarowy Nvidia) została założona w 1993 roku w Stanach Zjednoczonych. Siedziba główna w Santa Clara (Kalifornia). Opracowuje procesory graficzne, technologie. Do 1999 roku główną marką była Riva (Riva 128/TNT/TNT2), od 1999 do chwili obecnej Geforce. W 2000 roku przejęto majątek 3dfx Interactive, po czym znaki towarowe 3dfx / Voodoo zostały przeniesione na Nvidię. Nie ma produkcji. Łączna liczba pracowników (w tym biura regionalne) to około 5000 osób.

Część 1: Teoria i architektura

Jak już wiecie, w połowie ubiegłego miesiąca Nvidia wypuściła nową kartę graficzną z najwyższej półki o nazwie Geforce GTX Titan X, która stała się najpotężniejszą na rynku. Natychmiast opublikowaliśmy szczegółowy przegląd tego nowego produktu, ale zawierał on tylko badania praktyczne, bez części teoretycznej i testów syntetycznych. Stało się to z powodu różnych okoliczności, także tych od nas niezależnych. Ale dzisiaj naprawiamy tę usterkę i przyjrzymy się bliżej marcowej nowości – od miesiąca nic się nie wydarzyło, żeby straciła na aktualności.

W 2013 roku Nvidia wypuściła pierwsze rozwiązanie nowej marki kart graficznych Geforce GTX Titan, nazwane na cześć superkomputera w Oak Ridge National Laboratory. Pierwszy model z nowej linii ustanowił nowe rekordy zarówno pod względem wydajności, jak i ceny, przy sugerowanej cenie detalicznej 999 USD na rynku amerykańskim. Była to pierwsza wysokiej klasy karta graficzna z serii Titan, która następnie była kontynuowana z niezbyt popularnym dwuprocesorowym Titan Z i akcelerowanym Titan Black, który otrzymał w pełni odblokowany procesor graficzny GK110 w wersji B.

A teraz, wiosną 2015 roku, czas na kolejną nowość Nvidii z serii premium „tytanowej”. GTX Titan X został po raz pierwszy ujawniony przez prezesa firmy Jensena Huanga na konferencji deweloperów gier GDC 2015 podczas imprezy Epic Unreal Engine. W rzeczywistości ta karta wideo i tak niezauważalnie uczestniczyła w pokazie, instalując ją na wielu stoiskach demonstracyjnych, ale Jensen zaprezentował ją oficjalnie.

Przed premierą Geforce GTX Titan X najszybszą jednoukładową kartą graficzną była Geforce GTX 980, oparta na chipie GM204 o tej samej architekturze graficznej Maxwell, wprowadzonym we wrześniu ubiegłego roku. Model ten jest bardzo energooszczędny, zapewnia przyzwoitą moc obliczeniową, a jednocześnie zużywa tylko 165 W mocy - czyli jest dwukrotnie bardziej energooszczędny niż Geforce poprzedniej generacji.

Jednocześnie procesory graficzne Maxwell obsługują nadchodzący DirectX 12 (w tym poziom funkcji 12.1) i inne najnowsze technologie graficzne firmy: Nvidia Voxel Global Illumination (VXGI, pisaliśmy o tym w artykule GTX 980), nową ramkę Multi-Frame próbkowana metoda antyaliasingu AA (MFAA), Dynamic Super Resolution (DSR) itp. Połączenie wydajności, energooszczędności i funkcji sprawiło, że chip GM204 był w momencie premiery najlepszym zaawansowanym procesorem graficznym.

Ale kiedyś wszystko się zmienia, a GPU z 2048 rdzeniami i 128 jednostkami tekstur zostały zastąpione nowym GPU opartym na tej samej architekturze Maxwell drugiej generacji (pamiętamy pierwszego z układu GM107, na którym znajduje się karta graficzna Geforce GTX 750 Ti oparte) i te same możliwości, ale z 3072 rdzeniami CUDA i 192 jednostkami tekstur - wszystko to zostało już zapakowane w 8 miliardów tranzystorów. Oczywiście Geforce GTX Titan X od razu stał się najpotężniejszym rozwiązaniem.

W rzeczywistości topowy układ Maxwell drugiej generacji, który znamy teraz pod nazwą kodową GM200, był gotowy w Nvidii przez jakiś czas przed jego ogłoszeniem. Wydanie kolejnej topowej karty graficznej nie miało sensu, skoro nawet Geforce GTX 980 oparty na GM204 wykonał świetną robotę będąc najszybszą jednoukładową kartą graficzną na świecie. Nvidia przez jakiś czas czekała na mocniejsze rozwiązanie od AMD oparte na GPU, produkowane w tej samej technologii procesowej 28 nm, ale nie czekało.

Jest prawdopodobne, że produkt w ogóle nie zepsułby się przy braku prawdziwej konkurencji, mimo to zdecydowali się go wypuścić, zabezpieczając tytuł firmy produkującej najmocniejsze GPU. I rzeczywiście, nie było sensu czekać na decyzję przeciwnika, bo została przesunięta przynajmniej do czerwca – po prostu nie opłaca się czekać tak długo. Cóż, w takim przypadku zawsze możesz wypuścić jeszcze wydajniejszą kartę graficzną opartą na tym samym GPU, ale działającą z wyższą częstotliwością.

Ale dlaczego potrzebujemy tak potężnych rozwiązań w dobie gier wieloplatformowych o dość przeciętnych wymaganiach mocy GPU? Po pierwsze, pierwsze aplikacje do gier wykorzystujące możliwości DirectX 12, nawet jeśli są wieloplatformowe, powinny pojawić się już niedługo – w końcu wersje na PC takich aplikacji prawie zawsze oferują lepszą grafikę, dodatkowe efekty i tekstury w wyższej rozdzielczości. Po drugie, zostały już wydane gry DirectX 11, które mogą wykorzystywać wszystkie możliwości najpotężniejszych procesorów graficznych - jak Grand Theft Auto V, o którym bardziej szczegółowo niżej.

Ważne jest, aby rozwiązania graficzne Nvidii Maxwell w pełni wspierały tak zwany poziom funkcji 12.1 z DirectX 12 - najwyższy znany w tej chwili. Nvidia od dawna dostarcza twórcom gier sterowniki dla nadchodzącej wersji DirectX, a teraz są one dostępne dla użytkowników, którzy zainstalowali Microsoft Windows 10 Technical Preview. Nic dziwnego, że to karty graficzne Geforce GTX Titan X zostały użyte do zademonstrowania możliwości DirectX 12 podczas Game Developers Conference, gdzie model został po raz pierwszy pokazany.

Ponieważ rozważany model karty graficznej firmy Nvidia bazuje na topowym procesorze graficznym drugiej generacji architektury Maxwell, który już rozważaliśmy i który jest podobny w szczegółach do poprzedniej architektury Kepler, warto przeczytać wcześniejsze artykuły na temat karty graficzne firmy przed przeczytaniem tego materiału Nvidia:

  • Nvidia Geforce GTX 970 - Dobry zamiennik GTX 770
  • Nvidia Geforce GTX 980 — następca karty Geforce GTX 680, przewyższając nawet GTX 780 Ti
  • Nvidia Geforce GTX 750 Ti - Maxwell zaczyna mały... pomimo Maxwell
  • Nvidia Geforce GTX 680 to nowy lider w dziedzinie grafiki 3D z jednym procesorem

Przyjrzyjmy się więc szczegółowym specyfikacjom karty graficznej Geforce GTX Titan X opartej na GPU GM200.

Akcelerator graficzny Geforce GTX Titan X
ParametrOznaczający
Nazwa kodowa chipaGM200
Technologia produkcji28 mil morskich
Liczba tranzystorówokoło 8 miliardów
Strefa centralnaok. 600 mm 2
ArchitekturaZunifikowany, z szeregiem wspólnych procesorów do przetwarzania strumieniowego wielu typów danych: wierzchołki, piksele itp.
Obsługa sprzętu DirectXDirectX 12, z obsługą poziomu funkcji 12.1
Magistrala pamięci384-bitowe: sześć niezależnych 64-bitowych kontrolerów pamięci z obsługą pamięci GDDR5
Częstotliwość GPU1000 (1075) MHz
Bloki obliczeniowe24 multiprocesory strumieniowe, w tym 3072 skalarne jednostki ALU do obliczeń zmiennoprzecinkowych o pojedynczej i podwójnej precyzji (szybkość 1/32 FP32) zgodnie ze standardem IEEE 754-2008;
Bloki teksturujące192 jednostki adresowania i filtrowania tekstur z obsługą komponentów FP16 i FP32 w teksturach oraz obsługą filtrowania trójliniowego i anizotropowego dla wszystkich formatów tekstur
Jednostki rasteryzacji (ROP)6 szerokich ROP (96 pikseli) z obsługą różnych trybów antyaliasingu, w tym programowalnych i z buforem ramki FP16 lub FP32. Bloki składają się z szeregu konfigurowalnych jednostek ALU i są odpowiedzialne za generowanie i porównywanie głębi, multisampling i mieszanie
Obsługa monitoraZintegrowana obsługa do czterech monitorów podłączonych przez Dual Link DVI, HDMI 2.0 i DisplayPort 1.2
Specyfikacje referencyjnej karty graficznej Geforce GTX Titan X
ParametrOznaczający
Częstotliwość rdzenia1000 (1075) MHz
Liczba procesorów uniwersalnych3072
Liczba bloków tekstury192
Liczba bloków mieszających96
Efektywna częstotliwość pamięci7000 (4×1750) MHz
Typ pamięciGDDR5
Magistrala pamięci384-bitowy
Pamięć12 GB
Przepustowość pamięci336,5 GB/s
Wydajność obliczeniowa (FP32)do 7 teraflopów
Teoretyczna maksymalna szybkość wypełniania96 gigapikseli/s
Teoretyczna częstotliwość próbkowania tekstur192 gigatekseli/s
OponaPCI Express 3.0
ZłączaJedno złącze Dual Link DVI, jedno HDMI 2.0 i trzy DisplayPort 1.2
Zużycie energiido 250 W
Dodatkowe jedzenieJedno złącze 8-stykowe i jedno 6-stykowe
Liczba gniazd zajętych w obudowie systemu2
Zalecana cena999 USD (USA), 74990 RUB (Rosja)

Nowy model Geforce GTX Titan X otrzymał nazwę, która kontynuuje linię rozwiązań premium Nvidii do konkretnego pozycjonowania - po prostu dodali do niego literę X. Nowy model zastąpił model Geforce GTX Titan Black i znajduje się na samym szczycie w aktualna linia produktów. Powyżej pozostaje tylko dwuprocesorowy Geforce GTX Titan Z (choć nie można już o nim wspomnieć), a pod nim jednoukładowe modele GTX 980 i GTX 970. to najlepsze rozwiązanie na rynku dla jednoukładowych karty graficzne.

Omawiany model Nvidii oparty jest na chipie GM200, który ma 384-bitową magistralę pamięci, a pamięć działa z częstotliwością 7 GHz, co daje szczytową przepustowość 336,5 GB/s - półtora raza więcej niż w GTX 980. To dość imponująca wartość, zwłaszcza jeśli przypomnimy sobie nowe metody kompresji informacji na chipie zastosowane w drugiej generacji Maxwella, które pomagają wykorzystać dostępną przepustowość pamięci znacznie wydajniej niż u konkurencji.

Dzięki tej szynie pamięci ilość pamięci wideo zainstalowanej na karcie graficznej może wynosić 6 lub 12 GB, ale w przypadku modelu elite podjęto decyzję o zainstalowaniu 12 GB, aby kontynuować trend wyznaczony przez pierwsze modele GTX Titan . To w zupełności wystarcza do uruchomienia dowolnych aplikacji 3D bez względu na parametry jakościowe - taka ilość pamięci wideo wystarcza na absolutnie każdą istniejącą grę przy dowolnej rozdzielczości ekranu i ustawieniach jakości, co sprawia, że ​​karta graficzna Geforce GTX Titan X jest szczególnie kusząca widokiem w przyszłość - jego właścicielowi nigdy nie zabraknie pamięci wideo.

Oficjalna wartość zużycia energii dla karty Geforce GTX Titan X wynosi 250 W - tyle samo, co w przypadku innych jednoukładowych rozwiązań z elitarnej serii Titan. Co ciekawe, 250 W to o około 50% więcej niż w GTX 980, a liczba głównych bloków funkcjonalnych również wzrosła o taką samą ilość. Dość wysokie zużycie nie sprawia żadnych problemów, referencyjna chłodnica świetnie radzi sobie z rozpraszaniem takiej ilości ciepła, a entuzjaści systemów po GTX Titan i GTX 780 Ti od dawna są gotowi na taki poziom zużycia energii.

Architektura

Model karty graficznej Geforce GTX Titan X jest oparty na nowym procesorze graficznym GM200, który zawiera wszystkie cechy architektoniczne układu GM204, więc wszystko, co zostało powiedziane w artykule o GTX 980 w pełni odnosi się do nowego produktu premium - radzimy Najpierw zapoznaj się z materiałem, w którym dokładnie opisuje cechy architektoniczne Maxwella.

GPU GM200 można nazwać ekstremalną wersją GM204, możliwą w procesie 28 nm. Nowy chip jest większy, znacznie szybszy i bardziej wymagający mocy. Według Nvidii „duży Maxwell” obejmuje 8 miliardów tranzystorów, które zajmują powierzchnię około 600 mm 2 – czyli jest to największy procesor graficzny tej firmy. „Big Maxwell” ma o 50% więcej procesorów strumieniowych, 50% więcej ROP i 50% większą przepustowość pamięci, dlatego ma prawie półtora raza większą powierzchnię.

Architektonicznie chip wideo GM200 jest w pełni zgodny z młodszym modelem GM204, składa się również z klastrów GPC, które zawierają kilka multiprocesorów SM. Topowy procesor graficzny zawiera sześć klastrów GPC, składających się z 24 multiprocesorów, w sumie ma 3072 rdzenie CUDA, a operacje na teksturach (próbkowanie i filtrowanie) wykonywane są przy użyciu 192 jednostek tekstur. A przy częstotliwości podstawowej 1 GHz wydajność modułów tekstur wynosi 192 gigatekseli / s, czyli o ponad jedną trzecią wyższą niż w przypadku poprzedniej najpotężniejszej karty graficznej firmy - Geforce GTX 980.

Multiprocesor Maxwell drugiej generacji jest podzielony na cztery bloki 32 rdzeni CUDA (łącznie 128 rdzeni na SMM), z których każdy ma własne zasoby do dystrybucji poleceń, planowania przetwarzania i buforowania strumienia instrukcji. Ze względu na to, że każda jednostka obliczeniowa ma własne jednostki dyspozytorskie, rdzenie obliczeniowe CUDA są wykorzystywane wydajniej niż w Keplerze, co również zmniejsza zużycie energii GPU. Sam multiprocesor nie zmienił się w porównaniu do GM204:

Aby poprawić efektywność wykorzystania pamięci podręcznych w GPU, w podsystemie pamięci wprowadzono liczne zmiany. Każdy z multiprocesorów w GM200 ma dedykowane 96 KB pamięci współdzielonej, a pamięci podręczne pierwszego poziomu i tekstur są połączone w bloki 24 KB - dwa bloki na multiprocesor (łącznie 48 KB na SMM). Układy GPU poprzedniej generacji Kepler miały tylko 64 KB pamięci współdzielonej, która działała również jako pamięć podręczna L1. W wyniku wszystkich zmian wydajność rdzeni Maxwell CUDA jest około 1,4 raza wyższa niż w podobnym układzie Keplera, a wydajność energetyczna nowych chipów jest około dwukrotnie wyższa.

Ogólnie wszystko jest ułożone w procesorze graficznym GM200 dokładnie tak samo, jak w chipie GM204, który testowaliśmy w 2014 roku. Nie dotknęli nawet rdzeni, które mogą wykonywać operacje zmiennoprzecinkowe o podwójnej precyzji z szybkością zaledwie 1/32 szybkości obliczeń pojedynczej precyzji – podobnie jak Geforce GTX 980. Wygląda na to, że Nvidia uznała, że specjalistycznych rozwiązań na rynek profesjonalny (GK210) i do gier (GM200) jest całkiem uzasadnione.

Podsystem pamięci GM200 jest wzmocniony w porównaniu z GM204 - opiera się na sześciu 64-bitowych kontrolerach pamięci, które w sumie tworzą magistralę 384-bitową. Układy pamięci pracują z efektywną częstotliwością 7 GHz, co daje szczytową przepustowość 336,5 GB/s, czyli półtora raza wyższą niż w Geforce GTX 980. Nie zapomnij o nowych metodach kompresji danych od Nvidii , które pozwalają osiągnąć większą efektywną przepustowość pamięci w porównaniu do poprzednich produktów - na tej samej szynie 384-bitowej. W naszym przeglądzie Geforce GTX 980 dokładnie rozważyliśmy tę innowację drugiej generacji chipów Maxwell, która zapewnia im o jedną czwartą bardziej efektywne wykorzystanie pamięci wideo w porównaniu do Keplera.

Podobnie jak wszystkie najnowsze karty graficzne Geforce, model GTX Titan X ma podstawową częstotliwość - minimalną dla działania GPU w trybie 3D, a także częstotliwość turbo Boost Clock. Bazowa częstotliwość dla nowości to 1000 MHz, a częstotliwość Boost Clock to 1075 MHz. Tak jak poprzednio, częstotliwość turbo oznacza tylko średnią częstotliwość GPU dla określonego zestawu aplikacji do gier i innych zadań 3D wykorzystywanych przez Nvidię, a rzeczywista częstotliwość pracy może być wyższa - zależy to od obciążenia 3D i warunków (temperatura, moc zużycie itp.)

Okazuje się, że częstotliwość GPU nowego produktu jest o około 10% wyższa niż w GTX Titan Black, ale niższa niż w GTX 980, ponieważ duże GPU zawsze muszą być taktowane z niższą częstotliwością (a GM200 jest zauważalnie większy obszar niż GM204) . Dlatego ogólna wydajność 3D nowości będzie o około 33% wyższa niż w przypadku GTX 980, szczególnie przy porównywaniu częstotliwości Turbo Boost.

Pod wszystkimi innymi względami chip GM200 jest dokładnie taki sam jak GM204 - rozwiązania są identyczne pod względem możliwości i obsługiwanych technologii. Nawet moduły do ​​pracy z wyświetlaczami i danymi wideo pozostały dokładnie takie same, jak te z GM204, na którym oparty jest model Geforce GTX 980. W związku z tym wszystko, co pisaliśmy o GTX 980 i GTX 970, w pełni odnosi się do Titan X. .

Dlatego w przypadku wszystkich innych pytań dotyczących funkcjonalnych subtelności nowości można zapoznać się z recenzjami Geforce GTX 980 i GTX 750 Ti, w których szczegółowo pisaliśmy o architekturze Maxwell, urządzeniu do strumieniowego przesyłania multiprocesorów (Multiprocesor strumieniowy - SMM) , organizacja podsystemu pamięci i kilka innych różnic architektonicznych. Możesz także sprawdzić funkcje, takie jak obsługa sprzętowa przyspieszonego obliczania globalnego oświetlenia VXGI, nowe metody pełnoekranowego antyaliasingu i ulepszone możliwości graficznego interfejsu API DirectX 12.

Rozwiązywanie problemów z rozwojem nowych procesów technicznych

Możemy śmiało powiedzieć, że wszyscy na rynku kart graficznych są już od dawna zmęczeni technologią procesową 28 nm – obserwujemy ją już czwarty rok i początkowo TSMC nie mogło w ogóle zrobić kroku do przodu, a wtedy wydawało się, że można rozpocząć produkcję 20 nm, ale nie ma sensu, że nie było to dostępne dla dużych GPU - wydajność odpowiednich jest raczej niska i nie znaleziono żadnych zalet w porównaniu do zużytego 28 nm. Dlatego Nvidia i AMD musiały wycisnąć jak najwięcej z istniejących możliwości, a w przypadku chipów Maxwell Nvidia wyraźnie się to udało. Pod względem mocy i efektywności energetycznej procesory graficzne tej architektury stały się wyraźnym krokiem naprzód, na który AMD po prostu nie zareagowało – przynajmniej jeszcze nie.

Tak więc inżynierowie Nvidii z GM204 byli w stanie wycisnąć znacznie większą wydajność w porównaniu z GK104, przy tym samym poziomie poboru mocy, chociaż chip powiększył się o jedną trzecią, a wyższa gęstość tranzystorów pozwoliła na jeszcze większe zwiększenie ich liczby - z 3,5 miliarda do 5,2 miliarda.Widać, że w takich warunkach GM204 zawierał znacznie więcej jednostek wykonawczych, co skutkowało większą wydajnością 3D.

Jednak w przypadku największego chipa architektury Maxwell projektanci Nvidii nie mogli zbytnio zwiększyć rozmiaru chipa, w porównaniu do GK110 ma on już powierzchnię około 550 mm 2, a nie było możliwość zwiększenia jego powierzchni o jedną trzecią lub co najmniej jedną czwartą – taki GPU stałby się zbyt skomplikowany i drogi w produkcji. Musiałem coś poświęcić (w porównaniu ze starszym Keplerem), a to coś stało się wykonaniem obliczeń o podwójnej precyzji – jego tempo w GM200 jest dokładnie takie samo jak w innych rozwiązaniach Maxwella, chociaż starszy Kepler był bardziej uniwersalny, nadawał się do graficzne i do wszelkich obliczeń niegraficznych.

Taka decyzja nie była dla Keplera łatwa – zbyt dużą powierzchnię tego układu zajmowały rdzenie CUDA FP64 i inne specjalizowane jednostki obliczeniowe. W przypadku dużego Maxwella postanowiono poradzić sobie z zadaniami graficznymi i został on po prostu wykonany jako powiększona wersja GM204. Nowy układ GM200 stał się czysto graficzny, nie ma specjalnych bloków do obliczeń FP64, a ich szybkość pozostaje taka sama - tylko 1/32 FP32. Jednak większość obszaru GK110, zajmowanego przez ALU FP64, została zwolniona, a na ich miejsce umieszczono bardziej istotne graficznie ALU FP32.

Takie posunięcie umożliwiło znaczne zwiększenie wydajności grafiki (i obliczeniowej, jeśli weźmiemy obliczenia FP32) w porównaniu do GK110 bez zwiększania poboru mocy i przy niewielkim wzroście powierzchni kryształów - poniżej 10%. Co ciekawe, tym razem Nvidia celowo zdecydowała się na rozdzielenie układów graficznych i obliczeniowych. Chociaż GM200 pozostaje bardzo wydajny w obliczeniach FP32, a wyspecjalizowane rozwiązania Tesli do obliczeń o pojedynczej precyzji są całkiem możliwe, wystarczające do wielu zadań naukowych, Tesla K40 pozostaje najbardziej produktywna w obliczeniach FP64.

Nawiasem mówiąc, jest to różnica w stosunku do oryginalnego Titana - pierwsze rozwiązanie z linii mogło być również wykorzystywane do celów profesjonalnych do obliczeń podwójnej precyzji, ponieważ ma również współczynnik 1/3 dla obliczeń FP64. Wielu badaczy używało GTX Titan jako karty startowej do swoich aplikacji i zadań CUDA, z powodzeniem przechodząc na rozwiązania Tesla. Do tego GTX Titan X już się nie nadaje, trzeba będzie poczekać na procesory graficzne nowej generacji. Jeśli nie są one początkowo podzielone na układy graficzne i komputerowe, oczywiście.

Karty rozszerzeń mają już taki podział – model Tesla K80 zawiera parę chipów GK210, które nie są stosowane w kartach graficznych i różnią się od GK110 podwójnym plikiem rejestru i pamięcią współdzieloną dla większej wydajności zadań obliczeniowych. Okazuje się, że GK210 można uznać za procesor wyłącznie „obliczeniowy”, a GM200 za czysto „graficzny” (z pewną dozą umowności, bo oba GPU mają te same możliwości, tylko różne specjalizacje).

Zobaczmy, co dzieje się w kolejnych generacjach architektur graficznych Nvidii, które są już produkowane w „cieńszym” procesie technicznym – być może taka separacja nie będzie w nich potrzebna, przynajmniej na początku. Lub odwrotnie, od razu zobaczymy ścisły podział na modele GPU o różnych specjalizacjach (modele obliczeniowe będą miały większe możliwości obliczeniowe, a modele graficzne – np. bloki TMU i ROP), choć architektura pozostanie taka sama.

Cechy projektu karty graficznej

Wróćmy jednak do Geforce GTX Titan X. To potężna karta graficzna przeznaczona dla entuzjastów gier na PC, więc powinna mieć również odpowiedni wygląd - oryginalną i solidną konstrukcję płyty oraz chłodnicy. Podobnie jak poprzednie rozwiązania z linii Titan, model Geforce GTX Titan X pokryty jest aluminiową obudową, która nadaje karcie graficznej bardzo premium wygląd - wygląda naprawdę solidnie.

Bardzo imponujący jest również układ chłodzenia – konstrukcja chłodnicy Titan X wykorzystuje komorę parową ze stopu miedzi – chłodzi GPU GM200. Komora parowania jest połączona z dużym dwuszczelinowym radiatorem ze stopu aluminium, który rozprasza ciepło przenoszone z chipa wideo. Wentylator usuwa ogrzane powietrze na zewnątrz obudowy komputera, co ma pozytywny wpływ na ogólny reżim temperaturowy w systemie. Wentylator jest bardzo cichy nawet przy przetaktowaniu i długim obciążeniu, dzięki czemu 250W GTX Titan X jest jedną z najcichszych kart graficznych w swojej klasie.

W przeciwieństwie do referencyjnej płyty Geforce GTX 980, nowy produkt nie zawiera specjalnej zdejmowanej płyty, która zakrywa tylną powierzchnię płyty - ma to na celu zapewnienie maksymalnego przepływu powietrza do PCB w celu jej chłodzenia. Płyta jest zasilana przez zestaw jednego 8-pinowego i jednego 6-pinowego złącza zasilania dodatkowego PCI Express.

Ponieważ Geforce GTX Titan X jest przeznaczony dla entuzjastów, którzy preferują rozwiązania o maksymalnej wydajności, wszystkie elementy nowej karty graficznej zostały wybrane z myślą o tym, a nawet z pewną rezerwą pod względem funkcji i właściwości.

Np. do zasilania procesora graficznego w Geforce GTX Titan X zastosowano 6-fazowy układ zasilania z możliwością dodatkowego wzmocnienia. Aby zapewnić działanie pamięci GDDR5, dodatkowo stosowany jest inny dwufazowy układ zasilania. System zasilania 6 + 2-fazowy karty graficznej zapewnia danemu modelowi więcej niż wystarczającą moc, nawet przy przetaktowywaniu. Tak więc referencyjna płyta Titan X jest w stanie dostarczyć do GPU do 275 W mocy, pod warunkiem, że maksymalna wartość docelowej mocy (docelowa moc) jest ustawiona na 110%.

Ponadto, aby jeszcze bardziej zwiększyć potencjał przetaktowywania, poprawiono chłodzenie wszystkich nowych komponentów w porównaniu z oryginalną kartą graficzną Geforce GTX Titan - przeprojektowana płyta i chłodzenie doprowadziły do ​​lepszych możliwości przetaktowywania. W rezultacie prawie wszystkie próbki Titan X są zdolne do pracy z częstotliwościami do 1,4 GHz lub wyższymi - z tym samym referencyjnym chłodnicą powietrza.

Długość płyty referencyjnej Geforce GTX Titan X wynosi 267 mm, posiada ona następujące złącza wyjściowe obrazu: jedno Dual-Link DVI, jedno HDMI 2.0 i trzy DisplayPort. Geforce GTX Titan X obsługuje wyświetlanie do rozdzielczości 5K i jest kolejną kartą graficzną z obsługą HDMI 2.0, której wciąż brakuje konkurentowi - umożliwia to podłączenie nowego produktu do telewizorów 4K, zapewniając maksymalną jakość obrazu przy wysokiej częstotliwości odświeżania 60 Hz.

Wsparcie dla twórców gier

Nvidia zawsze była firmą, która bardzo blisko współpracuje z twórcami oprogramowania, a zwłaszcza z twórcami gier. Spójrz na PhysX - najpopularniejszy silnik fizyki gier, który jest używany od ponad 10 lat w ponad 500 grach. Powszechne stosowanie PhysX wynika między innymi z faktu, że jest on zintegrowany z jednym z najpopularniejszych silników gier: Unreal Engine 3 i Unreal Engine 4. Tak więc podczas konferencji Game Developers Conference 2015 Nvidia ogłosiła darmowy dostęp do kodów źródłowych procesora - skupiona część PhysX 3.3.3 dla programistów C++ w wersjach dla Windows, Linux, OS X i Android.

Deweloperzy będą teraz mogli dowolnie modyfikować kod PhysX silnika, a modyfikacje te mogą nawet zostać włączone do rdzenia kodu Nvidia PhysX. Otwierając publicznie źródło PhysX, Nvidia dała dostęp do swojego silnika fizyki jeszcze szerszemu gronu twórców aplikacji do gier, którzy mogą używać tego zaawansowanego silnika fizycznego w swoich grach.

Nvidia nadal promuje inną własną technologię, raczej nowy algorytm symulacji dynamicznego globalnego oświetlenia VXGI, który obejmuje obsługę specjalnej akceleracji sprzętowej na kartach graficznych z procesorami graficznymi Maxwell drugiej generacji, takimi jak Geforce GTX Titan X.

Wprowadzenie do gry VXGI pozwoli programistom zapewnić bardzo wysokiej jakości obliczenia dynamicznego globalnego oświetlenia w czasie rzeczywistym, wykorzystując wszystkie możliwości nowoczesnych procesorów graficznych i zapewniając najwyższą wydajność. Aby zrozumieć, jak ważne jest obliczanie globalnego oświetlenia (renderowanie uwzględniające nie tylko bezpośrednie oświetlenie ze źródeł światła, ale także jego odbicie od wszystkich obiektów w scenie), wystarczy spojrzeć na kilka zdjęć - z włączonym GI i bez niego:

Oczywiste jest, że ten przykład jest sztuczny i w rzeczywistości projektanci gier stosują specjalne metody symulowania globalnego cieniowania, umieszczania dodatkowych świateł lub używania wstępnie obliczonego oświetlenia - ale przed pojawieniem się VXGI albo nie były one w pełni dynamiczne (wstępnie obliczone dla statycznych geometrii) lub nie miały wystarczającego realizmu i/lub wydajności. W przyszłych grach całkiem możliwe jest używanie VXGI i to nie tylko na topowych procesorach graficznych.

Technika VXGI jest bardzo popularna wśród twórców gier. Przynajmniej wielu z nich wypróbowało tę metodę w scenach testowych, jest bardzo podekscytowanych wynikami i rozważa włączenie jej do swoich gier. A oto kolejna scena z wysokiej jakości obliczeniami globalnego oświetlenia - pokazuje również, jak ważne jest uwzględnienie promieni światła odbitych od wszystkich powierzchni sceny:

Chociaż programiści nie zaimplementowali VXGI we własnych silnikach, możesz skorzystać ze specjalnej wersji silnika Unreal Engine 4 VXGI GitHub, która jest dostarczana wszystkim zainteresowanym programistom - umożliwia to szybką integrację VXGI z ich grą (i nie tylko! ) projektów korzystających z tego popularnego silnika gier - będzie to jednak wymagało pewnych modyfikacji, VXGI nie można po prostu "włączyć".

Rozważmy jeszcze jedną technologię Nvidii - pełnoekranowy antyaliasing przy użyciu metody MFAA, który zapewnia doskonałą wydajność i jednocześnie akceptowalną jakość antyaliasingu. Pisaliśmy już o tej metodzie i tylko pokrótce powtarzamy istotę i perspektywy. Obsługa MFAA jest jedną z kluczowych cech procesorów graficznych Maxwell w porównaniu z procesorami graficznymi poprzedniej generacji. Wykorzystując możliwość programowania pozycji dla próbek antyaliasingu w metodzie MSAA, próbki te zmieniają każdą klatkę w taki sposób, że MFAA jest prawie pełnoprawnym MSAA, ale z mniejszym obciążeniem GPU.

W rezultacie obraz z włączonym MFAA wygląda prawie jak z MSAA, ale spadek wydajności jest znacznie mniejszy. Na przykład MFAA 4x zapewnia prędkości porównywalne z MSAA 2x, a jakość antyaliasingu jest zbliżona do MSAA 4x. Dlatego w tych grach, w których wydajność nie wystarcza do osiągnięcia wysokiej liczby klatek na sekundę, użycie MFAA będzie w pełni uzasadnione i może poprawić jakość. Oto przykład uzyskanej wydajności z MSAA i MFAA na karcie graficznej Titan X w porównaniu ze zwykłym Titanem (w rozdzielczości 4K):

Metoda antyaliasingu MFAA jest kompatybilna ze wszystkimi grami DirectX 10 i DirectX 11 z obsługą MSAA (z wyjątkiem rzadkich projektów, takich jak Dead Rising 3, Dragon Age 2 i Max Payne 3). MFAA można ręcznie włączyć w Panelu sterowania Nvidia. Ponadto MFAA jest zintegrowane z Geforce Experience, a ta metoda zostanie automatycznie włączona dla różnych gier w przypadku optymalizacji przy użyciu Geforce Experience. Jedynym problemem jest to, że w tej chwili MFAA nadal nie jest kompatybilny z technologią Nvidia SLI, którą obiecują naprawić w przyszłych wersjach sterowników wideo.

Nowoczesne gry na Geforce GTX Titan X

Z całą swoją mocą i możliwościami Geforce GTX Titan X jest w stanie poradzić sobie nie tylko z obecnymi grami, ale także przyszłymi projektami z obsługą nadchodzącej wersji DirectX 12. Jakość, z włączonym pełnoekranowym antyaliasingiem i renderowaniem w wysokiej rozdzielczości - jak 4K.

Przy wysokich rozdzielczościach i włączonym antyaliasingu szczególnie ważny staje się potężny podsystem pamięci, a Geforce GTX Titan X ma wszystko w porządku – 384-bitowy interfejs pamięci i chipy pracujące z efektywną częstotliwością 7 GHz zapewniają przepustowość rzędu 336,5 GB/s – choć nie jest to rekord, to całkiem przyzwoity.

I bardzo ważne jest również, aby wszystkie dane zmieściły się w pamięci wideo, ponieważ gdy MSAA jest włączone w rozdzielczości 4K w wielu grach, ilość pamięci wideo po prostu nie wystarcza - potrzeba ponad 4 GB pamięci. A Titan X ma nie tylko 6 GB, ale aż 12 GB pamięci wideo, bo ta linia jest stworzona dla tych entuzjastów, którzy nie tolerują kompromisów. Oczywiste jest, że przy takiej ilości wbudowanej pamięci gracz nie musi się zastanawiać, czy po włączeniu multisamplingu wydajność gry w wysokiej rozdzielczości zmniejszy się - we wszystkich grach przy dowolnych ustawieniach będzie 12 GB więcej niż wystarczy.

W tej chwili w absolutnie każdej grze możesz ustawić dowolne ustawienia i wybrać dowolną rozdzielczość - Titan X zapewni wystarczającą liczbę klatek na sekundę w (prawie) każdych warunkach. Oto gry, które Nvidia wybrała, aby zademonstrować wydajność swojego rozwiązania:

Jak widać, w większości „najcięższych” nowoczesnych gier z włączonym pełnoekranowym antyaliasingiem, w tym w projektach takich jak Far Cry 4, w tej grze z ustawieniami Ultra i -aliasing w rozdzielczości 4K, osiągnięcie akceptowalnej szybkości renderowania jest możliwe tylko w konfiguracjach Titan X lub wielochipowych.

A wraz z premierą gier przyszłości, które będą obsługiwać DirectX 12, możemy spodziewać się jeszcze większego wzrostu wymagań dotyczących wydajności GPU i pamięci wideo – poprawa jakości renderowania nie jest dawana „za darmo”. Nawiasem mówiąc, w tym czasie Nvidia nie testowała jeszcze swojej karty graficznej Titan X w najnowszej grze, która ukazała się całkiem niedawno - pecetowej wersji Grand Theft Auto V. Ta seria gier jest najpopularniejsza wśród współczesnych projektów, w której wcielasz się w różne elementy przestępcze w scenerii miasta Los Santos, podejrzanie podobnego do prawdziwego Los Angeles. Wersja PC GTAV była bardzo oczekiwana i ostatecznie została wydana w połowie kwietnia – miesiąc po Tytanie X.

Nawet konsolowe wersje (mowa oczywiście o konsolach obecnej generacji) gry Grand Theft Auto V były całkiem niezłe pod względem jakości obrazu, a pecetowa wersja gry oferuje jeszcze kilka możliwości jej ulepszenia: znacząco zwiększona odległość rysowania (obiekty, efekty, cienie), możliwość grania w 60 FPS lub więcej, w tym rozdzielczości do 4K. Ponadto obiecują bogaty i gęsty ruch, dużo dynamicznych obiektów w scenie, ulepszone efekty pogodowe, cienie, oświetlenie itp.

Zastosowanie kilku technologii Nvidia GameWorks jeszcze bardziej poprawiło jakość obrazu w GTAV. Przypomnijmy, że GameWorks to specjalna platforma dla twórców gier i grafików, zapewniająca im technologie 3D i narzędzia przeznaczone dla kart graficznych Nvidii. Dodanie do gier technologii GameWorks sprawia, że ​​stosunkowo łatwo można uzyskać wysokiej jakości imitację realistycznego dymu, wełny i włosów, fal, a także globalnego oświetlenia i innych efektów. GameWorks znacznie ułatwia to programistom, udostępniając przykłady, biblioteki i zestawy SDK gotowe do użycia w kodzie gry.

Grand Theft Auto V wykorzystuje kilka technologii Nvidii: ShadowWorks Percentage-Closer Soft Shadows (PCSS) i Temporal Anti-Aliasing (TXAA), które poprawiają i tak już dobrą grafikę w grze. PCSS to specjalna technika renderowania cieni, która ma lepszą jakość niż typowe metody miękkich cieni. PCSS ma trzy zalety: miękkość krawędzi cienia zależy od odległości między obiektem rzucającym cień a powierzchnią, na której jest on rysowany, zapewnia również lepsze filtrowanie, które zmniejsza ilość artefaktów w postaci postrzępionych krawędzi cieni, a użycie bufora cieni pozwala poprawnie obsługiwać przecięcia cieni z różnych obiektów i zapobiegać pojawianiu się „podwójnych” cieni.

W rezultacie po włączeniu PCSS gra zapewnia miękkie, realistyczne, dynamiczne cienie, które są znacznie lepsze niż to, co widzieliśmy na konsolach do gier. A w grze takiej jak Grand Theft Auto V, w której jasne słońce nieustannie przesuwa się po horyzoncie, jakość cieni jest bardzo ważna, są one zawsze widoczne. Na poniższych zrzutach ekranu widać różnicę między dwiema metodami najwyższej jakości zastosowanymi w grze (algorytm AMD kontra metoda Nvidia):

Widać wyraźnie, że metoda PCSS pozwala na uzyskanie miękkich krawędzi cieni, które coraz bardziej się rozmywają, im większa jest odległość między obiektem, z którego cień się znajduje, a powierzchnią, na którą cień się „przyjmuje”. Jednocześnie włączenie PCSS nie ma prawie żadnego wpływu na ostateczną wydajność gry. Chociaż ta metoda zapewnia lepszą jakość cieni i realizm, włączenie tej opcji jest praktycznie „bezpłatne” dla wydajności.

Kolejnym ważnym dodatkiem do pecetowej wersji GTAV jest metoda wygładzania krawędzi Nvidia TXAA. Temporal Anti-Aliasing to nowy algorytm wygładzania krawędzi, zaprojektowany specjalnie w celu rozwiązania problemów konwencjonalnych metod wygładzania krawędzi widocznych w ruchu — gdzie poszczególne piksele migoczą. Do filtrowania pikseli na ekranie tą metodą wykorzystuje się próbki nie tylko wewnątrz piksela, ale także poza nim, także razem z próbkami z poprzednich klatek, co pozwala uzyskać jakość filtrowania „cine”.

Przewaga metody nad MSAA jest szczególnie widoczna na takich obiektach o powierzchniach półprzezroczystych, jak trawa, liście drzew i siatki ogrodzeniowe. TXAA pomaga również wygładzić efekty piksel po pikselu. Ogólnie metoda jest bardzo wysokiej jakości i zbliża się do jakości profesjonalnych metod stosowanych w grafice 3D, ale wynik po TXAA jest nieco bardziej rozmyty w porównaniu z MSAA, co nie wszystkim użytkownikom przypada do gustu.

Spadek wydajności spowodowany włączeniem TXAA zależy od gry i warunków oraz koreluje głównie z szybkością MSAA, która jest również wykorzystywana w tej metodzie. Jednak w porównaniu z czystymi metodami wygładzania krawędzi, takimi jak FXAA, które zapewniają maksymalną prędkość przy niższej jakości, TXAA ma na celu maksymalizację jakości przy pewnym dodatkowym spadku wydajności. Ale przy takim bogactwie i szczegółowości na świecie, jakie widzimy w Grand Theft Auto V, włączenie wysokiej jakości wygładzania krawędzi będzie całkiem przydatne.

Wersja gry na PC posiada bogate ustawienia graficzne, które pozwalają uzyskać wymaganą jakość obrazu przy wymaganej wydajności. Tak więc GTAV na PC zapewnia akceptowalną szybkość i jakość renderowania we wszystkich rozwiązaniach Nvidii, zaczynając od około Geforce GTX 660. Cóż, aby w pełni cieszyć się wszystkimi efektami graficznymi gry, zaleca się użycie czegoś takiego jak Geforce GTX 970/980 a nawet Tytan X.

Aby sprawdzić ustawienia, w grę wbudowano test wydajności — ten benchmark zawiera pięć scen zbliżonych do rzeczywistej rozgrywki, co pozwoli ocenić szybkość renderowania w grze na komputerze o różnych konfiguracjach sprzętowych. Ale właściciele kart graficznych Nvidii mogą to zrobić łatwiej, optymalizując grę na własnym komputerze za pomocą Geforce Experience. To oprogramowanie wybierze i dostosuje optymalne ustawienia, zachowując jednocześnie odtwarzalną prędkość renderowania - a wszystko to odbywa się za jednym kliknięciem przycisku. Geforce Experience znajdzie najlepszą kombinację funkcji zarówno dla karty Geforce GTX 660 z monitorem FullHD, jak i Titan X z telewizorem 4K, zapewniając najlepsze ustawienia dla konkretnego systemu.

Pełne wsparcie dla gry GTAV pojawiło się w nowej wersji sterowników Geforce w wersji 350.12 WHQL, która posiada specjalnie zoptymalizowany profil dla tej aplikacji. Ta wersja sterownika zapewni optymalną wydajność w grach, w tym inne technologie Nvidia: 3D Vision, 4K Surround, Dynamic Super Resolution (DSR), GameStream, G-SYNC (Surround), Multi Frame Sampled Anti-Aliasing (MFAA) , Percentage Closer Miękkie cienie (PCSS), SLI i nie tylko.

Ponadto specjalny sterownik 350.12 WHQL zawiera zaktualizowane profile SLI dla kilku gier, w tym nowy profil dla Grand Theft Auto V. Oprócz profili SLI, sterownik aktualizuje i dodaje profile dla technologii 3D Vision, a profil dla GTAV został oceniona jako "Doskonała", co oznacza doskonałą jakość obrazu stereo w tej grze - posiadacze odpowiednich okularów i monitorów powinni tego spróbować!

Wsparcie dla technologii wirtualnej rzeczywistości

Temat wirtualnej rzeczywistości (Virtual Reality – VR) jest obecnie jednym z najgłośniejszych w branży gier. Pod wieloma względami za ożywienie zainteresowania VR jest „winna” firma Oculus, która została następnie przejęta przez Facebooka. Do tej pory pokazali tylko prototypy lub zestawy SDK, ale planują wypuścić komercyjną wersję hełmu Oculus Rift jeszcze w tym roku. Inne firmy również nie są pominięte. Na przykład znana firma Valve ogłosiła plany nawiązania współpracy z HTC w celu wypuszczenia własnego kasku do wirtualnej rzeczywistości również do końca 2015 roku.

Oczywiście producenci procesorów graficznych również widzą przyszłość w VR, a Nvidia ściśle współpracuje z dostawcami oprogramowania i rozwiązań sprzętowych dla wirtualnej rzeczywistości, aby zapewnić im jak najwygodniejszą pracę z kartami graficznymi Geforce (lub nawet Tegrą, kto wie?) . I to nie są tylko slogany marketingowe, bo aby korzystanie z VR było wygodne, trzeba rozwiązać kilka problemów, w tym zmniejszyć opóźnienie między działaniem gracza (ruch głową) a wynikającym z tego wyświetleniem tego ruchu na wyświetlaczu – zbyt duże opóźnienie nie tylko psuje doświadczenie wirtualnej rzeczywistości, ale może powodować tzw. chorobę lokomocyjną (choroba lokomocyjna).

Aby zmniejszyć to opóźnienie, oprogramowanie Nvidia VR Direct obsługuje funkcję zwaną asynchronicznym dopasowaniem czasu. Dzięki zastosowaniu asynchronicznego zniekształcania czasu, wyrenderowana jakiś czas temu scena może się poruszać w oparciu o ruchy głowy gracza, które następnie zostaną przechwycone przez czujniki hełmu. Zmniejsza to opóźnienie między akcją a renderowaniem obrazu, ponieważ GPU nie musi ponownie obliczać całej klatki przed przesunięciem. Nvidia zapewnia już obsługę sterowników dla twórców aplikacji VR i mogą oni zastosować w swoim oprogramowaniu asynchroniczne zniekształcenie czasu.

Oprócz opóźnienia wyjściowego bardzo ważne jest, aby osiągnąć wygodną rozgrywkę w kasku wirtualnej rzeczywistości nie tylko zapewniać wysoką liczbę klatek na sekundę, ale wyświetlać klatki dla każdego oka z możliwie płynną zmianą. W związku z tym, po spopularyzowaniu kasków VR przyszłej generacji, wielu graczy będzie chciało wypróbować je w nowoczesnych grach, które są bardzo wymagające pod względem mocy GPU. W niektórych przypadkach będziesz musiał stworzyć dwuchipową konfigurację SLI z pary potężnych kart graficznych, takich jak Geforce GTX Titan X.

Aby zapewnić maksymalny komfort w takich przypadkach, Nvidia oferuje technologię VR SLI, która umożliwia twórcom gier przypisanie określonej karty graficznej z pary do każdego oka w celu zmniejszenia opóźnień i poprawy wydajności. W tym przypadku obraz dla lewego oka będzie renderowany przez jeden GPU, a dla prawego oka - przez drugi GPU. To oczywiste rozwiązanie zmniejsza opóźnienia i jest idealne do zastosowań VR.

Jak dotąd, VR SLI i asynchroniczne przesunięcie czasu nie są dostępne w publicznych sterownikach Nvidii, ale nie jest to szczególnie konieczne, ponieważ ich użycie wymaga zmian w kodzie wykonywalnym gry. Wstępnie wydane sterowniki wideo Geforce z obsługą VR SLI i Asynchronous Time Warp są dostępne dla wybranych partnerów Nvidii, takich jak Epic, Crytek, Valve i Oculus. Cóż, publiczny sterownik zostanie wydany bliżej premiery ostatecznych produktów VR w sprzedaży.

Ponadto tak potężna karta graficzna, jak Geforce GTX Titan X, była używana w wielu demonstracjach wirtualnej rzeczywistości na tegorocznej Game Developers Conference 2015. Oto tylko kilka przykładów: „Złodziej w cieniu” – wspólne opracowanie Nvidii, Epic , Oculus i WETA Digital, studio efektów wizualnych stojące za trylogią filmową Hobbit, Back to Dinosaur Island to reboot słynnego 14-letniego dema X-Isle: Dinosaur Island firmy Crytek oraz Valve's Portal ”, „Job Simulator”, „TheBluVR ” i „Galeria”. Ogólnie rzecz biorąc, wszystko zależy od premiery hełmów VR w sprzedaży, a Nvidia będzie na to gotowa.

Wnioski z części teoretycznej

Z architektonicznego punktu widzenia nowy topowy GPU drugiej generacji architektury Maxwell okazał się bardzo interesujący. Podobnie jak jego rodzeństwo, GM200 wykorzystuje to, co najlepsze z poprzednich architektur firmy, z dodatkową funkcjonalnością i wszystkimi ulepszeniami drugiej generacji Maxwella. Dlatego funkcjonalnie nowość wygląda dobrze, odpowiadając modelom linii Geforce GTX 900. Dzięki poważnej modernizacji jednostek wykonawczych inżynierowie Nvidii osiągnęli podwojenie stosunku wydajności do zużycia energii w Maxwell, podczas dodawania funkcjonalności - przypominamy sprzętową obsługę akceleracji globalnego oświetlenia VXGI i graficznego API DirectX 12.

Najwyższej klasy karta graficzna Geforce GTX Titan X jest przeznaczona dla bardzo entuzjastycznych graczy, którzy oczekują najwyższej jakości i wydajności najnowszych gier na PC, działającej w najwyższych rozdzielczościach, najwyższych ustawieniach jakości, aliasing i wszystko z akceptowalną liczbą klatek na sekundę. Z jednej strony niewiele gier wymaga tak wydajnego procesora graficznego i możesz zainstalować kilka tańszych kart wideo. Z drugiej strony, ze względu na problemy z rozwiązaniami wieloukładowymi ze zwiększonymi opóźnieniami i nierówną liczbą klatek na sekundę, wielu graczy woli jeden potężny GPU od pary słabszych. Nie wspominając o tym, że karta jednoukładowa zapewni również mniejsze zużycie energii i hałas z układu chłodzenia.

Oczywiście w takich warunkach głównym problemem dla Geforce GTX Titan X jest cena rozwiązania. Ale faktem jest, że jest sprzedawany w niszy, w której koncepcje uzasadnienia ceny i opłacalności po prostu nie są potrzebne - rozwiązania o maksymalnej wydajności zawsze kosztują znacznie więcej niż te, które są im bliskie, ale wciąż nie są tak wydajne. A Titan X to niezwykle wydajna i droga karta graficzna dla tych, którzy są gotowi zapłacić za maksymalną prędkość w aplikacjach 3D.

Geforce GTX Titan X jest pozycjonowana jako karta graficzna premium (luksusowa, elitarna - jakkolwiek chcesz to nazwać) i nie powinno być żadnych skarg na zalecaną cenę - zwłaszcza, że ​​poprzednie rozwiązania linii (GTX Titan i GTX Titan Black ) początkowo kosztował dokładnie tyle samo - 999 USD . Jest to rozwiązanie dla tych, którzy potrzebują najszybszego istniejącego GPU, pomimo jego ceny. Co więcej, dla najbogatszych entuzjastów i rekordzistów w benchmarkach 3D dostępne są systemy z trzema, a nawet czterema kartami wideo Titan X – to po prostu najszybsze systemy wideo na świecie.

Są to żądania, które Titan X w pełni uzasadnia i zapewnia - nowość z najwyższej półki, nawet sama, pokazuje najwyższą liczbę klatek na sekundę we wszystkich aplikacjach do gier i prawie w każdych warunkach (rozdzielczość i ustawienia), a ilość szybkiej pamięci wideo GDDR5 wynosi 12 GB pozwala nie myśleć o braku pamięci lokalnej na kilka lat do przodu - nawet gry przyszłych generacji, z obsługą DirectX 12 itp. po prostu nie będą w stanie zapchać tej pamięci na tyle, że nie wystarczy.

Podobnie jak w przypadku pierwszego GTX Titan w 2013 r., GTX Titan X wyznacza nowy poziom wydajności i funkcjonalności w segmencie grafiki premium. W pewnym momencie GTX Titan stał się dość udanym produktem Nvidii i nie ma wątpliwości, że GTX Titan X powtórzy sukces swojego poprzednika. Co więcej, model oparty na największym chipie wideo architektury Maxwell stał się bez żadnych zastrzeżeń najbardziej produktywnym na rynku. Ponieważ karty graficzne, takie jak GTX Titan X, są produkowane przez samą Nvidię i sprzedają referencyjne próbki swoim partnerom, nie było problemów z dostępnością w sklepach od samego momentu jej ogłoszenia.

GTX Titan X osiąga najwyższy poziom pod każdym względem: najmocniejszy procesor graficzny z rodziny Maxwell, doskonała konstrukcja kart graficznych w stylu poprzednich modeli Titana, a także doskonały system chłodzenia - wydajny i cichy. Pod względem szybkości renderowania 3D jest to najlepsza karta graficzna naszych czasów, oferująca ponad jedną trzecią wyższą wydajność w porównaniu z najlepszymi modelami, które pojawiły się przed Titan X – jak Geforce GTX 980. A jeśli nie bierzesz pod uwagę podwójnej- chipowe systemy wideo (jak kilka takich samych GTX 980 lub jeden Radeon R9 295X2 od konkurenta, który ma problemy związane z konfiguracjami wielochipowymi), wtedy Titan X można nazwać najlepszym rozwiązaniem dla nie-biednych entuzjastów.

W dalszej części naszego materiału przyjrzymy się szybkości renderowania nowej karty graficznej Nvidia Geforce GTX Titan X w praktyce, porównując jej szybkość z wydajnością najmocniejszych systemów wideo AMD oraz z wydajnością poprzedników Nvidii. w naszym zwykłym zestawie testów syntetycznych, a następnie w grach.

W marcu 2015 roku publicznie zaprezentowano nową flagową kartę graficzną firmy NVIDIA. Karta graficzna do gier Nvidia Titan X jest jednoukładowa, a jej architektura oparta jest na opatentowanym przez producenta algorytmie Pascala (dla GPU GP102). W momencie prezentacji Geforce GTX Titan X słusznie uznano go za najpotężniejszą kartę wideo do gier.

GPU. GPU ma 3584 rdzeni CUDA o podstawowej częstotliwości 1417 MHz. W tym przypadku częstotliwość zegara z przyspieszeniem będzie na poziomie 1531 MHz.

Pamięć. Zaprezentowano flagowca o pojemności 12 Gb, ale później ukazała się wersja o 2 krotnie zmniejszonej objętości. Szybkość pamięci sięga 10 Gb/s. Przepustowość magistrali pamięci wynosi 384 bity, co umożliwia uzyskanie przepustowości pamięci na poziomie 480 Gb/s. Zastosowano układy pamięci GDDR5X, więc nawet przy konfiguracji 6 Gb wydajność będzie wysoka.

Inne cechy Titana X. Liczba jednostek ALU to 3584, ROP to 96, a liczba jednostek tekstur nałożonych to 192. Karta obsługuje również rozdzielczości do 7680×4320, zestaw złącz nowych standardów DP 1.4, HDMI 2.0b, DL-DVI oraz HDCP w wersji 2.2.

Karta graficzna współpracuje z gniazdem (magistrali) PCIe 3.0. Aby zapewnić pełną moc, musisz mieć dodatkowe złącza 8-pinowe i 6-pinowe na zasilaczu. Karta zajmie dwa sloty na płycie głównej (SLI jest możliwe dla 2, 3 i 4 kart).

Wysokość karty graficznej to 4,376″, a długość to 10,5″. Zaleca się stosowanie zasilaczy o mocy 600 W lub większej.

Przegląd karty wideo

Główny nacisk producentów położono na ulepszenie grafiki dla VR, a także pełne wsparcie dla DirectX 12. Wydajność karty graficznej w grach można nieco zwiększyć, podkręcając wydajność karty GTX Titan X 12 Gb.


Technologia Pascal jest skierowana do gier VR. Korzystając z ultraszybkiej technologii FinFET, podczas używania kasku uzyskuje się maksymalne wygładzenie. Model Geforce Titan X Pascal jest w pełni kompatybilny z VRWorks, co daje efekt pełnego zanurzenia z możliwością doświadczania fizyki i wrażeń dotykowych gry.

Zamiast miedzianych rurek cieplnych zastosowano tu komorę parowania. Temperatura maksymalna to 94 stopnie (ze strony producenta), jednak w testach średnia temperatura to 83-85 stopni. Dochodząc do tej temperatury, chłodniejsza turbina przyspiesza. Jeśli przyspieszenie nie jest wystarczające, zmniejsza się częstotliwość taktowania układu graficznego. Hałas turbiny jest dość wyraźny, więc jeśli jest to istotny wskaźnik dla użytkownika, to lepiej zastosować chłodzenie wodne. Rozwiązania dla tego modelu już istnieją.

Poprawa wydajności wydobycia

Firma skupiła się na wydajności w grach. W porównaniu z kartą graficzną Geforce GTX Titan X 12 Gb nie poprawia wydobycia, ale zużycie jest wyższe. Wszystkie karty graficzne z serii Titan wyróżniają się podwójną precyzją FP32 i INT8. To pozwala nam uznać serię kart za akceleratory klasy profesjonalnej. Jednak model z chipem GM200 nie jest taki, ponieważ wiele testów pokazuje pogorszenie wydajności w obliczeniach haszujących i innych operacjach. Wydajność kopania kryptowalut wynosi tylko 37,45 Mhash/s.

Nie zalecamy używania modelu X do wydobywania walut kryptograficznych. Nawet ulepszanie Nvidii Titan X pod kątem wydajności nie przyniesie takich samych wyników jak Radeon Vega (jeśli zostanie wzięty w tym samym przedziale cenowym), nie mówiąc już o Tesli.

Nowa karta tego samego producenta daje 2,5 razy większą wydajność. W stanie podkręconym Titan V dał wynik 82,07 Mhash/s.

Wyniki testów w grach

Jeśli porównamy kartę graficzną Titan X Pascal z innymi, to jest ona o 20-25% lepsza niż karta graficzna tego samego producenta, a także prawie dwukrotnie przewyższa konkurenta Radeona R9 FuryX, który również jest jednoukładowy.

We wszystkich grach w 4K i UltraHD widzimy płynny obraz. Dobre wyniki osiągnęliśmy również w testach w trybie SLI.

Porównanie kart graficznych różnych producentów

Cena karty graficznej Titan X 12 Gb zaczyna się od 1200 USD i zależy od producenta i ilości pamięci.

Oferujemy zapoznanie się z charakterystyką porównawczą towarów różnych producentów (* - podobne):

ProduktPalit GeForce GTX TITAN XMSI GeForce GTX TITAN XASUS GeForce® GTX TITAN X
Lista głównych funkcji
Typ karty graficznejgra *
Nazwa GPUNVIDIA GeForce GTX TITAN X *
Kod producentaNE5XTIX015KB-PG600F *
Nazwa kodowa GPUGM 200 *
Proces techniczny28nm *
Obsługiwane monitorycztery *
Rozdzielczość GM200 (maksymalna)5120 do 3200 *
Lista specyfikacji
Częstotliwość GPU1000Mhz *
Pamięć12288Mb *
Typ pamięciGDDR5 *
Częstotliwość pamięci7000 MHz7010 MHz7010 MHz
Szerokość szyny pamięci384bit *
Częstotliwość RAMDAC400 MHz *
Obsługa trybu CrossFire/SLImożliwy *
Obsługa poczwórnego SLImożliwy* *
Lista specyfikacji według połączenia
Złączaobsługa HDC, HDMI, DisplayPort x3 *
Wersja HDMI2.0 *
Blok matematyczny
Liczba procesorów uniwersalnych3072 *
Wersja cieniowania5.0 *
Liczba bloków tekstury192 *
Liczba bloków rasteryzacji96 *
Dodatkowe funkcje
Wymiary267×112 mm280×111 mm267×111 mm
Liczba zajętych slotów2 *
Cena £74300 r.75000 r.75400 r.

Na podstawie tabeli porównawczej można zauważyć, że różni producenci stosują się do normalizacji. Różnica w charakterystyce jest nieznaczna: różna częstotliwość pamięci wideo i rozmiary adapterów.

Teraz w sprzedaży nie ma tego modelu od żadnego producenta. W styczniu 2018 roku wprowadzono świat, który kilkakrotnie przewyższa swoje odpowiedniki wydajnością w grach i kopaniu kryptowalut.