Преглед и тестирање на NVIDIA GeForce GTX TITAN X: масакр на бебиња. Преглед на видео адаптерот NVIDIA TITAN X: голем паскал изглед и димензии

Nvidia Geforce GTX Titan X

Најмоќниот акцелератор со еден процесор

  • Дел 2 - Практично запознавање

Поради доцното добивање на тест примерок од новиот акцелератор (и софтвер за него), како и поради учеството на нашиот автор Алексеј Берило во работата на GTC, делови од овој преглед се посветени на архитектурата на новата Nvidia производот и анализата на синтетичките тестови ќе бидат објавени подоцна (за околу една недела). И сега презентираме материјал кој ги запознава читателите со карактеристиките на видео картичката, како и со резултатите од тестовите за игри.

Уред(и)



Nvidia Geforce GTX Titan X 12288MB 384-битен GDDR5 PCI-E
ПараметарЗначењеНоминална вредност (референца)
GPUGeforce GTX Titan X (GM200)
ИнтерфејсPCI Express x16
Работна фреквенција на графичкиот процесор (ROPs), MHz1000—1075 1000—1075
Фреквенција на меморија (физичка (ефективна)), MHz1750 (7000) 1750 (7000)
Ширина на магистралата за размена на меморија, бит384
Бројот на компјутерски единици во графичкиот процесор / фреквенцијата на блоковите, MHz24/1000—1075 24/1000—1075
Број на операции (ALU) по блок128
Вкупно операции (ALU)3072
Број на единици за текстура (BLF/TLF/ANIS)192
Број на блокови за растеризација (ROP)96
Димензии, мм270×100×35270×100×35
Бројот на слотови во системската единица окупирана од видео картичката2 2
Текстолит бојацрнацрна
Потрошувачка на енергија (врв во 3D/во 2D режим/во режим „спиење“), В257/98/14 257/98/14
Ниво на бучава (во 2D режим / во 2D режим (репродукција на видео) / во максимален 3D режим), dBA20/21/29,5
Излезни приклучоци1×DVI (Dual-Link/HDMI), 1×HDMI 2.0, 3×DisplayPort 1.2
Поддршка за мултипроцесирањеSLI
Максимален број на приемници/монитори за симултан излез на слика4 4
Помошна моќност: број на 8-пински конектори1 1
Помошна моќност: број на 6-пински конектори1 1
Максимална 2D резолуција: DP/HDMI/Dual-Link DVI/Single-Link DVI
Максимална 3D резолуција: DP/HDMI/Dual-Link DVI/Single-Link DVI3840×2400/3840×2400/2560×1600/1920×1200

Во комплет со локална меморија

Картичката има 12288 MB GDDR5 SDRAM сместени во 24 чипови од 4 Gb (12 на секоја страна од ПХБ).

Како синтетички тестови за DirectX 11, користевме примери од Microsoft и AMD SDK, како и демо-програмата Nvidia. Првиот е HDRToneMappingCS11.exe и NBodyGravityCS11.exe од DirectX SDK (февруари 2010 година). Зедовме апликации и од двата производители на видео чипови: Nvidia и AMD. DetailTessellation11 и PNTriangles11 беа преземени од ATI Radeon SDK (тие се исто така во DirectX SDK). Дополнително, беше користена демо-програмата на Nvidia Realistic Water Terrain, позната и како Island11.

Беа спроведени синтетички тестови на следните видео картички:

  • Geforce GTX Titan X GTX Titan X)
  • Geforce GTX Titan Zсо стандардни параметри (скратено GTX Titan Z)
  • Geforce GTX 980со стандардни параметри (скратено GTX 980)
  • Radeon R9 295X2со стандардни параметри (скратено R9 295X2)
  • Radeon R9 290Xсо стандардни параметри (скратено R9 290X)

За да се анализираат перформансите на новиот модел на видео картичката Geforce GTX Titan X, овие решенија беа избрани од следниве причини. Geforce GTX 980 е базиран на графички процесор од истата архитектура на Maxwell, но од пониско ниво - GM204 и ќе ни биде многу интересно да оцениме што дала компликацијата на чипот на GM200. Па, видео картичката со двоен чип Geforce GTX Titan Z беше земена само за референца - како најпродуктивна видео картичка Nvidia базирана на пар чипови GK110 од претходната архитектура Кеплер.

Од конкурентската компанија AMD, избравме и две графички картички за нашата споредба. Тие се многу различни во принцип, иако се базираат на истите графички процесори на Хаваи - тие едноставно имаат различен број графички процесори на картичките и се разликуваат по позиционирање и цена. Geforce GTX Titan X нема ценовни конкуренти, па затоа ја зедовме најмоќната видео картичка со двоен чип Radeon R9 295X2, иако таквата споредба не би била многу интересна технички. За второто, беше земена најбрзата видео картичка со еден чип на конкурентот, Radeon R9 290X, иако беше објавена предолго и се заснова на графички процесор со јасно помала сложеност. Но, едноставно нема друг избор од решенијата на AMD.

Direct3D 10: Тестови за засенчување на пиксели PS 4.0 (текстура, циклус)

Ги напуштивме застарените репери за DirectX 9, бидејќи супермоќните решенија како Geforce GTX Titan X не покажуваат многу добри резултати во нив, бидејќи секогаш се ограничени со пропусниот опсег на меморијата, брзината на полнење или текстурата. Да не зборуваме за фактот дека видео картичките со двоен чип не секогаш работат правилно во такви апликации, а имаме две од нив.

Втората верзија на RightMark3D вклучува два веќе познати PS 3.0 тестови под Direct3D 9, кои беа препишани за DirectX 10, како и уште два нови теста. Првиот пар додаде можност за овозможување на самозасенчување и суперсемплирање со засенчување, што дополнително го зголемува оптоварувањето на видео чиповите.

Овие тестови ги мерат перформансите на шејдерите на пиксели со јамка со голем број примероци на текстура (до неколку стотици примероци по пиксел во најтешкиот режим) и релативно мало оптоварување на ALU. Со други зборови, тие ја мерат брзината на привлекување на текстурата и ефикасноста на разгранување во шејдерот на пиксели.

Првиот тест за засенчување на пиксели ќе биде Fur. При најниските поставки, користи 15 до 30 примероци на текстура од картата на висина и два примероци од главната текстура. Деталите за ефект - режимот „Висок“ го зголемува бројот на примероци на 40-80, вклучувањето на суперсемплирање „шејдер“ - до 60-120 примероци, а режимот „Висок“ заедно со SSAA се карактеризира со максимална „сериозност“ - од 160 до 320 примероци од висинската карта.

Ајде прво да ги провериме режимите без овозможено суперсемплирање, тие се релативно едноставни, а односот на резултатите во режимите „Ниско“ и „Висок“ треба да биде приближно ист.

Перформансите во овој тест зависи од бројот и ефикасноста на TMU, а влијае и на ефикасноста на извршување на сложени програми. И во верзијата без суперсемплирање, ефективната стапка на полнење и пропусниот опсег на меморијата исто така имаат дополнително влијание врз перформансите. Резултатите при детализирање на „Високото“ ниво се до еден и пол пати пониски отколку кога се „ниско“.

Во задачите на процедурално обложување на крзно со голем број на избор на текстура, со објавувањето на видео чипови базирани на архитектурата GCN, AMD одамна го презеде водството. Таблите Radeon се сè уште најдобри во овие споредби до ден-денес, што покажува дека тие се поефикасни во извршувањето на овие програми. Овој заклучок е потврден со денешната споредба - видео картичката Nvidia што ја сметаме за изгубена дури и за застарениот еден чип Radeon R9 290X, а да не зборуваме за најблискиот ценовен конкурент од AMD.

Во првиот тест Direct3D 10, новата видео картичка на моделот Geforce GTX Titan X се покажа дека е малку побрза од нејзината помлада сестра базирана на чип со истата архитектура во форма на GTX 980, но втората не е далеку зад - 9-12%. Овој резултат може да се објасни со забележително помалата брзина на текстура на GTX 980 и заостанува во другите параметри, иако поентата очигледно не е во перформансите на ALU единиците. Титан Z со двоен чип е побрз, но не толку брз како Radeon R9 295X2.

Да го погледнеме резултатот од истиот тест, но со вклучено суперсемплирање „шејдер“, што ја зголемува работата за четири пати: во таква ситуација, нешто треба да се промени, а пропусниот опсег на меморијата со пополнување ќе има помал ефект:

Во тешки услови, новата видео картичка на моделот Geforce GTX Titan X е веќе позабележително пред помладиот модел од истата генерација - GTX 980, со тоа што е побрза за пристојни 33-39%, што е многу поблиску до теоретската разлика. помеѓу нив. А заостатокот од конкурентите во форма на Radeon R9 295X2 и R9 290X се намали - новиот производ од Nvidia речиси се израмни со Radeon со еден чип. Сепак, оној со два чипови е далеку понапред, бидејќи чиповите на AMD претпочитаат пресметки пиксел по пиксел и се многу силни во таквите пресметки.

Следниот тест DX10 ги мери перформансите на извршување на сложени лупинг шејдери на пиксели со голем број на преземања на текстура и се нарекува Стрмно мапирање на паралакс. При ниски поставки, користи 10 до 50 примероци на текстура од картата на висина и три примероци од главните текстури. Кога ќе вклучите тежок режим со самозасенчување, бројот на примероци се удвојува, а суперсемплирањето четирикратно го зголемува овој број. Најкомплексниот режим на тестирање со суперсемплирање и самозасенчување избира од 80 до 400 вредности на текстурата, односно осум пати повеќе од едноставниот режим. Прво проверуваме едноставни опции без суперсемплирање:

Вториот тест за засенчување на Direct3D со 10 пиксели е поинтересен од практична гледна точка, бидејќи сортите за мапирање на паралакса се широко користени во игрите, додека тешките варијанти, како стрмното мапирање на паралакса, долго време се користат во многу проекти, на пример, во Crysis, Изгубена планета и многу други игри. Покрај тоа, во нашиот тест, покрај суперсемплирањето, можете да вклучите и самозасенчување, што го зголемува оптоварувањето на видео чипот за околу два пати - овој режим се нарекува „Висок“.

Дијаграмот е генерално сличен на претходниот, исто така без вклучување на суперсемплирање, а овој пат новиот Geforce GTX Titan X се покажа малку поблиску до GTX Titan Z, губејќи не толку многу на плочата со два чипови. на пар графички процесори од семејството Кеплер. Под различни услови, новиот производ е 14-19% понапред од претходниот врвен модел на сегашната генерација од Nvidia, па дури и ако се направи споредба со видео картичките AMD, тука нешто се промени - во овој случај, новиот GTX Titan X е малку инфериорен во однос на Radeon R9 290X прилично малку. Сепак, R9 295X2 со двоен чип е далеку пред сите. Ајде да видиме што ќе го промени вклучувањето на суперземање примероци:

Кога се овозможени суперсемплирање и самозасенчување, задачата станува потешка, комбинираното вклучување на две опции одеднаш го зголемува оптоварувањето на картичките за речиси осум пати, предизвикувајќи сериозен пад на перформансите. Разликата помеѓу индикаторите за брзина на тестираните видео картички е малку променета, иако вклучувањето на суперсемплирање има помал ефект отколку во претходниот случај.

Графичките решенија AMD Radeon работат поефикасно во овој тест за шејдер пиксели D3D10 од конкурентските Geforce плочи, но новиот чип GM200 ја менува ситуацијата на подобро - Geforce GTX Titan X плочата базирана на архитектурата Maxwell чипот веќе е пред Radeon R9 290X во сите услови (сепак, врз основа на значително помалку сложен графички процесор). Решението со двоен чип базирано на парот Хаваи останува лидер, но во споредба со другите решенија на Nvidia, новиот производ не е лош. Покажа брзина речиси на ниво на Geforce GTX Titan Z со двоен чип и го надмина Geforce GTX 980 за 28-33%.

Direct3D 10: Репери за засенчување на пиксели PS 4.0 (Пресметување)

Следните неколку тестови за засенчување на пиксели го содржат минималниот број на преземања на текстура за да се намали влијанието на перформансите на TMU. Користат голем број аритметички операции, а прецизно ги мерат математичките перформанси на видео чиповите, брзината на извршување на аритметички инструкции во шејдерот на пиксели.

Првиот тест по математика е Минерал. Ова е сложен процедурален тест за текстурирање кој користи само два примероци на податоци за текстура и 65 инструкции за sin и cos.

Резултатите од ограничувачките математички тестови најчесто одговараат на разликата во фреквенциите и бројот на пресметковни единици, но само приближно, бидејќи на резултатите влијае различната ефикасност на нивната употреба во одредени задачи и оптимизацијата на возачот и најновата фреквенција и системи за управување со енергија, па дури и акцент на пропусниот опсег на меморијата. Во случајот со Mineral тестот, новиот Geforce GTX Titan X модел е само 10% побрз од плочката GTX 980 базирана на чипот GM204 од истата генерација, а GTX Titan Z со двоен чип не беше толку брз на овој тест. - нешто јасно го спречува отворањето на таблите на Nvidia.

Споредувањето на Geforce GTX Titan X со конкурентните матични плочи од AMD не би било толку тажно доколку графичките процесори во R9 290X и Titan X се блиску по сложеност. Но, GM200 е многу поголем од Хаваите, а неговата мала победа е сосема природна. Надградбата на архитектурата на Nvidia од Кеплер на Максвел ги доближи новите чипови до конкурентните решенија на AMD во ваквите тестови. Но, дури и поевтиното решение со двоен чип Radeon R9 295X2 е значително побрзо.

Да го разгледаме вториот тест за пресметки на шејдер, кој се нарекува Оган. Тој е потежок за ALU, и има само една текстура донесена во неа, а бројот на инструкции за sin и cos е двојно зголемен, до 130. Ајде да видиме што се сменило со зголеменото оптоварување:

Во вториот математички тест од RigthMark, гледаме веќе различни резултати за видео картичките релативно едни на други. Значи, новиот Geforce GTX Titan X е веќе посилен (за 20%) пред GTX 980 на чип со иста графичка архитектура, а Geforce со двоен чип е многу блиску до новиот производ - Максвел многу се справува со пресметковните задачи. подобар од Кеплер.

Radeon R9 290X е оставен зад себе, но како што веќе напишавме, графичкиот процесор на Хаваи е значително поедноставен од GM200 и оваа разлика е логична. Но, иако Radeon R9 295X2 со двоен чип продолжува да биде лидер во тестовите по математика, генерално, новиот видео чип на Nvidia се покажа добро во ваквите задачи, иако не ја достигна теоретската разлика со GM204.

Direct3D 10: Тестови за засенчување на геометрија

Постојат два теста за брзина на шејдер за геометрија во RightMark3D 2.0, првата опција се нарекува „Galaxy“, техниката е слична на „point sprites“ од претходните верзии на Direct3D. Го анимира системот на честички на графичкиот процесор, геометрискиот засенувач од секоја точка создава четири темиња кои формираат честичка. Слични алгоритми треба да бидат широко користени во идните игри со DirectX 10.

Промената на рамнотежата во тестовите за засенчување на геометријата не влијае на конечниот резултат на рендерирање, конечната слика е секогаш потполно иста, само методите за обработка на сцената се менуваат. Параметарот "GS load" одредува во кој шејдер се вршат пресметките - во теме или геометрија. Бројот на пресметки е секогаш ист.

Да ја разгледаме првата верзија на тестот „Galaxy“, со пресметки во темето засенувач, за три нивоа на геометриска сложеност:

Односот на брзини со различна геометриска сложеност на сцените е приближно ист за сите решенија, перформансите одговараат на бројот на поени, со секој чекор падот на FPS е блиску до два пати. Оваа задача е многу едноставна за моќни модерни видео картички, а перформансите во неа се ограничени од брзината на обработка на геометријата, а понекогаш и од пропусниот опсег на меморијата и/или стапката на полнење.

Разликата помеѓу резултатите од видео картичките базирани на чипови Nvidia и AMD обично е во корист на решенијата на калифорниската компанија, а тоа се должи на разликите во геометриските цевководи на чиповите на овие компании. И во овој случај, врвните видео чипови Nvidia имаат многу единици за обработка на геометрија, така што добивката е очигледна. Во тестовите за геометрија, Geforce таблите се секогаш поконкурентни од Radeon.

Новиот Geforce GTX Titan X модел малку заостанува зад плочката со двоен чип GTX Titan Z на графичките процесори од претходната генерација, но го надминува GTX 980 за 12-25%. Графичките картички Radeon покажуваат значително различни резултати, бидејќи R9 295X2 се базира на пар графички процесори и само тој може да се натпреварува со новитетот во овој тест, додека Radeon R9 290X беше аутсајдер. Ајде да видиме како се менува ситуацијата при пренесување на дел од пресметките на шејдерот за геометрија:

Кога оптоварувањето се промени во овој тест, бројките се променија малку, за AMD плочите и за решенијата Nvidia. И тоа навистина не менува ништо. Видео картичките во овој тест за шејдери на геометрија лошо реагираат на промените во параметарот за оптоварување GS, кој е одговорен за пренесување на дел од пресметките на шејдерот за геометрија, така што заклучоците остануваат исти.

За жал, „Hyperlight“ е вториот тест на шејдерите на геометрија, демонстрирајќи употреба на неколку техники одеднаш: инстанцирање, излез на пренос, оптоварување на баферот, кој користи создавање динамична геометрија со цртање на два бафера, како и нова функција Direct3D 10 - стрим излез, на сите модерни AMD графички картички едноставно не работат. Во одреден момент, друго ажурирање на двигателот на Catalyst предизвика овој тест да престане да работи на таблите на Catalyst, и тоа не е поправено веќе неколку години.

Direct3D 10: стапка на фаќање текстура од шејдери на теме

Тестовите „Vertex Texture Fetch“ ја мерат брзината на голем број на преземања на текстура од шејдер на теме. Тестовите се слични во суштина, така што односот помеѓу резултатите од картичките во тестовите „Земја“ и „Бранови“ треба да биде приближно ист. И двата теста користат мапирање на поместување врз основа на податоци за земање примероци на текстура, единствената значајна разлика е во тоа што тестот „Waves“ користи условни скокови, додека тестот „Земја“ не.

Размислете за првиот тест „Земја“, прво во режимот „Ефект на детали низок“:

Нашите претходни студии покажаа дека и брзината на полнење и пропусниот опсег на меморијата можат да влијаат на резултатите од овој тест, што е јасно видливо на резултатите од таблите на Nvidia, особено во едноставни режими. Новата видео картичка од Nvidia во овој тест покажува брзина што е јасно помала отколку што треба - сите Geforce плочи се покажаа приближно на исто ниво, што очигледно не одговара на теоријата. Во сите режими, тие јасно наидуваат на нешто како пропусен опсег на меморија. Сепак, Radeon R9 295X2 исто така не е ни приближно двојно побрз од R9 290X.

Патем, овој пат плочата со еден чип на AMD се покажа посилна од сите плочи на Nvidia во светлосен режим и приближно на нивното ниво во хард режим. Па, Radeon R9 295X2 со двоен чип повторно стана лидер на нашата споредба. Ајде да ги погледнеме перформансите во истиот тест со зголемен број на прикачувања на текстура:

Ситуацијата на дијаграмот е малку променета, решението со еден чип на AMD во тешки режими изгуби значително повеќе Geforce плочи. Новиот Geforce GTX Titan X покажа брзини до 14% поголеми од Geforce GTX 980 и го надмина Radeon со еден чип во сите режими освен најлесниот - поради истиот акцент на нешто. Ако го споредиме новиот производ со решението со двоен чип на AMD, тогаш Titan X можеше да се бори во тежок режим, покажувајќи блиски перформанси, но заостануваше во режимите на светлина.

Ајде да ги разгледаме резултатите од вториот тест за преземање текстура од засенчувачи на теме. Тестот Waves има помалку примероци, но користи условни скокови. Бројот на примероци од биланеарна текстура во овој случај е до 14 („Ефектот на деталите низок“) или до 24 („Високо на деталите за ефектот“) по теме. Комплексноста на геометријата се менува слично како и претходниот тест.

Резултатите од вториот тест за текстурирање на темето „Waves“ не се ништо слично на она што го видовме на претходните дијаграми. Брзинските перформанси на сите Geforce на овој тест сериозно се влошија, а новиот модел Nvidia Geforce GTX Titan X покажува брзина само малку поголема од GTX 980, заостанува зад Titan Z со двоен чип. Во споредба со конкурентите, двете Radeon плочи беа во можност за да се прикажат најдобри перформанси во овој тест за време на сите режими. Размислете за втората верзија на истиот проблем:

Со сложеноста на задачата во вториот тест за земање примероци на текстура, брзината на сите решенија стана помала, но видео картичките Nvidia претрпеа повеќе, вклучително и моделот што се разгледува. Речиси ништо не се менува во заклучоците, новиот Geforce GTX Titan X модел е до 10-30% побрз од GTX 980, заостанува и зад двата чипови Titan Z и двете Radeon табли. Radeon R9 295X2 беше далеку понапред во овие тестови, а од гледна точка на теоријата, ова е едноставно необјасниво, освен недоволната оптимизација од Nvidia.

3DMark Vantage: Тестови за карактеристики

Синтетичките тестови од пакетот 3DMark Vantage ќе ни покажат што сме пропуштиле претходно. Тестовите за карактеристики од овој тест пакет имаат поддршка за DirectX 10, сè уште се релевантни и интересни бидејќи се разликуваат од нашите. Кога ги анализираме резултатите од најновата видео картичка Geforce GTX Titan X во овој пакет, ќе извлечеме неколку нови и корисни заклучоци што ни избегнаа во тестовите од семејните пакети RightMark.

Тест на карактеристика 1: Пополнување на текстура

Првиот тест ги мери перформансите на единиците за преземање текстура. Се користи за пополнување на правоаголник со вредности прочитани од мала текстура користејќи повеќе текстура координати кои ја менуваат секоја рамка.

Ефикасноста на видео картичките AMD и Nvidia во тестот за текстура на Futuremark е доста висока, а конечните бројки на различни модели се блиску до соодветните теоретски параметри. Значи, разликата во брзината помеѓу GTX Titan X и GTX 980 се покажа дека е 38% во корист на решение засновано на GM200, што е блиску до теоријата, бидејќи новиот производ има еден и пол пати повеќе TMU единици. , но тие работат со помала фреквенција. Секако, останува заостанувањето зад двојниот GTX Titan Z, бидејќи двата графички процесори имаат поголеми брзини на текстура.

Што се однесува до споредбата на брзината на текстура на новата врвна видео картичка Nvidia со решенија со слични цени на конкурентот, тука новината е инфериорна во однос на ривалот со два чипови, кој е условен сосед во ценовната ниша, но е пред Radeon R9 290X, иако не премногу. Сепак, графичките картички AMD сè уште работат малку подобро со текстурата.

Тест на карактеристика 2: Пополнување во боја

Втората задача е тест за пополнување. Користи многу едноставен шејдер за пиксели што не ги ограничува перформансите. Вредноста на интерполираната боја се запишува во тампон надвор од екранот (цел за рендерирање) со користење на алфа мешање. Користи 16-битен FP16 тампон надвор од екранот, најчесто користен во игрите што користат рендерирање HDR, така што овој тест е доста навремен.

Броевите од вториот поттест 3DMark Vantage ги покажуваат перформансите на единиците ROP, без да се земе предвид количината на пропусниот опсег на видео меморијата (т.н. „ефективна стапка на полнење“), а тестот точно ги мери перформансите на ROP. Таблата Geforce GTX Titan X што ја разгледуваме денес е значително пред двете Nvidia табли, GTX 980, па дури и GTX Titan Z, надминувајќи ја плочата со еден чип базирана на GM204 за дури 45% - бројот на ROP и нивните ефикасноста во врвниот графички процесор на архитектурата Максвел е одлична!

И ако ја споредиме брзината на пополнување на сцената на новата видео картичка Geforce GTX Titan X со видео картичките AMD, тогаш плочката Nvidia што ја разгледуваме во овој тест ја покажува најдобрата брзина на исполнување сцена дури и во споредба со најмоќниот Radeon R9 со двоен чип. 295X2, а да не зборуваме за значителното заостанување зад Radeon R9 290X. Голем број на ROP блокови и оптимизации за ефикасноста на компресија на податоци за рамковниот бафер ја завршија својата работа.

Тест на карактеристика 3: Мапирање на паралаксна оклузија

Еден од најинтересните тестови за карактеристики, бидејќи оваа техника веќе се користи во игрите. Исцртува еден четириаголник (поточно, два триаголници) со помош на специјалната техника за мапирање на паралаксна оклузија, која имитира сложена геометрија. Користени се операции за следење зраци со прилично интензивни ресурси и мапа на длабочина со висока резолуција. Оваа површина е исто така засенчена со помош на тешкиот алгоритам на Штраус. Ова е тест на многу сложен и тежок шејдер за пиксели за видео чип, кој содржи бројни прикачувања на текстура за време на следење на зраците, динамично разгранување и сложени пресметки на осветлувањето на Штраус.

Овој тест од пакетот 3DMark Vantage се разликува од претходните по тоа што резултатите во него не зависат само од брзината на математичките пресметки, ефикасноста на извршувањето на гранките или брзината на преземање текстура, туку и од неколку параметри истовремено. За да се постигне голема брзина во оваа задача, важна е правилната рамнотежа на графичкиот процесор, како и ефикасноста на извршувањето на сложените шејдери.

Во овој случај, и математичките и текстуралните перформанси се важни, а во оваа „синтетика“ од 3DMark Vantage, новата плочка Geforce GTX Titan X се покажа дека е повеќе од една третина побрза од моделот базиран на графичкиот процесор со истата архитектура на Maxwell. . Па дури и Kepler со двоен чип во форма на GTX Titan Z ја надмина новитетот за помалку од 10%.

Врвната плоча на Nvidia со еден чип на овој тест очигледно ги подобри перформансите на Radeon R9 290X со еден чип, но и двете се сериозно подобри од Radeon R9 295X2 со двоен чип. Графичките процесори на AMD се нешто поефикасни од оние на Nvidia во оваа задача, а R9 295X2 има два од нив.

Тест на карактеристики 4: GPU Cloth

Четвртиот тест е интересен бидејќи ги пресметува физичките интеракции (имитација на ткаенина) со помош на видео чип. Се користи симулација на теме, користејќи комбинирана операција на шејдерите на темето и геометријата, со неколку поминувања. Користете stream out за пренос на темиња од еден симулациски премин во друг. Така, се тестираат перформансите на извршувањето на шејдерите на темето и геометријата и брзината на испуштање.

Брзината на рендерирање во овој тест зависи и од неколку параметри одеднаш, а главни фактори на влијание треба да бидат изведбата на обработката на геометријата и ефикасноста на шејдерите на геометријата. Тоа е, јаките страни на чиповите на Nvidia треба да се покажат, но за жал - видовме многу чуден резултат (повторно проверен), новата видео картичка Nvidia покажа не премногу голема брзина, благо речено. Geforce GTX Titan X во овој поттест го покажа најлошиот резултат од сите решенија, заостанувајќи зад дури и GTX 980 за речиси 20%!

Па, споредбата со Radeon плочите во овој тест е исто толку грозна за нов производ. И покрај теоретски помалиот број на геометриски извршни единици и заостанувањето на геометриските перформанси на AMD чиповите во споредба со конкурентните решенија, двете Radeon плочки работат многу ефикасно во овој тест и ги надминуваат сите три Geforce табли претставени во споредба. Повторно, изгледа како недостаток на оптимизација во драјверите на Nvidia за одредена задача.

Тест на карактеристики 5: честички на графичкиот процесор

Тест за физичка симулација на ефекти врз основа на системи со честички пресметан со помош на видео чип. Се користи и симулација на теме, секое теме претставува една честичка. Stream out се користи за истата цел како и во претходниот тест. Се пресметуваат неколку стотици илјади честички, сите се анимирани посебно, се пресметуваат и нивните судири со картата на висината.

Слично на еден од нашите тестови RightMark3D 2.0, честичките се цртаат со помош на шејдер за геометрија што создава четири темиња од секоја точка за да ја формира честичката. Но, тестот најмногу ги вчитува блоковите на засенчување со пресметки на темето, исто така се тестира и преносот надвор.

Во вториот „геометриски“ тест од 3DMark Vantage, ситуацијата сериозно се промени, овојпат сите Geforces веќе покажуваат горе-долу нормален резултат, иако Radeon со двојни чипови и понатаму останува во водство. Новиот GTX Titan X модел е 24% побрз од неговата сестринска GTX 980 и приближно исто време зад двојниот графички процесор Titan Z на претходната генерација на графичкиот процесор.

Споредбата на новитетот на Nvidia со конкурентните видео картички од AMD овојпат е попозитивна - го покажа резултатот помеѓу две табли од конкурентската компанија и се покажа дека е поблиску до Radeon R9 295X2, кој има два графички процесори. Новитетот е далеку пред Radeon R9 290X и ова јасно ни покажува колку различни можат да бидат два наизглед слични теста: симулација на ткаенина и симулација на систем на честички.

Тест на карактеристика 6: Перлин шум

Последниот тест за карактеристики на пакетот Vantage е математички интензивен тест на видео чипот, тој пресметува неколку октави од алгоритмот за шум на Perlin во шејдерот на пиксели. Секој канал во боја користи своја функција за шум за да го зголеми оптоварувањето на видео чипот. Перлин шумот е стандарден алгоритам кој често се користи во процедуралната текстура, користи многу математички пресметки.

Во овој случај, изведбата на решенијата не се совпаѓа сосема со теоријата, иако е блиску до она што го видовме во слични тестови. Во математичкиот тест од пакетот Futuremark, кој ја покажува врвната изведба на видео чиповите во граничните задачи, гледаме различна распределба на резултатите во споредба со слични тестови од нашиот тест пакет.

Одамна знаеме дека AMD видео чиповите со GCN архитектура сè уште подобро се справуваат со ваквите задачи од решенијата на конкурентите, особено во случаите кога се изведува интензивна „математика“. Но, новиот врвен модел на Nvidia се заснова на големиот чип GM200, па така Geforce GTX Titan X се покажа значително подобро од Radeon R9 290X на овој тест.

Ако го споредиме новиот производ со најдобриот модел од семејството Geforce GTX 900, тогаш во овој тест разликата меѓу нив беше речиси 40% - во корист на видео картичката што ја разгледуваме денес, се разбира. Ова е исто така блиску до теоретската разлика. Не е лош резултат за Titan X, само Radeon R9 295X2 со двоен чип беше напред, и многу понапред.

Direct3D 11: Пресметајте засенчувачи

За да го тестираме неодамна објавеното врвно решение на Nvidia за задачи кои користат функции на DirectX 11, како што се теселирање и пресметување шејдери, користевме примери и демо SDK од Microsoft, Nvidia и AMD.

Прво, ќе ги разгледаме реперите што користат Compute shaders. Нивниот изглед е една од најважните иновации во најновите верзии на DX API, тие веќе се користат во современите игри за извршување на различни задачи: пост-обработка, симулации итн. Првиот тест покажува пример за рендерирање HDR со мапирање тонови од DirectX SDK, со пост-обработка , која користи пиксели и пресметува шејдери.

Брзината на пресметување во шејдерите за пресметување и пиксели за сите табли AMD и Nvidia е приближно иста, разликите беа забележани само за видео картички засновани на графички процесори од претходните архитектури. Судејќи според нашите претходни тестови, резултатите во проблемот често зависат не толку од математичката моќ и пресметковната ефикасност, туку од други фактори, како што е пропусниот опсег на меморијата.

Во овој случај, новата врвна графичка картичка е побрза од верзиите со еден чип Geforce GTX 980 и Radeon R9 290X, но зад двојниот чип R9 295X2, што е разбирливо, бидејќи има моќ на пар R9 290X. Ако го споредиме новиот производ со Geforce GTX 980, тогаш матичната плоча на калифорниската компанија која се разгледува денес е 34-36% побрза - токму според теоријата.

Вториот компјутерски тест за шејдер е исто така преземен од Microsoft DirectX SDK и покажува пресметковен проблем со гравитацијата N-тело (N-тело), ​​симулација на динамичен систем на честички кој е подложен на физички сили како што е гравитацијата.

Во овој тест најчесто се става акцент на брзината на извршување на сложените математички пресметки, обработката на геометријата и ефикасноста на извршување на кодот со разгранување. И во овој тест DX11, усогласувањето на силите помеѓу решенијата на две различни компании се покажа како сосема поинакво - јасно во корист на видео картичките Geforce.

Сепак, резултатите од пар решенија на Nvidia базирани на различни чипови се исто така чудни - Geforce GTX Titan X и GTX 980 се речиси еднакви, тие се разделени со само 5% разлика во перформансите. Рендерирањето со двоен чип не работи во оваа задача, така што ривалите (моделите Radeon со еден чип и двочип) се приближно еднакви по брзина. Па, GTX Titan X е три пати пред нив. Се чини дека оваа задача е многу поефикасно пресметана на графичките процесори од архитектурата Максвел, што го забележавме претходно.

Direct3D 11: Изведба на Tessellation

Пресметувачките шејдери се многу важни, но уште една голема нова карактеристика во Direct3D 11 е хардверското поврзување. Го разгледавме детално во нашата теоретска статија за Nvidia GF100. Tessellation долго време се користи во игрите на DX11, како што се STALKER: Call of Pripyat, DiRT 2, Aliens vs Predator, Metro Last Light, Civilization V, Crysis 3, Battlefield 3 и други. Некои од нив користат tessellation за модели на карактери, други за да симулираат реална водена површина или пејзаж.

Постојат неколку различни шеми за партиционирање на графички примитиви (tessellation). На пример, фонг теселација, PN триаголници, поддивизија Catmull-Clark. Значи, шемата за поставување плочки PN Triangles се користи во STALKER: Call of Pripyat и во Metro 2033 - Phong tessellation. Овие методи се релативно брзи и лесни за имплементација во процесот на развој на играта и постоечките мотори, поради што станаа популарни.

Првиот тест за теселација ќе биде примерот за Detail Tessellation од ATI Radeon SDK. Имплементира не само теселација, туку и две различни техники за обработка на пиксел по пиксел: едноставно преклопување на нормални мапи и мапирање на оклузија на паралакса. Па, ајде да ги споредиме решенијата DX11 од AMD и Nvidia во различни услови:

Во едноставниот тест за копирање, брзината на таблите не е многу важна, бидејќи оваа задача стана премногу лесна долго време, а перформансите во неа зависат од пропусниот опсег на меморијата или брзината на полнење. Денешниот херој на прегледот е 23% пред претходниот врвен модел Geforce GTX 980 базиран на чипот GM204 и малку инфериорен во однос на неговиот конкурент во форма на Radeon R9 290X. Верзијата со двоен чип е уште малку побрза.

Во вториот поттест со посложени пресметки пиксел по пиксел, новиот производ е веќе 34% побрз од Geforce GTX 980, што е поблиску до теоретската разлика меѓу нив. Но, Titan X овој пат е веќе малку побрз од условен конкурент со еден чип базиран на еден Хаваи. Бидејќи двата чипови во Radeon R9 295X2 работат совршено, оваа задача се завршува уште побрзо на него. Иако перформансите на математичките пресметки во шејдерите на пиксели се повисоки за чиповите за архитектура GCN, објавувањето на решенијата за архитектура на Maxwell ги подобри позициите на решенијата на Nvidia.

Во поттестот за лесна структура, неодамна објавената плочка на Nvidia повторно е само една четвртина побрза од Geforce GTX 980 - можеби брзината е ограничена од пропусниот опсег на меморијата, бидејќи текстурата во овој тест нема речиси никаков ефект. Ако го споредиме новиот производ со таблите на AMD во овој поттест, тогаш плочката Nvidia е повторно инфериорна во однос на двата Radeon, бидејќи во овој тест за теселација разделувањето на триаголникот е многу умерено и геометриските перформанси не ја ограничуваат вкупната брзина на прикажување.

Вториот тест за изведба на tessellation ќе биде уште еден пример за 3D развивачите од ATI Radeon SDK - PN Triangles. Всушност, и двата примера се вклучени во DX SDK, така што сме сигурни дека развивачите на игри создаваат сопствен код врз основа на нив. Го тестиравме овој пример со различен фактор на изработка за да видиме колку тоа влијае на вкупните перформанси.

Во овој тест се користи посложена геометрија, затоа, споредбата на геометриската моќ на различни решенија носи различни заклучоци. Современите решенија претставени во материјалот доста добро се справуваат со лесни и средни геометриски оптоварувања, покажувајќи голема брзина. Но, додека еден и два графички процесори на Хаваи во Radeon R9 290X и R9 295X2 работат добро во услови на светлина, таблите на Nvidia излегуваат на врвот во тешките услови. Така, во најтешките режими, Geforce GTX Titan X претставен денес ја покажува брзината веќе значително подобра од Radeon со двоен чип.

Што се однесува до споредбата на плочите Nvidia базирани на чипови GM200 и GM204, моделот Geforce GTX Titan X што се разгледува денес ја зголемува својата предност со зголемување на геометриското оптоварување, бидејќи во режимот на светлина сè зависи од пропусниот опсег на меморијата. Како резултат на тоа, новиот производ е пред плочката Geforce GTX 980, во зависност од сложеноста на режимот, до 31%.

Ајде да ги погледнеме резултатите од уште еден тест, демо-програмата Nvidia Realistic Water Terrain, позната и како остров. Оваа демонстрација користи мапирање на теселација и поместување за да прикаже реална површина и терен на океанот.

Тестот на островот не е чисто синтетички тест за мерење на чисто геометриски перформанси на графичкиот процесор, бидејќи содржи и сложени пиксели и пресметувачки шејдери, а таквото оптоварување е поблиску до вистинските игри кои ги користат сите единици на графичкиот процесор, а не само геометриските, како во претходните тестови за геометрија. Иако оптоварувањето на единиците за обработка на геометрија сè уште останува главното, на пример, истиот мемориски пропусен опсег исто така може да влијае.

Ги тестираме сите видео картички со четири различни фактори на теселација - во овој случај, поставката се нарекува Dynamic Tessellation LOD. Со првиот фактор на разделување на триаголникот, брзината не е ограничена со перформансите на геометриските блокови, а видео картичките Radeon покажуваат прилично висок резултат, особено R9 295X2 со два чипови, кој дури го надминува резултатот од најавената Geforce GTX Titan X плоча , но веќе на следните геометриски нивоа на оптоварување, перформансите на картичките Radeon се намалуваат, а решенијата Nvidia го преземаат водството.

Предноста на новата табла Nvidia базирана на видео чипот GM200 во однос на нејзините ривали во вакви тестови е веќе сосема пристојна, па дури и повеќекратна. Ако го споредиме Geforce GTX Titan X со GTX 980, тогаш разликата помеѓу нивните перформанси достигнува 37-42%, што е совршено објаснето со теоријата и точно одговара на тоа. Максвел графичките процесори се значително поефикасни при мешани оптоварувања, брзо се префрлаат од графички на компјутерски и повторно назад, а Titan X е многу побрз дури и од Radeon R9 295X2 со двоен чип во овој тест.

По анализата на резултатите од синтетичките тестови на новата видео картичка Nvidia Geforce GTX Titan X врз основа на новиот врвен графички процесор GM200, како и земајќи ги предвид резултатите од другите модели на видео картички од двата производители на дискретни видео чипови, можеме да заклучиме дека видео картичката што ја разгледуваме денес треба да биде најбрзата на пазарот, да се натпреварува со најсилната графичка картичка со двоен чип од AMD. Во принцип, ова е добар следбеник на Geforce GTX Titan Black - моќен еден чип.

Новата графичка картичка од Nvidia покажува прилично силни резултати во синтетиката - на многу тестови, иако не на сите. Radeon и Geforce традиционално имаат различни силни страни. Во голем број тестови, двата графички процесори во моделот Radeon R9 295X2 беа побрзи, вклучително и поради поголемата вкупна пропусност на меморијата и брзината на текстура со многу ефикасно извршување на пресметковните задачи. Но, во други случаи, врвниот графички процесор на архитектурата Максвел повторно победува, особено во геометриските тестови и примерите на теселирање.

Сепак, во апликациите за реални игри, сè ќе биде малку поинаку, во споредба со „синтетика“ и Geforce GTX Titan X треба да покаже брзина значително поголема од нивото на Geforce GTX 980 со еден чип, а уште повеќе од Radeon R9 290X . И тешко е да се спореди новитетот со двојниот чип Radeon R9 295X2 - системите базирани на два или повеќе графички процесори имаат свои непријатни карактеристики, иако обезбедуваат зголемување на просечната стапка на слики со соодветна оптимизација.

Но, архитектонските карактеристики и функционалноста очигледно се во корист на премиум решението на Nvidia. Geforce GTX Titan X троши многу помалку енергија од истиот Radeon R9 295X2, а во однос на енергетската ефикасност, новиот модел на Nvidia е многу силен - ова е карактеристична карактеристика на архитектурата на Maxwell. Не треба да заборавиме на поголемата функционалност на новиот производ на Nvidia: има поддршка за Ниво на карактеристики 12.1 во DirectX 12, забрзување на хардверот VXGI, нов метод MFAA против алијасирање и други технологии. Веќе зборувавме за пазарната гледна точка во првиот дел - во елитниот сегмент, не зависи толку многу од цената. Главната работа е дека решението треба да биде што е можно пофункционално и продуктивно во апликациите за игри. Едноставно кажано, беше најдобар во се.

Само со цел да се оцени брзината на новитетот во игрите, во следниот дел од нашиот материјал ќе ги одредиме перформансите на Geforce GTX Titan X во нашиот сет на гејмерски проекти и ќе ги споредиме со перформансите на конкурентите, вклучително и оценка на оправданоста на малопродажната цена на новитетот од гледна точка на ентузијастите, а исто така дознајте колку е побрз Geforce GTX 980 веќе во игрите.

Asus ProArt PA249Q монитор за работен компјутер обезбеден од компанијата Аустек Cougar 700K тастатура за работен компјутер обезбедена од компанијата Пума

Појавата на голем графички процесор базиран на архитектурата Максвел беше неизбежна, прашање е само кога и во каква форма. Како резултат на тоа, беше оправдана претпоставката дека GM200 ќе го повтори патот на својот колега од семејството Кеплер, GK110, дебитирајќи како дел од акцелератор под брендот TITAN.

NVIDIA GeForce GTX TITAN X

Овој пат имаше многу малку време за тестирање на новата видео картичка, така што прегледот ќе биде компресиран. Отфрлајќи ги непотребните аргументи, да преминеме директно на поентата. Архитектурата Максвел, во споредба со Кеплер, се карактеризира со поедноставена и оптимизирана структура на стриминг мултипроцесори (SMM), што овозможи радикално да се намали SMM областа, додека се одржуваат 90% од претходните перформанси. Покрај тоа, GM200 припаѓа на втората итерација на архитектурата Максвел, како и претходно објавените чипови GM204 (GeForce GTX 970/980) и GM206 (GeForce GTX 960). Како резултат на тоа, има попродуктивен мотор со геометрија PolyMorph Engine верзија 3.0 и поддржува некои компјутерски функции на хардверско ниво, кои најверојатно ќе бидат вклучени во новото ниво на функции Direct3D 12, а исто така се неопходни за хардверско забрзување на глобалниот VXGI на NVIDIA технологија на осветлување. За подетален опис на архитектурата на првата и втората генерација на Maxwell, читателите ги упатуваме на прегледите на GeForce GTX 750 Ti и GeForce GTX 980.

Блок дијаграм на графичкиот процесор NVIDIA GM200

Квалитативно, графичкиот процесор GM200 и графичките процесори од долниот дел во линијата не се разликуваат еден од друг, освен што само GM206 има посветена единица за декодирање видео H.265 (HEVC). Разликите се чисто квантитативни. GM200 вклучува невиден број на транзистори - 8 милијарди, така што во него има еден и пол до два пати повеќе компјутерски единици отколку во GM204 (во зависност од тоа кои да се бројат). Покрај тоа, 384-битната мемориска магистрала се врати во функција. Во споредба со чипот GK110, новиот предводник на графичкиот процесор не е толку застрашувачки моќен, но, на пример, бројот на ROP-и овде е двојно, што го прави GM200 добро подготвен за 4K резолуција.

Во однос на поддршката за пресметки со двојна прецизност, GM200 не се разликува од GM204. Секој SMX содржи само четири CUDA јадра компатибилни со FP64, така што комбинираните перформанси под ова оптоварување се 1/32 од FP32.

⇡ Спецификации, цена

TITAN X ја користи најмоќната верзија на јадрото GM200 со целосен сет на активни компјутерски единици. Основната фреквенција на графичкиот процесор е 1000 MHz, Boost Clock е 1076 MHz. Меморијата работи на стандардна фреквенција за производи базирани на Maxwell од 7012 MHz. Но, обемот е без преседан за видео картички за игри - 12 GB (и TITAN X е првенствено видео картичка за игри, барем додека GM200 не се појави во главната, „нумерирана“ линија GeForce).

Предложените малопродажни цени за TITAN X беа објавени во последните часови пред објавувањето на прегледот. За американскиот пазар цената е поставена на 999 долари - исто како и првиот TITAN базиран на GK110.

Забелешка:цените во табелата за GeForce GTX 780 Ti и TITAN Black се во моментот кога вторите беа прекинати.

Модел

GPU

видео меморија

ТДП, В

RRP* за американскиот пазар (без даноци), $

кодно име

Број на транзистори, милиони

Фреквенција на часовник, MHz: основен часовник / часовник за засилување

Број на CUDA јадра

Број на текстурни единици

Ширина на автобусот, бит

Тип на чип

Фреквенција на часовник: реална (ефективна), MHz

Волумен, MB

GeForce GTX 780 Ti

GeForce GTX TITAN Црно

GeForce GTX 980

GeForce GTX TITAN X

⇡ Градежништво

Од првиот „Титан“, NVIDIA го користи истиот систем за ладење во видео картичките од врвната класа, со некои варијации. TITAN X се издвојува меѓу своите претходници само со апсолутно црно тело (само две влошки од страните останаа необоени).

NVIDIA GeForce GTX TITAN X

Задната плоча, која беше експериментално опремена со GeForce GTX 980, повторно ја нема во TITAN X и покрај тоа што дел од мемориските чипови се залемени на задниот дел од плочата. Иако GDDR5 чиповите не бараат дополнително ладење, воопшто.

NVIDIA GeForce GTX TITAN X заден поглед

Но, се врати ладилникот со комората за пареа, кој во GTX 980 беше заменет со поедноставна опција.

NVIDIA GeForce GTX TITAN X, систем за ладење

NVIDIA GeForce GTX TITAN X, систем за ладење

NVIDIA GeForce GTX TITAN X, систем за ладење

Видео картичката има три DisplayPort конектори и по еден - HDMI и Dual-Link DVI-I.

⇡ Надомест

Дизајнот на печатеното коло, што не е изненадувачки, предизвикува асоцијации со серија видео адаптери базирани на чипот GK110. Конверторот на напон е изграден според шемата 6 + 2 (бројот на фази за напојување на графичкиот процесор и мемориските чипови, соодветно). Напојувањето се снабдува преку еден 8-пински и еден 6-пински конектор. Но, овде за прв пат го гледаме ON Semiconductor NCP81174 GPU контролерот за напојување.

На двете страни на плочата се наоѓаат 24 мемориски чипови SK hynix H5GQ4H24MFR-R2C со номинална фреквенција од 7 GHz.

NVIDIA GeForce GTX TITAN X, печатено коло, предна страна

NVIDIA GeForce GTX TITAN X, печатено коло, задна страна

Тест штанд, методологија на тестирање

Технологиите на процесорот за заштеда на енергија се оневозможени при сите тестови. Во поставките на двигателот на NVIDIA, процесорот е избран како процесор за пресметка на PhysX. Во двигателите на AMD, поставката Tesselation е преместена од AMD Optimized во поставките за користење на апликацијата.

Репери: синтетички
Програма Поставки Дозвола
3D Mark 2011 година Екстремни тестови - -
3DMark Тест за удар со пожар (не е екстремен) - -
Unigine Heaven 4 DirectX 11 макс. квалитет, теселација во Extreme режим AF 16x, MSAA 4x 1920×1080 / 2560×1440
Репери: игри
Програма Поставки Анизотропно филтрирање, анти-алиасирање на цел екран Дозвола
Far Cry 3 + FRAPS DirectX 11 макс. квалитет, HDAO. Почеток на мисијата Secure the Outpost AF, MSAA 4x 2560×1440/3840×2160
Томб Рајдер. Вграден репер Макс. квалитет AF 16x, SSAA 4x 2560×1440/3840×2160
Bioshock Infinite. Вграден репер Макс. квалитет. Постобработка: Нормално AF 16x, FXAA 2560×1440/3840×2160
Crysis 3 + FRAPS Макс. квалитет. Почеток на мисијата Post Human AF 16x, MSAA 4x 2560×1440/3840×2160
Метро: Последно светло. Вграден репер Макс. квалитет AF 16x, SSAA 4x 2560×1440/3840×2160
Компанија на херои 2. Вграден репер Макс. квалитет AF, SSAA 4x 2560×1440/3840×2160
Бојното поле 4 + FRAPS Макс. квалитет. Почеток на мисијата Ташгар AF 16x, MSAA 4x + FXAA 2560×1440/3840×2160
Крадец. Вграден репер Макс. квалитет AF 16x, SSAA 4x + FXAA 2560×1440/3840×2160
Вонземјанин: Изолација Макс. квалитет AF 16x, SMAA T2X 2560×1440/3840×2160

Учесниците на тестот

Следниве видео картички учествуваа во тестирањето на перформансите:

  • NVIDIA GeForce GTX TITAN X (1000/7012 MHz, 12 GB);

⇡ Брзини на часовникот, потрошувачка на енергија, температура, оверклокување

GM110 работи со основна фреквенција што GK110 никогаш не ја достигнал во референтните спецификации. Покрај тоа, GPU Boost делува многу агресивно, зголемувајќи ја фреквенцијата до 1177 MHz. Во исто време, процесорот е задоволен со напон од 1,174 V, што е помал во однос на врвните производи базирани на GK110.

Поставките на BIOS-от ви овозможуваат да го зголемите ограничувањето на моќноста на 110% и да додадете 83 mV на максималниот напон на графичкиот процесор. Всушност, напонот се зголемува само до 1,23 V, но во исто време се отвораат неколку дополнителни фреквентни чекори / VID: разликата помеѓу основната фреквенција и максималната фреквенција регистрирана во звучникот се зголемува на 203 MHz.

Оверклокувањето на видео картичката овозможи да се достигне основната фреквенција од 1252 MHz, а фреквенциите до 1455 MHz беа забележани во динамика. Видео меморијата можеше да додаде 1,2 GHz, успешно работејќи на ефективна фреквенција од 8212 MHz.

Основен часовник, MHz Макс. Зголемете го часовникот, MHz Основен часовник, MHz (оверклокување) Макс. регистриран Boost Clock, MHz (оверклокување)
GeForce GTX TITAN X 1000 1177 (+177) 1252 1455 (+203)
GeForce GTX 980 1127 1253 (+126) 1387 1526 (+139)
GeForce GTX TITAN Црно 889 1032 (+143) 1100 1262 (+162)
GeForce GTX TITAN 836 1006 (+145) 966 1150 (+184)
GeForce GTX 780 Ti 876 1020 (+144) 986 1130 (+144)
GeForce GTX 780 863 1006 (+143) 1053 1215 (+162)
GeForce GTX 770 1046 1176 (+130) 1190 1333 (+143)

Во однос на потрошувачката на енергија, TITAN X е блиску до GTX 780 Ti и далеку го надминува GTX 980. Спротивно на очекувањата, во Crysis 3 нема значајна разлика помеѓу TITAN X и Radeon R9 290X, но во FurMark R9 290X (како R9 280X) се загрева повеќе и забележително го надминува TITAN x.

Оверклокувањето на TITAN X ја зголемува моќноста за 5-25 вати во зависност од тоа дали се потпирате на резултатите од кој тест - FurMark или Crysis 3.

Максималната температура што е дозволена за графичкиот процесор се одредува со поставките на BIOS-от, така што TITAN X не оди подалеку од поставените 83 ° C. Во исто време, турбината на системот за ладење се врти со 49% од максималната брзина - до 2339 вртежи во минута. На прв поглед, ова е доста, но всушност, бучавата од ладилникот е сосема прифатлива.

⇡ Перформанси: синтетички одредници

  • TITAN X импресионира уште од првиот тест. Во споредба со GTX 780 Ti и Radeon R9 290X, графичката картичка е еден и пол пати побрза.
  • Со Radeon R9 280X и GeForce GTX 770 - адаптери базирани на некогаш врвните графички процесори - разликата е повеќе од двојна.

  • Сето горенаведено важи и за 3DMark 2013 година.

Unigine Heaven 4

  • TITAN X одржува водство од околу 50% во однос на GTX 780 Ti и Radeon R9 290X со WQHD резолуција. Патем, за разлика од 3DMark, GTX 980 не е подобар од GTX 780 Ti во овој тест.
  • Со Ultra HD резолуција, претходните графички адаптери ја затворија празнината, а сепак TITAN X е со глава и раменици над сите ривали.

⇡ Изведба: игри

Овој пат ќе отстапиме од стандардната форма на опишување на тестови за игри. Сосема е бесмислено да се слика за секоја игра која видео картичка е побрза, во случајот со TITAN X. Во сите натпревари, новиот „Титан“ е пред своите ривали со колосална разлика. Квантитативните индикатори се склони кон формулата: TITAN X е 30-50% побрз од GeForce GTX 780 Ti и Radeon R9 290X, и честопати двојно побрз во споредба со Radeon R9 280X и GeForce GTX 770. Единствената интрига е да барате флуктуации во рамките на овој коридор во таа или другата страна. Покрај тоа, постои единствен случај: TITAN X ужива брзина на слики од 24 FPS во Far Cry 4 со Ultra HD резолуција и MSAA 4x, додека ривалите не можат да излезат од дупката од 5-7 FPS (и GeForce GTX 770 и уште помалку). Овде, очигледно, на Титан му требаа 12 GB меморија, а дури и 4 GB, со кои е опремен Radeon R9 290X, не се доволни за такви поставки во FC4.

напаѓач на гробници

Bioshock Infinite

Криза 3

⇡ Перформанси: Пресметување

Декодирање на видео (DXVA Checker, Decode Benchmark)

  • Наменскиот декодер H.264 во GM200 е ист како и кај другите чипови од семејството Максвел. Неговите перформанси се повеќе од доволни за репродукција на видеа со резолуција до Ultra HD и стапка на слики од 60 Hz и повисоки.
  • Меѓу дискретните AMD видео адаптери, само Radeon R9 285 може да се пофали со ова. GeForce GTX 780 Ti е способен да испорача до 35 FPS со резолуција од 3840 × 2160.
  • Процесорите со 6-8 x86 јадра се подобро прилагодени за брзо декодирање за видео конверзија, но блокот за фиксна функционалност ја прави оваа работа со помала потрошувачка на енергија и, конечно, едноставно му се дава на моќниот графички процесор.

  • Единствениот графички процесор со целосно хардверско декодирање H.265 е GM206 во GeForce GTX 960. Други претставници на архитектурата Максвел, како и Кеплер, вршат некои од операциите на гасоводот за декодер H.264. Остатокот паѓа на централниот процесор.
  • Перформансите на сите овие адаптери со добар процесор се доволни за репродукција на видео со која било разумна резолуција и стапка на слики. За работа со брзина, подобро одговара GTX 960 или моќен процесор.

Луксмарк: соба (комплексен репер)

  • Архитектурата на Максвел покажува изненадувачко зголемување на перформансите во однос на Кеплер во оваа задача, со што TITAN X го удвои скромниот резултат на GeForce GTX 780 Ti и го надминува Radeon R9 290X. Сепак, ова не значи дека резултатите од LuxMark се репрезентативни за која било задача за следење зраци.
  • Разликата помеѓу TITAN X и GeForce GTX 980 не е толку огромна како кај тестовите за игри.

Sony Vegas Pro 13

  • AMD видео адаптерите продолжуваат да го предводат патот во рендерирање видео. И TITAN X не се издвојува во групата на најпродуктивни уреди NVIDIA.

CompuBench CL: Симулација на океанска површина

  • TITAN X ја одзема дланката од Radeon R9 290X и компензира за неуспехот на GeForce GTX 980, што е изненадувачки тешко во овој тест.

CompuBench CL: Симулација на честички

  • Овде, за разлика од тоа, GTX 980 направи голем чекор напред од GTX 780 Ti, а TITAN X се изгради на успехот. Radeon R9 290X не се совпаѓа со водечкиот модел на NVIDIA.

SiSoftware Sandra 2015: Научна анализа

  • Во однос на двојната прецизност (FP64), акцелераторите на AMD сè уште се неспоредливи, па дури и Radeon R9 280X базиран на далеку од нов графички процесор може да го надмине TITAN X.
  • Меѓу „зелените“ TITAN X очекувано води во перформансите во FP64, особено во споредба со искрено слабиот GTX 980.
  • Во компјутерите FP32, TITAN X остро се издвојува од сите графички картички NVIDIA. Само тој обезбедува ниво на перформанси споредливо со она на Radeon R9 290X.

⇡ Заклучоци

Имајќи предвид дека производството на дискретни графички процесори сè уште е во рамките на процесот од 28 nm, резултатите од GeForce GTX TITAN X изгледаат фантастично. Со истиот TDP како и графичките адаптери базирани на GK110, TITAN X постигнува 130-150% од перформансите на акцелераторите како што се GTX 780 Ti и Radeon R9 290X. Ако ги земеме првите графички процесори од 28 nm - GK104 (GTX 680, GTX 770) и Radeon R9 280X, тогаш TITAN X честопати ги надминува двапати.

TITAN X, како и неговите претходници на оваа позиција, е екстремно скап за една графичка картичка GPU. Позиционирањето не е променето од претходните Титани. Прво, ова е алтернатива на SLI конфигурациите на две дискретни GeForce GTX 980: иако потенцијалните перформанси на тандемот се повисоки, еден графички процесор има попредвидливи перформанси. Второ, компактни компјутери во кои нема место за две видео картички. И конечно, неграфско пресметување (GP-GPU). Иако перформансите на FP64 во GM200 се ограничени на 1/32 од оние на FP32, TITAN X делумно го компензира ова ограничување со брутална сила на графичкиот процесор. Покрај тоа, FP32 компјутерите доминираат во "произведувач"оптоварување (истото Ray Tracing, забрзано прикажување видео) и во оваа дисциплина, GM200 е барем исто толку добар како и најдобрите производи на AMD и честопати ги надминува истите перформанси како кај тестовите за игри.

Воведување на основниот детален материјал со студијата Nvidia Geforce GTX Titan X.

Предмет на проучување: 3D графички акцелератор (видео картичка) Nvidia Geforce GTX Titan X 12288 MB 384-битен GDDR5 PCI-E

Детали за програмери: Nvidia Corporation (заштитна марка Nvidia) е основана во 1993 година во САД. Седиште во Санта Клара (Калифорнија). Развива графички процесори, технологии. До 1999 година, главен бренд беше Riva (Riva 128/TNT/TNT2), од 1999 година до денес - Geforce. Во 2000 година, средствата на 3dfx Interactive беа купени, по што трговските марки 3dfx / Voodoo беа префрлени на Nvidia. Нема производство. Вкупниот број на вработени (вклучувајќи ги и подрачните канцеларии) е околу 5.000 луѓе.

Дел 1: Теорија и архитектура

Како што веќе знаете, во средината на минатиот месец, Nvidia објави нова врвна видео картичка наречена Geforce GTX Titan X, која стана најмоќната на пазарот. Веднаш објавивме детален преглед на овој нов производ, но тој содржеше само практични студии, без теоретски дел и синтетички тестови. Ова се случи поради различни околности, вклучително и оние кои се надвор од наша контрола. Но, денес го коригираме овој дефект и внимателно ќе ја разгледаме мартовската новина - ништо не се случи за еден месец за да ја изгуби својата важност.

Во 2013 година, Nvidia го објави првото решение на новиот бренд на видео картички Geforce GTX Titan, именуван по суперкомпјутер во Националната лабораторија Oak Ridge. Првиот модел од новата линија постави нови рекорди и по перформанси и по цена, со MSRP од 999 долари за американскиот пазар. Тоа беше првата висококвалитетна графичка картичка од серијата Titan, која потоа продолжи со не толку популарниот дво-чип Titan Z и забрзаниот Titan Black, кој доби целосно отклучен GK110 ревизија B GPU.

И сега, во пролетта 2015 година, време е за уште еден новитет на Nvidia од премиум серијата „титаниум“. GTX Titan X првпат беше откриен од претседателот на компанијата Џенсен Хуанг на конференцијата за развивачи на игри GDC 2015 на настанот Epic Unreal Engine. Всушност, оваа видео картичка и онака невидливо учествуваше во шоуто, инсталирана на многу демо штандови, но Јенсен ја претстави официјално.

Пред објавувањето на Geforce GTX Titan X, најбрзата видео картичка со еден чип беше Geforce GTX 980, базирана на чипот GM204 од истата графичка архитектура Maxwell, претставен минатиот септември. Овој модел е многу енергетски ефикасен, испорачува пристојна процесорска моќ додека троши само 165 W моќност - односно, енергетски е двојно поефикасен од претходната генерација на Geforce.

Во исто време, Maxwell графичките процесори го поддржуваат претстојниот DirectX 12 (вклучувајќи го и нивото на карактеристики 12.1) и други најнови графички технологии од компанијата: Nvidia Voxel Global Illumination (VXGI, пишувавме за тоа во статијата GTX 980), нова мулти-рамка метод за анти-алиасирање на примерок AA (MFAA), динамична супер резолуција (DSR) и повеќе Комбинацијата на перформанси, енергетска ефикасност и карактеристики го направија GM204 чипот најдобар напреден графички процесор во моментот на неговото објавување.

Но, сè некогаш се менува, а графичкиот процесор со 2048 јадра и 128 единици на текстура беше заменет со нов графички процесор базиран на истата архитектура на Maxwell од втора генерација (првиот го паметиме од чипот GM107 на кој се наоѓа видео картичката Geforce GTX 750 Ti базирани) и истите тие способности, но со 3072 CUDA јадра и 192 единици на текстура - сето ова е веќе спакувано во 8 милијарди транзистори. Се разбира, Geforce GTX Titan X веднаш стана најмоќното решение.

Всушност, врвниот чип од втората генерација на Maxwell, кој сега го знаеме под кодното име GM200, беше готов во Nvidia некое време пред неговото објавување. Едноставно немаше многу смисла да се издаде уште една врвна графичка картичка кога дури и Geforce GTX 980 базиран на GM204 направи одлична работа да биде најбрзата графичка картичка со еден чип во светот. Nvidia чекаше некое време за помоќно решение од AMD базирано на графичкиот процесор, произведено на истата процесна технологија од 28 nm, но не чекаше.

Многу е веројатно дека производот воопшто не би се закисел во отсуство на вистинска конкуренција, тие сепак решиле да го пуштат, обезбедувајќи ја титулата на компанијата која ги произведува најмоќните графички процесори. И навистина, немаше смисла да се чека одлуката на противникот, бидејќи таа беше одложена барем до јуни - едноставно е неисплатливо да се чека толку долго. Па, во тој случај, секогаш можете да ослободите уште помоќна видео картичка базирана на истиот графички процесор, но работи на поголема фреквенција.

Но, зошто ни се потребни толку моќни решенија во ерата на игри со повеќе платформи со прилично просечни барања за енергија на графичкиот процесор? Прво, првите апликации за игри кои ги користат можностите на DirectX 12, дури и ако се мултиплатформски, треба да се појават многу наскоро - на крајот на краиштата, верзиите за компјутер на таквите апликации скоро секогаш нудат подобра графика, дополнителни ефекти и текстури со повисока резолуција. Второ, игрите DirectX 11 се веќе објавени кои можат да ги користат сите можности на најмоќните графички процесори - како Grand Theft Auto V, за што ќе разговараме подетално подолу.

Важно е Maxwell графичките решенија на Nvidia целосно да го поддржуваат таканареченото ниво на функции 12.1 од DirectX 12 - највисокото познато во моментот. Nvidia долго време им обезбедува на развивачите на игри двигатели за претстојната верзија на DirectX, а сега тие се достапни за корисниците кои го инсталирале техничкиот преглед на Microsoft Windows 10. Не е изненадувачки, видео картичките Geforce GTX Titan X беа користени за да се демонстрираат можностите на DirectX 12 на Конференцијата за развивачи на игри, каде што за прв пат беше прикажан моделот.

Бидејќи разгледуваниот модел на видео картичката од Nvidia се заснова на врвниот графички процесор на архитектурата Максвел од втората генерација, кој веќе го разгледавме и кој е детално сличен на претходната архитектура на Кеплер, корисно е да се прочитаат претходните написи за видео картичките на компанијата пред да го прочитате овој материјал. Nvidia:

  • Nvidia Geforce GTX 970 - Добра замена за GTX 770
  • Nvidia Geforce GTX 980 - следбеник на Geforce GTX 680, надминувајќи ги дури и GTX 780 Ti
  • Nvidia Geforce GTX 750 Ti - Максвел започнува со мало... и покрај Максвел
  • Nvidia Geforce GTX 680 е новиот лидер со еден штекер во 3D графика

Значи, да ги погледнеме деталните спецификации на видео картичката Geforce GTX Titan X базирана на графичкиот процесор GM200.

Графички акцелератор Geforce GTX Titan X
ПараметарЗначење
Име на код на чипGM200
Технологија на производство28 nm
Број на транзисториоколу 8 милијарди
Основна областоколу 600 mm 2
АрхитектураУнифициран, со низа заеднички процесори за стрим обработка на бројни типови податоци: темиња, пиксели итн.
Поддршка за хардвер за DirectXDirectX 12, со поддршка за Ниво на функции 12.1
Мемориски автобус384-битни: Шест независни 64-битни мемориски контролери со поддршка за GDDR5 меморија
Фреквенција на графичкиот процесор1000 (1075) MHz
Компјутерски блокови24 стриминг мултипроцесори вклучувајќи 3072 скаларни ALU за пресметки со единечна и двојна прецизност на подвижна запирка (1/32 од стапката на FP32) во согласност со стандардот IEEE 754-2008;
Блокови за текстура192 единици за адресирање и филтрирање на текстурата со поддршка за FP16 и FP32 компоненти во текстури и поддршка за трилинеарно и анизотропно филтрирање за сите формати на текстура
Единици за растеризација (ROPs)6 широки ROPs (96 пиксели) со поддршка за различни режими против алиасирање, вклучително и програмабилни и со формат на бафер за рамки FP16 или FP32. Блоковите се состојат од низа на конфигурабилни ALU и се одговорни за генерирање и споредба на длабочина, повеќекратно земање примероци и мешање
Следете ја поддршкатаИнтегрирана поддршка за најмногу четири монитори поврзани преку Dual Link DVI, HDMI 2.0 и DisplayPort 1.2
Спецификации за референтна графичка картичка Geforce GTX Titan X
ПараметарЗначење
Основна фреквенција1000 (1075) MHz
Број на универзални процесори3072
Број на блокови со текстура192
Број на блокови за мешање96
Ефективна мемориска фреквенција7000 (4×1750) MHz
Тип на меморијаGDDR5
Мемориски автобус384-битни
Меморија12 GB
Пропусен опсег на меморија336,5 GB/s
Компјутерски перформанси (FP32)до 7 терафлопи
Теоретска максимална стапка на пополнување96 гигапиксели/с
Теоретска стапка на земање примероци на текстура192 гигаксели/с
ГумаPCI Express 3.0
КонекториЕден Dual Link DVI, еден HDMI 2.0 и три DisplayPort 1.2
Потрошувачка на енергијадо 250 W
Дополнителна хранаЕден 8-пински и еден 6-пински конектор
Број на слотови зафатени во системската шасија2
Препорачана цена999 $ (САД), 74990 RUB (Русија)

Новиот Geforce GTX Titan X модел доби име што ја продолжува линијата на премиум решенија на Nvidia за специфично позиционирање - тие едноставно ја додадоа буквата X. Новиот модел го замени Geforce GTX Titan Black моделот и е на самиот врв во компанијата тековната линија на производи. Над него остана само Geforce GTX Titan Z со два чипови (иако веќе не може да се споменува), а под него се моделите со еден чип GTX 980 и GTX 970. е најдоброто решение за перформанси на пазарот за еден чип видео картички.

Предметниот модел Nvidia се базира на чипот GM200, кој има 384-битна мемориска магистрала, а меморијата работи на 7 GHz, што дава врвна пропусност од 336,5 GB / s - еден и пол пати повеќе отколку во GTX 980. Ова е доста импресивна вредност, особено ако се потсетиме на новите методи за компресија на информации на чипот што се користат во втората генерација на Maxwell, кои помагаат да се користи расположивиот опсег на меморија многу поефикасно од графичкиот процесор на конкурентот.

Со овој мемориски автобус, количината на видео меморија инсталирана на видео картичката може да биде 6 или 12 GB, но во случајот со елитниот модел, беше донесена одлука да се инсталираат 12 GB за да се продолжи трендот поставен од првите модели на GTX Titan . Ова е повеќе од доволно за да се активираат какви било 3D апликации без да се земат предвид параметрите за квалитет - оваа количина на видео меморија е доволна за апсолутно секоја постоечка игра со која било резолуција на екранот и поставки за квалитет, што ја прави видео картичката Geforce GTX Titan X особено примамлива со поглед. кон иднината - сопственикот никогаш нема да остане без видео меморија.

Официјалната бројка за потрошувачка на енергија за Geforce GTX Titan X е 250 W - исто како и другите решенија со еден чип во елитната серија Titan. Интересно е тоа што 250 W е околу 50% повеќе од GTX 980, а бројот на главни функционални блокови исто така е зголемен за истиот износ. Прилично високата потрошувачка не носи никакви проблеми, референтниот ладилник врши одлична работа за трошење толкаво количество топлина, а ентузијастичките системи по GTX Titan и GTX 780 Ti одамна се подготвени за такво ниво на потрошувачка на енергија.

Архитектура

Моделот на видео картичката Geforce GTX Titan X се базира на новиот графички процесор GM200, кој ги вклучува сите архитектонски карактеристики на чипот GM204, така што сè што е кажано во статијата за GTX 980 целосно се однесува на премиум новиот производ - ве советуваме најпрво да го прочитате материјалот во кој токму архитектонските карактеристики на Максвел.

Графичкиот процесор GM200 може да се нарече екстремна верзија на GM204, можна во процесот на 28 nm. Новиот чип е поголем, многу побрз и бара повеќе енергија. Според Nvidia, „големиот Максвел“ вклучува 8 милијарди транзистори, кои покриваат површина од околу 600 mm 2 - односно, тој е најголемиот графички процесор на компанијата. „Големиот Максвел“ има 50% повеќе стрим процесори, 50% повеќе ROP и 50% повеќе пропусен опсег на меморија, поради што има речиси еден и пол пати поголема површина.

Архитектонски, видео чипот GM200 е целосно конзистентен со помладиот модел GM204, исто така се состои од GPC кластери, кои содржат неколку SM мултипроцесори. Врвниот графички процесор содржи шест GPC кластери, составени од 24 мултипроцесори, вкупно има 3072 CUDA јадра, а операциите со текстура (земање примероци и филтрирање) се вршат со користење на 192 единици на текстура. И со основна фреквенција од 1 GHz, перформансите на модулите за текстура се 192 гигаксели / сек, што е повеќе од една третина повисока од онаа на претходната најмоќна видео картичка од компанијата - Geforce GTX 980.

Втората генерација на Maxwell мултипроцесор е поделена на четири блока од 32 CUDA јадра (вкупно 128 јадра по SMM), од кои секое има свои ресурси за дистрибуција на команди, распоред на обработка и баферирање на протокот на инструкции. Поради фактот што секоја компјутерска единица има свои диспечерски единици, пресметковните јадра CUDA се користат поефикасно отколку во Kepler, што исто така ја намалува потрошувачката на енергија на графичкиот процесор. Самиот мултипроцесор не е променет во споредба со GM204:

За да се подобри ефикасноста на користењето на кешот во графичкиот процесор, направени се бројни промени во меморискиот потсистем. Секој од мултипроцесорите во GM200 има посветена заедничка меморија од 96 KB, а кешот на првото ниво и текстурата се комбинирани во блокови од 24 KB - два блока по мултипроцесор (вкупно 48 KB по SMM). Претходната генерација графички процесори на Kepler имаа само 64 KB заедничка меморија, која исто така дејствуваше како кеш на L1. Како резултат на сите промени, ефикасноста на Maxwell CUDA јадрата е околу 1,4 пати поголема отколку кај сличен Кеплер чип, а енергетската ефикасност на новите чипови е околу двојно поголема.

Во принцип, сè е подредено во графичкиот процесор GM200 на ист начин како и во чипот GM204 што го разгледавме во 2014 година. Тие не ги ни допреа јадрата што можат да вршат операции со подвижна запирка со двојна прецизност со брзина од само 1/32 од брзината на пресметките со една прецизност - исто како Geforce GTX 980. Се чини дека Nvidia препозна дека објавувањето на специјализирани решенија за професионалниот пазар (GK210) и за игри (GM200) е сосема оправдано.

Меморискиот потсистем на GM200 е зајакнат во споредба со GM204 - тој се заснова на шест 64-битни мемориски контролери, кои вкупно сочинуваат 384-битна магистрала. Мемориските чипови работат на ефективна фреквенција од 7 GHz, што дава врвна пропусност од 336,5 GB / s, што е еден и пол пати поголема од онаа на Geforce GTX 980. Не заборавајте за новите методи за компресија на податоци од Nvidia , кои ви овозможуваат да постигнете поголема ефективна пропусен опсег на меморија, во споредба со претходните производи - на истата 384-битна магистрала. Во нашиот преглед на Geforce GTX 980, внимателно ја разгледавме оваа иновација на втората генерација на Maxwell чипови, која им овозможува четвртина поефикасно користење на видео меморијата во споредба со Kepler.

Како и сите неодамнешни Geforce графички картички, моделот GTX Titan X има основна фреквенција - минимум за работа на графичкиот процесор во 3D режим, како и турбо фреквенција Boost Clock. Основната фреквенција за новитетот е 1000 MHz, а Boost Clock фреквенцијата е 1075 MHz. Како и досега, турбо фреквенцијата значи само просечна фреквенција на графичкиот процесор за одреден сет на апликации за игри и други 3D задачи што ги користи Nvidia, а вистинската фреквенција на работа може да биде поголема - зависи од оптоварувањето и условите на 3D (температура, моќност потрошувачка итн.)

Излегува дека фреквенцијата на графичкиот процесор на новиот производ е околу 10% повисока од онаа на GTX Titan Black, но пониска од онаа на GTX 980, бидејќи големите графички процесори секогаш треба да се тактираат со помала фреквенција (а GM200 е значително поголем по површина од GM204) . Затоа, вкупните 3D перформанси на новитетот ќе бидат околу 33% повисоки од оние на GTX 980, особено кога се споредуваат фреквенциите Turbo Boost.

Во сите други аспекти, чипот GM200 е потполно ист како GM204 - решенијата се идентични во нивните можности и поддржани технологии. Дури и модулите за работа со дисплеи и видео податоци беа оставени потполно исти како оние на GM204, на кои се базира моделот Geforce GTX 980. Според тоа, сè што напишавме за GTX 980 и GTX 970 целосно се однесува на Titan X .

Затоа, за сите други прашања за функционалните суптилностите на новитетот, можете да се повикате на прегледите на Geforce GTX 980 и GTX 750 Ti, во кои детално пишувавме за архитектурата на Maxwell, уредот за стриминг мултипроцесори (Streaming Multiprocessor - SMM) , организацијата на меморискиот потсистем и некои други архитектонски разлики. Можете исто така да ги проверите функциите како хардверска поддршка за забрзано пресметување на глобалното осветлување на VXGI, нови методи против алијасирање на цел екран и подобрени графички способности на DirectX 12 API.

Решавање проблеми со развојот на нови технички процеси

Можеме со сигурност да кажеме дека сите на пазарот на видео картички се уморни од технологијата за процесирање 28 nm долго време - ја набљудуваме веќе четврта година, и на почетокот TSMC воопшто не можеше да направи чекор напред, и тогаш се чинеше дека е можно да се започне со производство од 20 nm, но нема корист што не беше достапен за големи графички процесори - приносот на соодветните е прилично низок и не беа пронајдени никакви предности во споредба со потрошените 28 nm. Затоа, Nvidia и AMD мораа да исцедат што е можно повеќе од постоечките можности, а во случајот со Maxwell чиповите, Nvidia очигледно успеа во тоа. Во однос на моќноста и енергетската ефикасност, графичките процесори од оваа архитектура станаа јасен чекор напред, на кој AMD едноставно не одговори - барем не сè уште.

Така, од GM204, инженерите на Nvidia беа во можност да притиснат многу повеќе перформанси во споредба со GK104, со исто ниво на потрошувачка на енергија, иако чипот се зголеми за една третина, а поголемата густина на транзисторите овозможи да се зголеми нивниот број уште повеќе - од 3,5 милијарди до 5,2 милијарди.. Јасно е дека во такви услови GM204 вклучуваше многу повеќе единици за извршување, што резултираше со поголеми 3D перформанси.

Но, во случајот со најголемиот чип од архитектурата Максвел, дизајнерите на Nvidia не можеа премногу да ја зголемат големината на чипот, во споредба со GK110, тој веќе има површина од околу 550 mm 2, а не беше можно е да се зголеми неговата површина за една третина или барем една четвртина - таков графички процесор би станал премногу сложен и скап за производство. Морав да жртвувам нешто (во споредба со постариот Кеплер), и ова нешто стана изведба на пресметки со двојна прецизност - неговото темпо во GM200 е сосема исто како и кај другите решенија на Максвел, иако постариот Кеплер беше поразновиден, погоден за графички и за какви било неграфски пресметки.

Таквата одлука не беше лесна за Кеплер - премногу од областа на овој чип беше окупирана од јадрата CUDA FP64 и други специјализирани компјутерски единици. Во случајот со големиот Maxwell, беше одлучено да се помине со графички задачи и едноставно беше направен како зголемена верзија на GM204. Новиот чип GM200 стана чисто графички, нема посебни блокови за пресметки на FP64, а нивната стапка останува иста - само 1/32 од FP32. Но, поголемиот дел од областа на GK110, окупирана од FP64 ALU, беше ослободена и на нивно место беа поставени повеќе графички важни FP32 ALU.

Ваквиот потег овозможи значително да се зголеми графичката (и компјутерската, ако ги земеме пресметките на FP32) во споредба со GK110 без зголемување на потрошувачката на енергија и со мало зголемување на кристалната површина - помалку од 10%. Интересно, Nvidia намерно тргна на одвојување на графички и компјутерски чипови овој пат. Иако GM200 останува многу продуктивен во пресметките на FP32, а специјализираните решенија на Tesla за еднопрецизни пресметки се сосема можни, доволни за многу научни задачи, Tesla K40 останува најпродуктивниот за пресметките на FP64.

Патем, ова е разликата од оригиналниот Титан - првото решение на линијата може да се користи и за професионални цели за пресметки со двојна прецизност, бидејќи има стапка од 1/3 за пресметките на FP64. И многу истражувачи го користеа GTX Titan како почетна картичка за нивните CUDA апликации и задачи, преминувајќи кон решенијата на Tesla со успех. За ова, GTX Titan X веќе не е соодветен, ќе мора да почекате за следната генерација графички процесори. Ако првично не се поделени на графички и компјутерски чипови, се разбира.

Картичките за проширување веќе имаат таква поделба - моделот Tesla K80 содржи пар чипови GK210, кои не се користат во видео картичките и се разликуваат од GK110 во датотека со двојно регистер и споделена меморија за поголеми перформанси на компјутерските задачи. Излегува дека GK210 може да се смета за исклучиво „компјутерски“ процесор, а GM200 - чисто „графички“ (со одреден степен на конвенционалност, бидејќи и двата графички процесори имаат исти способности, само различни специјализации).

Да видиме што ќе се случи во следните генерации на графичките архитектури на Nvidia, кои се веќе произведени на „потенок“ технички процес - можеби таквото раздвојување нема да биде потребно кај нив, барем на почетокот. Или обратно, веднаш ќе видиме строга поделба на модели на графички процесори со различни специјализации (компјутациските модели ќе имаат повеќе компјутерски способности, а графичките модели - блоковите TMU и ROP, на пример), иако архитектурата ќе остане иста.

Карактеристики на дизајнот на видео картичката

Но, назад кон Geforce GTX Titan X. Ова е моќна видео картичка наменета за љубителите на компјутерски игри, па затоа треба да има и соодветен изглед - оригинален и цврст дизајн на плочата и ладилникот. Како и претходните решенија на линијата Titan, моделот Geforce GTX Titan X е покриен со алуминиумско куќиште, што и дава премиум изглед на видео картичката - навистина изгледа солидно.

Системот за ладење е исто така многу импресивен - дизајнот на ладилникот Titan X користи комора за пареа од бакарна легура - го лади GM200 GPU. Комората за испарување е поврзана со голем ладилник од алуминиумска легура со два отвора што ја троши топлината пренесена од видео чипот. Вентилаторот го отстранува загреаниот воздух надвор од куќиштето на компјутерот, што позитивно влијае на целокупниот температурен режим во системот. Вентилаторот е многу тивок дури и кога е оверклокиран и под оптоварување долго време, и како резултат на тоа, 250 W GTX Titan X е една од најтивките графички картички во својата класа.

За разлика од референтната табла Geforce GTX 980, новиот производ не содржи специјална отстранлива плоча што ја покрива задната површина на плочата - ова е направено за да се обезбеди максимален проток на воздух до ПХБ за негово ладење. Плочката се напојува со сет од еден 8-пински и еден 6-пински PCI Express помошни конектори за напојување.

Бидејќи Geforce GTX Titan X е дизајниран за ентузијасти кои претпочитаат решенија со максимални перформанси, сите компоненти на новата видео картичка беа избрани имајќи го ова на ум, па дури и со одредена резерва во однос на карактеристиките и карактеристиките.

На пример, за да се обезбеди енергија на графичкиот процесор во Geforce GTX Titan X, се користи 6-фазен систем за напојување со можност за дополнително засилување. За да се обезбеди работа на меморијата GDDR5, дополнително се користи уште еден двофазен систем за напојување. 6 + 2-фазниот систем за напојување на видео картичката му обезбедува на предметниот модел повеќе од доволно моќ, дури и со оверклокување. Така, референтната табла Titan X е способна да снабдува до 275 W напојување на графичкиот процесор, под услов максималната вредност на целната моќност (цел на моќност) да биде поставена на 110%.

Исто така, за дополнително подобрување на потенцијалот за оверклокување, беше подобрено ладењето на сите нови компоненти, во споредба со оригиналната видео картичка Geforce GTX Titan - редизајнираната плоча и ладилникот доведоа до подобрени можности за оверклокување. Како резултат на тоа, речиси сите примероци на Titan X се способни да работат на фреквенции до 1,4 GHz или повеќе - со истиот референтен ладилник за воздух.

Должината на референтната табла Geforce GTX Titan X е 267 mm, ги има следните конектори за излез на слика: еден Dual-Link DVI, еден HDMI 2.0 и три DisplayPort. Geforce GTX Titan X поддржува излез на екранот до 5K резолуција и е уште една графичка картичка со овозможена HDMI 2.0 која на конкурентот сè уште му недостасува - ова ви овозможува да го поврзете новиот производ со 4K телевизори, обезбедувајќи максимален квалитет на сликата со висока стапка на освежување од 60 Hz.

Поддршка за развивачи на игри

Nvidia отсекогаш била компанија која многу тесно соработува со производителите на софтвер, а особено со развивачите на игри. Погледнете го PhysX - најпопуларниот мотор за физика за игри, кој се користи повеќе од 10 години во повеќе од 500 игри. Широката употреба на PhysX се должи, меѓу другото, и на фактот што е интегриран во еден од најпопуларните мотори за игри: Unreal Engine 3 и Unreal Engine 4. Така, на конференцијата за развивачи на игри 2015 година, Nvidia објави бесплатен пристап до изворните кодови на процесорот - фокусиран дел од PhysX 3.3.3 за развивачи на C++ во верзии за Windows, Linux, OS X и Android.

Програмерите сега ќе можат да го менуваат кодот PhysX на моторот како што сакаат, а модификациите дури и тогаш може да се вградат во јадрото Nvidia PhysX код. Со отворањето на изворот на PhysX за јавноста, Nvidia им даде пристап до својот физички мотор на уште поширок опсег на развивачи на апликации за игри кои можат да го користат овој напреден физички мотор во своите игри.

Nvidia продолжува да промовира друга сопствена технологија, прилично новиот VXGI динамичен алгоритам за симулација на глобално осветлување, кој вклучува поддршка за специјално хардверско забрзување на видео картички со графички процесори од втората генерација на Maxwell, како што е Geforce GTX Titan X.

Воведувањето на VXGI во играта ќе им овозможи на програмерите да обезбедат многу висококвалитетна пресметка на динамичното глобално осветлување во реално време, користејќи ги сите можности на современите графички процесори и обезбедувајќи највисоки перформанси. За да ја разберете важноста на пресметувањето на глобалното осветлување (рендерирање земајќи го предвид не само директното осветлување од изворите на светлина, туку и неговото одразување од сите објекти на сцената), само погледнете неколку слики - со и без вклучен GI:

Јасно е дека овој пример е вештачки, а во реалноста дизајнерите на игри користат специјални методи за симулирање на глобално засенчување, поставувајќи дополнителни светла или користејќи претходно пресметано осветлување - но пред појавата на VXGI тие или не беа целосно динамични (претходно пресметани за статични геометрија) или немале доволен реализам и/или перформанси. Во идните игри, сосема е можно да се користи VXGI, а не само на врвните графички процесори.

Техниката VXGI е многу популарна кај развивачите на игри. Барем многу од нив го испробале методот во тест сцени, се многу возбудени за резултатите и размислуваат да го вградат во своите игри. И еве уште една сцена со висококвалитетна пресметка на глобалното осветлување - исто така покажува колку е важно да се земат предвид зраците на светлина што се рефлектираат од сите површини на сцената:

Додека програмерите не го имаат имплементирано VXGI во своите мотори, можете да ја користите специјалната верзија на Unreal Engine 4 VXGI GitHub моторот, кој е обезбеден на сите заинтересирани програмери - ова овозможува брзо интегрирање на VXGI во нивната игра (и не само! ) проекти кои го користат овој популарен мотор за игри - сепак, ова ќе бара некои модификации, VXGI не може едноставно да се „овозможи“.

Да разгледаме уште една технологија на Nvidia - анти-алиасирање на цел екран со помош на методот MFAA, кој обезбедува одлични перформанси и, во исто време, прифатлив квалитет против алијасирање. Веќе пишувавме за овој метод и само накратко ја повторуваме суштината и перспективите. Поддршката MFAA е една од клучните карактеристики на Maxwell графичките процесори во споредба со претходната генерација графички процесори. Користејќи ја можноста за програмирање позиции за примероци против алијасирање во методот MSAA, овие примероци ја менуваат секоја рамка на таков начин што MFAA е речиси полноправна MSAA, но со помало оптоварување на графичкиот процесор.

Како резултат на тоа, сликата со овозможено MFAA изгледа речиси како со MSAA, но загубата на перформанси е многу помала. На пример, MFAA 4x обезбедува брзини на исто ниво со MSAA 2x, а квалитетот на анти-алиасинг е блиску до MSAA 4x. Затоа, во оние игри каде што перформансите не се доволни за да се постигне висока стапка на слики, употребата на MFAA ќе биде целосно оправдана и може да го подобри квалитетот. Еве пример за добиените перформанси со MSAA и MFAA на графичка картичка Titan X во споредба со обичен Titan (во 4K резолуција):

Методот MFAA анти-алиасинг е компатибилен со сите игри DirectX 10 и DirectX 11 со поддршка MSAA (со исклучок на ретките проекти како Dead Rising 3, Dragon Age 2 и Max Payne 3). MFAA може рачно да се овозможи во контролната табла на Nvidia. Исто така, MFAA е интегриран во Geforce Experience, а овој метод автоматски ќе биде овозможен за различни игри во случај на оптимизација со користење на Geforce Experience. Единствениот проблем е што во моментов MFAA сè уште не е компатибилна со технологијата Nvidia SLI, која ветуваат дека ќе ја поправат во идните верзии на видео драјвери.

Модерни игри на Geforce GTX Titan X

Со сета своја моќ и способности, Geforce GTX Titan X може да се справи не само со тековните игри, туку и со идните проекти со поддршка за претстојната верзија на DirectX 12. квалитет, со овозможено анти-алиасирање на цел екран и прикажување со висока резолуција - како 4К.

При високи резолуции и овозможено анти-алиасирање, моќниот мемориски потсистем станува особено важен, а Geforce GTX Titan X има сè во ред со него - 384-битен мемориски интерфејс и чипови кои работат на ефективна фреквенција од 7 GHz обезбедуваат пропусен опсег од 336,5 GB / s - иако ова не е рекорд, тоа е прилично пристојно.

И, исто така, многу е важно сите податоци да се вклопат во видео меморијата, бидејќи кога MSAA е овозможена со резолуција 4K во многу игри, количината на видео меморија едноставно не е доволна - потребна е повеќе од 4 GB меморија. И Titan X нема само 6 GB, туку дури 12 GB видео меморија, бидејќи оваа линија е создадена за оние ентузијасти кои не поднесуваат компромиси. Јасно е дека со толкаво количество вградена меморија, играчот не треба да размислува дали перформансите на играта во висока резолуција ќе се намалат кога е овозможено повеќекратно земање примероци - во сите игри на кои било поставки, 12 GB ќе бидат повеќе од доволно.

Во моментов, во апсолутно секоја игра, можете да поставите какви било поставки и да изберете која било резолуција - Titan X ќе обезбеди доволно стапки на слики под (речиси) какви било услови. Еве ги игрите што Nvidia ги избра за да ги демонстрира перформансите на нивното решение:

Како што можете да видите, стапката на слики од 40 FPS или повеќе е обезбедена во повеќето „најтешки“ модерни игри со овозможено анти-алиасирање на цел екран, вклучително и проекти како што е Far Cry 4 - во оваа игра, со поставки Ultra и анти -Алијансирањето во 4K резолуција, постигнувањето прифатлива брзина на рендерирање е можно само на конфигурациите на Titan X или со повеќе чипови.

И со објавувањето на игрите од иднината кои ќе поддржуваат DirectX 12, можеме да очекуваме уште поголемо зголемување на барањата за перформансите на графичкиот процесор и видео меморијата - подобрувањето на квалитетот на рендерирање не е дадено „бесплатно“. Патем, во тоа време, Nvidia сè уште ја немаше тестирано својата графичка картичка Titan X во најновата игра, која беше објавена неодамна - верзијата за компјутер на Grand Theft Auto V. Оваа серија на игри е најпопуларна меѓу современите проекти, во кој делувате како разни криминални елементи во сценографијата на градот Лос Сантос, сомнително сличен на вистинскиот Лос Анџелес. PC верзијата на GTAV беше многу очекувана и конечно беше објавена во средината на април - еден месец по Titan X.

Дури и верзиите на конзолата (се разбира, зборуваме за конзолите од сегашната генерација) на играта Grand Theft Auto V беа доста добри во однос на квалитетот на сликата, а верзијата за компјутер на играта нуди уште неколку можности за нејзино подобрување: значително зголемено растојание за цртање (предмети, ефекти, сенки), можност за играње со 60 FPS или повеќе, вклучувајќи резолуции до 4K. Покрај тоа, ветуваат богат и густ сообраќај, многу динамични објекти на сцената, подобрени временски ефекти, сенки, осветлување итн.

Употребата на неколку технологии Nvidia GameWorks дополнително го подобри квалитетот на сликата во GTAV. Потсетете се дека GameWorks е специјална платформа за развивачи на игри и графики, обезбедувајќи им 3D технологии и алатки дизајнирани за видео картички Nvidia. Додавањето GameWorks технологии во игрите го прави релативно лесно постигнувањето висококвалитетна имитација на реален чад, волна и коса, бранови, како и глобално осветлување и други ефекти. GameWorks многу им олеснува на програмерите со обезбедување на примери, библиотеки и SDK подготвени да се користат во кодот на играта.

Grand Theft Auto V користи неколку технологии од Nvidia: ShadowWorks Percentage-Closer Soft Shadows (PCSS) и Temporal Anti-Aliasing (TXAA), кои ја подобруваат веќе добрата графика во играта. PCSS е специјална техника за рендерирање на сенки која има подобар квалитет од типичните методи на меки сенки. PCSS има три предности: мекоста на рабовите на сенката зависи од растојанието помеѓу објектот што ја фрла сенката и површината на која е нацртан, исто така обезбедува подобро филтрирање што го намалува бројот на артефакти во форма на назабени рабови на сенки, а употребата на тампон за сенки ви овозможува правилно да ракувате со пресеците со сенки од различни објекти и да спречите појава на „двојни“ сенки.

Како резултат на тоа, кога PCSS е овозможен, играта обезбедува меки, реални, динамични сенки кои се далеку подобри од она што го видовме на конзолите за игри. И за игра како Grand Theft Auto V со светло сонце кое постојано се движи низ хоризонтот, квалитетот на сенките е многу важен, тие се секогаш на повидок. Од следните слики од екранот, можете да ја видите разликата помеѓу двата најквалитетни методи што се користат во играта (АМД алгоритам наспроти методот Nvidia):

Јасно се гледа дека методот PCSS ви овозможува да добиете меки рабови на сенките, кои постепено се замаглуваат толку повеќе, колку е подалеку растојанието помеѓу објектот од кој се наоѓа сенката и површината што ја „прима“ сенката. Во исто време, вклучувањето на PCSS нема речиси никакво влијание врз конечните перформанси во играта. Иако овој метод обезбедува подобар квалитет на сенка и реализам, вклучувањето на оваа опција е практично „бесплатно“ за изведба.

Друг важен додаток на верзијата за компјутер на GTAV е методот Nvidia TXAA анти-алиасинг. Temporal Anti-Aliasing е нов алгоритам против алијасирање дизајниран специјално за решавање на проблемите на конвенционалните методи против алијасирање што се гледаат во движење - каде што поединечните пиксели треперат. За филтрирање на пиксели на екранот користејќи го овој метод, примероците се користат не само внатре во пикселот, туку и надвор од него, исто така заедно со примероци од претходните рамки, што ви овозможува да добиете квалитет на филтрирање „кино“.

Предноста на методот во однос на MSAA е особено забележлива на такви објекти со проѕирни површини како трева, лисја од дрвја и оградни мрежи. TXAA, исто така, помага да се изедначат ефектите од пиксел по пиксел. Генерално, методот е многу квалитетен и се приближува до квалитетот на професионалните методи кои се користат во 3D графиката, но резултатот по TXAA е малку поматен во споредба со MSAA, што не им се допаѓа на сите корисници.

Успехот на перформансите од овозможувањето на TXAA зависи од играта и условите и главно корелира со брзината на MSAA, која исто така се користи во овој метод. Но, во споредба со чистите методи за анти-алиасирање по обработката како FXAA, кои обезбедуваат максимална брзина при понизок квалитет, TXAA има за цел да го максимизира квалитетот со одредена дополнителна казна за изведба. Но, со такво богатство и детали во светот, како што гледаме во Grand Theft Auto V, вклучувањето на висококвалитетно анти-алиасирање ќе биде доста корисно.

Верзијата за компјутер на играта има богати графички поставки што ви овозможуваат да го добиете потребниот квалитет на сликата со потребните перформанси. Значи, GTAV на компјутер обезбедува прифатлива брзина и квалитет на рендерирање на сите решенија на Nvidia, почнувајќи од околу Geforce GTX 660. Па, за целосно уживање во сите графички ефекти на играта, се препорачува да користите нешто како Geforce GTX 970/980 или дури и Титан x.

За да ги проверите поставките, во играта е вграден тест за изведба - овој репер содржи пет сцени блиски до вистинската игра, што ќе ви овозможи да ја оцените брзината на прикажување во играта на компјутер со различни хардверски конфигурации. Но, сопствениците на графичките картички Nvidia можат полесно да ја оптимизираат играта за свој компјутер користејќи Geforce Experience. Овој софтвер ќе ги избере и приспособува оптималните поставки додека ја одржува брзината на рендерирање што може да се репродуцира - и сето тоа се прави со кликнување на копче. Geforce Experience ќе ја најде најдобрата комбинација на функции и за Geforce GTX 660 со FullHD монитор и за Titan X со 4K телевизор, обезбедувајќи ги најдобрите поставки за одреден систем.

Целосната поддршка за играта GTAV се појави во новата верзија на Geforce драјвери верзија 350.12 WHQL, која има посебен оптимизиран профил за оваа апликација. Оваа верзија на драјверот ќе обезбеди оптимални перформанси во играта, вклучувајќи ги и другите технологии на Nvidia: 3D Vision, 4K Surround, Dynamic Super Resolution (DSR), GameStream, G-SYNC (Surround), Multi Frame Sampled Anti-Aliasing (MFAA) , Процентуално поблиску Меки сенки (PCSS), SLI и повеќе.

Исто така, специјалниот драјвер 350.12 WHQL содржи ажурирани SLI профили за неколку игри, вклучително и нов профил за Grand Theft Auto V. Покрај SLI профилите, возачот ажурира и додава профили и за технологијата 3D Vision, а профилот за GTAV е оценет како „Одлично“, што значи одличен квалитет на стерео слика во оваа игра - сопствениците на соодветните очила и монитори треба да ја пробаат!

Поддршка за технологии за виртуелна реалност

Темата за виртуелна реалност (Virtual Reality - VR) сега е една од најгласните во индустријата за игри. На многу начини, компанијата Oculus, која тогаш беше купена од Facebook, е „виновна“ за заживувањето на интересот за VR. Досега покажаа само прототипови или SDK, но планираат да објават комерцијална верзија на кацигата Oculus Rift подоцна оваа година. Не се изоставени и другите компании. На пример, добро познатата компанија Valve ги објави плановите за партнерство со HTC за да издаде сопствен шлем за виртуелна реалност исто така до крајот на 2015 година.

Секако, производителите на графички процесори гледаат иднина и во VR, а Nvidia тесно соработува со добавувачите на софтверски и хардверски решенија за виртуелна реалност со цел да се осигура дека тие работат што е можно поудобно со видео картичките Geforce (или дури и Tegra, кој знае?) . И ова не се само маркетиншки слогани, бидејќи за користењето на VR да биде удобно, треба да се решат неколку проблеми, вклучително и намалување на доцнењето помеѓу дејството на играчот (движење на главата) и како резултат на прикажување на ова движење на екранот - премногу заостанување не само што го расипува искуството на виртуелната реалност, туку може да предизвика таканаречена болест на движење (болест, болест на движење).

За да се намали оваа латентност, софтверот VR Direct на Nvidia поддржува функција наречена асинхроно искривување на времето. Со употреба на асинхроно искривување на времето, сцената прикажана пред некое време може да се движи врз основа на движењата на главата на играчот подоцна снимени од сензорите на кацигата. Ова ја намалува латентноста помеѓу дејството и прикажувањето на сликата, бидејќи графичкиот процесор не мора повторно да ја пресмета целата рамка пред да ја префрли. Nvidia веќе обезбедува поддршка за драјвери за развивачите на VR апликации и тие можат да применат асинхроно изобличување на времето во нивниот софтвер.

Покрај доцнењето на излезот, многу е важно да се постигне удобна игра во кацигата за виртуелна реалност не само да се обезбеди висока стапка на слики, туку да се прикажат рамки за секое око со најмазна можна промена. Соодветно на тоа, по популаризацијата на VR шлемовите од идните генерации, многу од играчите ќе сакаат да ги испробаат во модерни игри кои бараат многу моќ на графичкиот процесор. И во некои случаи, ќе треба да креирате SLI конфигурација со два чипови од пар моќни видео картички како Geforce GTX Titan X.

За да обезбеди максимална удобност во такви случаи, Nvidia нуди VR SLI технологија, која им овозможува на развивачите на игри да доделат специфичен графички процесор од пар на секое око со цел да се намали латентноста и да се подобрат перформансите. Во овој случај, сликата за левото око ќе биде прикажана од еден графички процесор, а за десното око - од вториот графички процесор. Ова очигледно решение ја намалува латентноста и е идеално за VR апликации.

Досега, VR SLI и асинхроното временско искривување не се достапни во јавните драјвери на Nvidia, но тоа не е особено неопходно, бидејќи нивната употреба бара промени во извршниот код на играта. А предиздадените видео двигатели на Geforce со поддршка за VR SLI и Asynchronous Time Warp се достапни за одредени партнери на Nvidia како што се Epic, Crytek, Valve и Oculus. Па, јавниот двигател ќе биде пуштен поблиску до објавувањето на конечните VR производи во продажба.

Покрај тоа, таква моќна графичка картичка како Geforce GTX Titan X беше користена во многу демонстрации за виртуелна реалност на овогодинешната конференција за развивачи на игри 2015. Еве само неколку примери: „Крадец во сенка“ - заеднички развој на Nvidia, Epic , Oculus и WETA Digital, студиото за визуелни ефекти зад The ​​Hobbit Movie Trilogy, Back to Dinosaur Island е рестартирање на познатиот 14-годишен X-Isle на Crytek: демо на островот на диносаурусите и порталот на Valve , „Job Simulator“, „TheBluVR“. “ и „Галерија“. Во принцип, останува до објавувањето на VR шлемови во продажба, а Nvidia ќе биде подготвена за ова.

Заклучоци од теоретскиот дел

Од архитектонска гледна точка, новиот врвен графички процесор од втората генерација на архитектурата Максвел се покажа како многу интересен. Како и неговите браќа и сестри, GM200 го користи најдоброто од минатите архитектури на компанијата, со дополнителна функционалност и сите подобрувања од втората генерација на Максвел. Затоа, функционално, новитетот изгледа одлично, што одговара на моделите на линијата Geforce GTX 900. Со помош на сериозната надградба на извршните единици, инженерите на Nvidia постигнаа удвојување на односот перформанси-потрошувачка во Максвел, додека додаваме функционалност - се потсетуваме на хардверската поддршка за VXGI глобалното забрзување на осветлувањето и графичкиот API DirectX 12.

Врвната графичка картичка Geforce GTX Titan X е дизајнирана за гејмери ​​со ултра ентузијасти кои сакаат врвен квалитет и перформанси од најновите игри за компјутер, кои работат со највисока резолуција, поставки за највисок квалитет, анти-против цел екран. aliasing, и сето тоа со прифатлива стапка на слики. Од една страна, неколку игри бараат толку моќен графички процесор, и можете да инсталирате неколку поевтини видео картички. Од друга страна, поради проблемите со решенијата со повеќе чипови со зголемена латентност и нерамномерни стапки на слики, многу играчи претпочитаат еден моќен графички процесор отколку пар помалку моќни. Да не зборуваме дека картичката со еден чип ќе обезбеди и помала потрошувачка на енергија и бучава од системот за ладење.

Нормално, во такви услови, главното прашање за Geforce GTX Titan X е цената на решението. Но, факт е дека се продава во ниша каде што концептите за оправдување на цената и вредност за парите едноставно не се потребни - решенијата со максимални перформанси секогаш чинат значително повеќе од оние блиски до нив, но сепак не толку продуктивни. И Titan X е исклучително моќна и скапа графичка картичка за оние кои се подготвени да платат за максимална брзина во 3D апликации.

Geforce GTX Titan X е позиционирана како премиум (луксузна, елитна - како сакате наречете ја) видео картичка и не треба да има поплаки за препорачаната цена - особено што претходните решенија на линијата (GTX Titan и GTX Titan Black ) првично чинеше исто - 999 долари. Ова е решение за оние на кои им треба најбрзиот графички процесор кој постои, и покрај неговата цена. Освен тоа, за најбогатите ентузијасти и рекордери во 3D репери, достапни се системи со три, па дури и четири видео картички Titan X - ова се едноставно најбрзите видео системи во светот.

Ова се барањата што Titan X целосно ги оправдува и ги обезбедува - врвната новина, дури и сама, покажува најголема стапка на слики во сите апликации за игри и во речиси сите услови (резолуција и поставки) и количината на брза видео меморија GDDR5 од 12 МК ви овозможува да не размислувате за недостатокот на локална меморија неколку години напред - дури и игрите на идните генерации, со поддршка за DirectX 12, итн., Едноставно нема да можат да ја затнат оваа меморија толку многу што нема да биде доволно.

Како и со првиот GTX Titan во 2013 година, GTX Titan X поставува нова лента за перформанси и функционалност во премиум графичкиот сегмент. Едно време, GTX Titan стана прилично успешен производ за Nvidia и нема сомнеж дека GTX Titan X ќе го повтори успехот на својот претходник. Покрај тоа, моделот базиран на најголемиот видео чип од архитектурата Максвел стана најпродуктивниот на пазарот без никакви резерви. Бидејќи видео картичките како GTX Titan X се произведени од самата Nvidia и продаваат референтни примероци на нивните партнери, немаше проблеми со достапноста во продавниците од самиот момент на нејзиното објавување.

GTX Titan X го достигнува своето највисоко ниво во секој поглед: најмоќниот графички процесор од семејството Максвел, одличниот дизајн на графички картички во стилот на претходните модели на Titan, како и одличниот систем за ладење - ефикасен и тивок. Во однос на брзината на 3D рендерирање, ова е најдобрата видео картичка на нашето време, која нуди повеќе од една третина повеќе перформанси во споредба со најдобрите модели што излегоа пред Titan X - како што е Geforce GTX 980. И ако не размислувате за двојна видео системи со чипови (како неколку исти GTX 980 или еден Radeon R9 295X2 од конкурент кој има проблеми својствени за конфигурациите со повеќе чипови), тогаш Titan X може да се нарече најдобро решение за несиромашните ентузијасти.

Во следниот дел од нашиот материјал, ќе ја испитаме брзината на рендерирање на новата видео картичка Nvidia Geforce GTX Titan X во пракса, споредувајќи ја нејзината брзина со перформансите на најмоќните видео системи од AMD и со перформансите на претходниците на Nvidia, прво во нашиот вообичаен сет на синтетички тестови, а потоа и во игри.

Во март 2015 година, на јавноста и беше претставена нова водечка графичка картичка од NVIDIA. Видео картичката за игри Nvidia Titan X е со еден чип, а нејзината архитектура се заснова на алгоритмот Pascal (за GPU GP102), патентиран од производителот. Во времето на претставувањето на Geforce GTX Titan X, со право се сметаше за најмоќниот видео адаптер за игри.

GPU.Графичкиот процесор има 3584 CUDA јадра со основна фреквенција од 1417 MHz. Во овој случај, фреквенцијата на часовникот со забрзување ќе биде на ниво од 1531 MHz.

Меморија. Предводникот беше претставен со капацитет од 12 Gb, но подоцна беше објавена верзија со намален волумен за 2 пати. Брзината на меморијата достигнува 10 Gb / s. Пропусниот опсег во мемориската шина е 384-битна, што овозможува да се има пропусност на меморија од 480 Gb / s. Се користат мемориски чипови GDDR5X, па дури и со конфигурација од 6 Gb, перформансите ќе бидат високи.

Други карактеристики на Titan X.Бројот на ALU е 3584, ROP е 96, а бројот на преклопени единици на текстура е 192. Картичката поддржува и резолуции до 7680×4320, збир на конектори на новите стандарди DP 1.4, HDMI 2.0b, DL-DVI , и HDCP верзија 2.2.

Видео картичката работи со слот (автобус) PCIe 3.0. За да обезбедите целосна моќност, мора да имате дополнителни 8-пински и 6-пински конектори на напојувањето. Картичката ќе зафаќа два слота на матичната плоча (SLI е можно за 2, 3 и 4 картички).

Висината на графичката картичка е 4,376″, а должината е 10,5″. Се препорачува да се користат напојувања со моќност од 600 W или повеќе.

Преглед на видео картичка

Главниот акцент на производителите беше ставен на подобрување на графиката за VR, како и целосна поддршка за DirectX 12. Перформансите на видео картичката во игрите може малку да се зголемат со оверклокување на перформансите на картичката GTX Titan X 12 Gb.


Технологијата Pascal е наменета за VR игри. Со користење на ултра-брзинска технологија FinFET, се постигнува максимално измазнување при користење на кацига. Моделот Geforce Titan X Pascal е целосно компатибилен со VRWorks, што дава ефект на целосно потопување со можност за искусување на физиката и тактилните сензации на играта.

Наместо бакарни топлински цевки, овде се користи комора за испарување. Максималната температура е 94 степени (од веб-страницата на производителот), меѓутоа, во тестовите, просечната температура е 83-85 степени.Кога се зголемува до оваа температура, турбината на ладилникот се забрзува. Ако забрзувањето не е доволно, тогаш фреквенцијата на часовникот на графичкиот чип се намалува. Бучавата од турбината е доста забележлива, па ако ова е значаен показател за корисникот, тогаш подобро е да се користи водено ладење. Решенија за овој модел веќе постојат.

Подобрување на перформансите на рударството

Компанијата се фокусираше на перформансите на игри. Во споредба со видео картичката, Geforce GTX Titan X 12 Gb не го подобрува рударството, но потрошувачката е поголема. Сите графички картички од серијата Titan се издвојуваат по нивните FP32 и INT8 двојни прецизни перформанси. Ова ни овозможува да разгледаме серија картички како професионални акцелератори за класа. Сепак, моделот со чипот GM200 не е, бидејќи многу тестови покажуваат деградација на перформансите при пресметките на хашот и другите операции. Перформансите на ископување криптовалути се само 37,45 Mhash/s.

Не препорачуваме користење на моделот X за ископување криптографски валути. Дури и прилагодувањето на Nvidia Titan X за перформанси нема да ги даде истите резултати како Radeon Vega (ако се земе во иста ценовна група), а камоли Tesla.

Нова картичка од истиот производител дава 2,5 пати повеќе перформанси. Во оверклокирана состојба, Titan V даде бројка од 82,07 Mhash / s.

Резултати од тестовите во игри

Ако ја споредиме видео картичката Titan X Pascal со другите, тогаш таа е 20-25% подобра од видео картичката на истиот производител, а исто така речиси двапати го надминува конкурентот Radeon R9 FuryX, кој исто така е со еден чип.

Во сите игри во 4K и UltraHD гледаме мазна слика. Исто така, постигнавме добри резултати во тестовите користејќи го режимот SLI.

Споредба на видео картички од различни производители

Цената на видео картичката Titan X 12 Gb започнува од 1200 долари и зависи од производителот и количината на меморија.

Ви нудиме да се запознаете со компаративните карактеристики на стоки од различни производители (* - слично):

ПроизводPalit GeForce GTX TITAN XMSI GeForce GTX TITAN XASUS GeForce GTX TITAN X
Список со примарни карактеристики
Тип на видео картичкаигра *
Име на графичкиот процесорNVIDIA GeForce GTX TITAN X *
Код на производителотNE5XTIX015KB-PG600F *
Кодно име на графичкиот процесорГМ 200 *
Технички процес28 nm *
Поддржани мониторичетири *
Резолуција GM200 (максимум)5120 до 3200 *
Список на спецификации
Фреквенција на графичкиот процесор1000 Mhz *
Меморија12288 Mb *
Тип на меморијаGDDR5 *
Фреквенција на меморија7000 Mhz7010 MHz7010 MHz
Ширина на магистралата за меморија384 битни *
RAMDAC фреквенција400 Mhz *
Поддршка за режим CrossFire /SLIможно *
Quad SLI поддршкаможно* *
Список на спецификации по поврзување
Конекториподдршка за HDC, HDMI, DisplayPort x3 *
HDMI верзија2.0 *
Математички блок
Број на универзални процесори3072 *
Шејдер верзија5.0 *
Број на блокови со текстура192 *
Број на блокови за растеризација96 *
Дополнителни карактеристики
Димензии267×112 mm280×111 mm267×111 mm
Број на зафатени слотови2 *
Цена74300 р.75000 р.75400 р.

Врз основа на табелата за споредба, може да се види дека различни производители се усогласени со стандардизацијата. Разликата во карактеристиките е незначителна: различна фреквенција на видео меморија и големини на адаптери.

Сега во продажба нема овој модел од ниту еден производител. Во јануари 2018 година беше претставен светот, кој неколку пати ги надминува своите колеги во перформансите во игрите и во рударството на криптовалути.