Огляд та тестування NVIDIA GeForce GTX TITAN X: побиття немовлят. Огляд відеоадаптера NVIDIA TITAN X: великий Pascal Зовнішній вигляд та розміри

Nvidia Geforce GTX Titan X

Найпотужніший однопроцесорний прискорювач

  • Частина 2 - Практичне знайомство

Через пізнє отримання тестового зразка нового прискорювача (і ПЗ до нього), а також через участь нашого автора Олексія Берилло в роботі GTC, частини цього огляду, присвячені архітектурі нового продукту Nvidia та аналізу синтетичних тестів, вийдуть пізніше (приблизно через тиждень) ). А зараз ми представляємо матеріал, який знайомить читачів з особливостями відеокарти, а також результатами ігрових тестів.

Пристрій(а)



Nvidia Geforce GTX Titan X 12288 МБ 384-бітної GDDR5 PCI-E
ПараметрЗначенняНомінальне значення (референс)
GPUGeforce GTX Titan X (GM200)
ІнтерфейсPCI Express x16
Частота роботи GPU (ROPs), МГц1000—1075 1000—1075
Частота роботи пам'яті (фізична (ефективна)), МГц1750 (7000) 1750 (7000)
Ширина шини обміну з пам'яттю, біт384
Число обчислювальних блоків у GPU/частота роботи блоків, МГц24/1000—1075 24/1000—1075
Число операцій (ALU) у блоці128
Сумарна кількість операцій (ALU)3072
Число блоків текстурування (BLF/TLF/ANIS)192
Число блоків растеризації (ROP)96
Розміри, мм270×100×35270×100×35
Кількість слотів у системному блоці, які займає відеокарта2 2
Колір текстолітучорнийчорний
Енергоспоживання (пікове в 3D/у режимі 2D/у режимі «сну»), Вт257/98/14 257/98/14
Рівень шуму (у режимі 2D/у режимі 2D (перегляд відео)/у режимі максимального 3D), дБА20/21/29,5
Вихідні гнізда1×DVI (Dual-Link/HDMI), 1×HDMI 2.0, 3×DisplayPort 1.2
Підтримка багатопроцесорної роботиSLI
Максимальна кількість приймачів/моніторів для одночасного виведення зображення4 4
Додаткове харчування: кількість 8-контактних роз'ємів1 1
Додаткове харчування: кількість 6-контактних роз'ємів1 1
Максимальна роздільна здатність 2D: DP/HDMI/Dual-Link DVI/Single-Link DVI
Максимальна роздільна здатність 3D: DP/HDMI/Dual-Link DVI/Single-Link DVI3840×2400/3840×2400/2560×1600/1920×1200

Комплектація локальної пам'яті

Картка має 12288 МБ пам'яті GDDR5 SDRAM, розміщеної в 24 мікросхемах по 4 Гбіт (по 12 на кожній стороні PCB).

Як синтетичні тести DirectX 11 ми використовували приклади з пакетів SDK компаній Microsoft і AMD, а також демонстраційну програму Nvidia. По-перше, це HDRToneMappingCS11.exe та NBodyGravityCS11.exe з комплекту DirectX SDK (February 2010). Ми взяли і програми обох виробників відеочіпів: Nvidia та AMD. З ATI Radeon SDK були взяті приклади DetailTessellation11 та PNTriangles11 (вони також є і в DirectX SDK). Додатково використовувалася демонстраційна програма компанії Nvidia - Realistic Water Terrain, також відома як Island11.

Синтетичні тести проводились на наступних відеокартах:

  • Geforce GTX Titan X GTX Titan X)
  • Geforce GTX Titan Zзі стандартними параметрами (скорочено GTX Titan Z)
  • Geforce GTX 980зі стандартними параметрами (скорочено GTX 980)
  • Radeon R9 295X2зі стандартними параметрами (скорочено R9 295X2)
  • Radeon R9 290Xзі стандартними параметрами (скорочено R9 290X)

Для аналізу продуктивності нової моделі відеокарти Geforce GTX Titan X було обрано саме ці рішення з таких причин. Geforce GTX 980 заснована на графічному процесорі цієї ж архітектури Maxwell, але нижчого рівня - GM204, і нам буде дуже цікаво оцінити, що дало ускладнення чипа до GM200. Ну а двочіпова відеокарта Geforce GTX Titan Z взята просто для орієнтира - як продуктивна відеокарта Nvidia, заснована на парі чіпів GK110 попередньої архітектури Kepler.

Від конкуруючої компанії AMD для нашого порівняння ми також обрали дві відеокарти. Вони дуже різні в принципі, хоч і засновані на однакових графічних процесорах Hawaii — просто на картах різна кількість GPU і вони відрізняються позиціонуванням і ціною. Цінових конкурентів Geforce GTX Titan X немає, тому ми взяли найпотужнішу двочіпову відеокарту Radeon R9 295X2, хоча таке порівняння буде не дуже цікаво технічно. Для останнього взята найшвидша одночіпова відеокарта конкурента - Radeon R9 290X, хоча вона випущена дуже давно і заснована на GPU явно меншої складності. Але іншого вибору рішень AMD просто немає.

Direct3D 10: тести піксельних шейдерів PS 4.0 (текстурування, цикли)

Ми відмовилися від застарілих DirectX 9 тестів, так як надпотужні рішення на кшталт Geforce GTX Titan X показують у них не надто показові результати, завжди обмежені ПСП, філлрейтом або текстуруванням. Не кажучи вже про те, що двочіпові відеокарти далеко не завжди коректно працюють у таких додатках, а їх у нас цілих дві.

У другу версію RightMark3D увійшли два вже знайомі нам тести PS 3.0 під Direct3D 9, які були переписані під DirectX 10, а також ще два нові тести. У першу пару додалися можливості включення самозатінення та шейдерного суперсемплінгу, що додатково збільшує навантаження на відеочіпи.

Дані тести вимірюють продуктивність виконання піксельних шейдерів з циклами при великій кількості текстурних вибірок (у найважчому режимі до кількох сотень вибірок на піксель) та порівняно невеликому завантаженні ALU. Іншими словами, у них вимірюється швидкість текстурних вибірок та ефективність розгалужень у піксельному шейдері.

Першим тестом піксельних шейдерів буде Fur. При найнижчих налаштуваннях у ньому використовується від 15 до 30 текстурних вибірок із карти висот та дві вибірки з основної текстури. Режим Effect detail - "High" збільшує кількість вибірок до 40-80, включення "шейдерного" суперсемплінга - до 60-120 вибірок, а режим "High" спільно з SSAA відрізняється максимальною "вагою" - від 160 до 320 вибірок з карти висот.

Перевіримо спочатку режими без увімкненого суперсемплінгу, вони відносно прості, і співвідношення результатів у режимах Low і High повинно бути приблизно однаковим.

Продуктивність в даному тесті залежить від кількості та ефективності блоків TMU, впливає також ефективність виконання складних програм. А у варіанті без суперсемплінгу додатковий вплив на продуктивність надає ще й ефективний філрейт і пропускна здатність пам'яті. Результати при деталізації рівня "High" виходять до півтора рази нижче, ніж при "Low".

У задачах процедурної візуалізації хутра з великою кількістю текстурних вибірок, з випуском відеочіпів на базі архітектури GCN, компанія AMD давно перехопила лідерство. Саме плати Radeon і досі є найкращими у цих порівняннях, що говорить про більшу ефективність виконання ними цих програм. Такий висновок підтверджується і сьогоднішнім порівнянням - відеокарта Nvidia, що надається, програла навіть застарілою одночіповою Radeon R9 290X, не кажучи вже про найближчого цінового конкурента від AMD.

У першому Direct3D 10 тесті нова відеоплата моделі Geforce GTX Titan X виявилася трохи швидше за свою молодшу сестру на чіпі цієї ж архітектури у вигляді GTX 980, але відставання останньої невелике — 9-12%. Такий результат можна пояснити помітно меншою швидкістю текстурування у GTX 980, та й за іншими параметрами вона відстає, хоча справа явно не в продуктивності блоків ALU. Двочіповий Titan Z швидше, але не так, як Radeon R9 295X2.

Подивимося на результат цього ж тесту, але з увімкненим «шейдерним» суперсемплінгом, що збільшує роботу вчетверо: у такій ситуації щось має змінитися, і ПСП з філлрейтом впливатимуть менше:

В ускладнених умовах нова відеокарта моделі Geforce GTX Titan X вже помітніше випереджає молодшу модель з цього ж покоління - GTX 980, виявляючись швидше вже на пристойні 33-39%, що ближче до теоретичної різниці між ними. Та й відставання від конкурентів у вигляді Radeon R9 295X2 та R9 290X скоротилося – новинка від Nvidia майже наздогнала одночипову Radeon. Втім, двочіпова залишилася далеко попереду, адже чіпи компанії AMD віддають перевагу попіксельним обчисленням і в подібних обчисленнях дуже сильні.

Наступний DX10 тест вимірює продуктивність виконання складних піксельних шейдерів з циклами при великій кількості текстурних вибірок і називається Steep Parallax Mapping. При низьких налаштуваннях він використовує від 10 до 50 текстурних вибірок із карти висот та три вибірки з основних текстур. При включенні важкого режиму із самозатіненням кількість вибірок зростає вдвічі, а суперсемплінг збільшує це число вчетверо. Найбільш складний тестовий режим із суперсемплінгом та самозатіненням вибирає від 80 до 400 текстурних значень, тобто у вісім разів більше у порівнянні з простим режимом. Перевіряємо спочатку прості варіанти без суперсемплінгу:

Другий піксель-шейдерний тест Direct3D 10 цікавіший з практичної точки зору, так як різновиди parallax mapping широко застосовуються в іграх, а важкі варіанти, на зразок steep parallax mapping, давно використовуються в багатьох проектах, наприклад в іграх серій Crysis, Lost Planet та багатьох інших. Крім того, в нашому тесті, крім суперсемплінгу, можна включити самозатінення, що збільшує навантаження на відеочіп ще приблизно вдвічі - такий режим називається High.

Діаграма в цілому схожа з попередньою, також без включення суперсемплінга, і цього разу нова Geforce GTX Titan X виявилася трохи ближче до GTX Titan Z, програючи двочіпової плати на парі GPU сімейства Kepler не так багато. У різних умовах новинка на 14-19% випереджає попередню топову модель поточного покоління від Nvidia, і навіть якщо брати порівняння з відеокартами AMD, то дещо змінилося - в цьому випадку новинка GTX Titan X трохи поступається Radeon R9 290X зовсім небагато. Двочіповий R9 295X2, втім, далеко попереду всіх. Подивимося, що змінить включення суперсемплінгу:

При включенні суперсемплінгу та самозатінення завдання стає важчим, спільне включення відразу двох опцій збільшує навантаження на карти майже у вісім разів, викликаючи серйозне падіння продуктивності. Різниця між швидкісними показниками протестованих відеокарт трохи змінилася, хоча включення суперсемплінга дається взнаки менше, ніж у попередньому випадку.

Графічні рішення AMD Radeon і в цьому D3D10-тесті піксельних шейдерів працюють ефективніше, в порівнянні з конкуруючими платами Geforce, але новий чіп GM200 змінює ситуацію на краще - плата Geforce GTX Titan X на чіпі архітектури Maxwell вже за всіх умов випереджає RadeX R9 втім, заснований на помітно менш складному GPU). Двочіпове рішення на парі Hawaii залишилося лідером, ну а в порівнянні з іншими рішеннями Nvidia новинка непогана. Вона показала швидкість майже на рівні двочіпової Geforce GTX Titan Z і обігнала Geforce GTX 980 на 28-33%.

Direct3D 10: тести піксельних шейдерів PS 4.0 (обчислення)

Наступна пара тестів піксельних шейдерів містить мінімальну кількість текстурних вибірок зниження впливу продуктивності блоків TMU. Вони використовують велику кількість арифметичних операцій, і вимірюють вони саме математичну продуктивність відеочіпів, швидкість виконання арифметичних інструкцій у піксельному шейдері.

Перший математичний тест – Mineral. Це тест складного процедурного текстурування, в якому використовуються лише дві вибірки з текстурних даних та 65 інструкцій типу sin та cos.

Результати граничних математичних тестів найчастіше відповідають різниці за частотами та кількістю обчислювальних блоків, але лише приблизно, тому що на результати впливає і різна ефективність їх використання у конкретних завданнях, і оптимізація драйверів, і новітні системи управління частотами та живленням, і навіть наголос у ПСП . У випадку тесту Mineral, нова модель Geforce GTX Titan X лише на 10% швидше за плату GTX 980 на чіпі GM204 з цього ж покоління, та й двочіпова GTX Titan Z виявилася не така вже швидка в цьому тесті — платам Nvidia явно щось заважає розкритися .

Порівняння Geforce GTX Titan X з конкуруючими платами компанії AMD було б не таким сумним, якби GPU R9 290X і Titan X були близькі за складністю. Але GM200 набагато більший, ніж Hawaii, і його невелика перемога цілком природна. Оновлення архітектури Nvidia з Kepler до Maxwell призвело до того, що нові чіпи в таких тестах наблизилися до конкуруючих рішень від AMD. Але навіть менше за вартістю двочіпове рішення Radeon R9 295X2 помітно швидше.

Розглянемо другий тест шейдерних обчислень, який зветься Fire. Він важчий для ALU, і текстурна вибірка в ньому лише одна, а кількість інструкцій типу sin та cos збільшена вдвічі, до 130. Подивимося, що змінилося зі збільшенням навантаження:

У другому математичному тесті з RigthMark ми бачимо інші результати відеокарт відносно один одного. Так, нова Geforce GTX Titan X вже сильніше (на 20%) випереджає GTX 980 на чіпі тієї ж графічної архітектури, та й двочіповий Geforce дуже близький до новинки - Maxwell справляється з розрахунковими завданнями помітно краще за Kepler.

Radeon R9 290X залишився позаду, але як ми вже писали - GPU Hawaii помітно простіше, ніж GM200, і така різниця є логічною. Але хоча двочіповий Radeon R9 295X2 продовжує залишатися лідером у тестах математичних обчислень, загалом у таких завданнях новий відеочіп Nvidia показав себе непогано, хоч і не досяг теоретичної різниці з GM204.

Direct3D 10: тести геометричних шейдерів

У пакеті RightMark3D 2.0 є два тести швидкості геометричних шейдерів, перший варіант носить назву Galaxy, техніка аналогічна point sprites з попередніх версій Direct3D. У ньому анімується система частинок на GPU, геометричний шейдер з кожної точки створює чотири вершини, що утворюють частинку. Аналогічні алгоритми мають отримати широке використання у майбутніх іграх під DirectX 10.

Зміна балансування в тестах геометричних шейдерів не впливає на кінцевий результат рендерингу, підсумкова картинка завжди абсолютно однакова, змінюються лише способи обробки сцени. Параметр "GS load" визначає, в якому з шейдерів виробляються обчислення - у вершинному або геометричному. Кількість обчислень завжди однакова.

Розглянемо перший варіант тесту Galaxy, з обчисленнями у вершинному шейдері, для трьох рівнів геометричної складності:

Співвідношення швидкостей при різній геометричній складності сцен приблизно однакове для всіх рішень, продуктивність відповідає кількості точок, з кожним кроком падіння FPS близьке до дворазового. Завдання це для потужних сучасних відеокарт дуже просте, і продуктивність у ній обмежена швидкістю обробки геометрії, а іноді і пропускною здатністю пам'яті та/або філрейтом.

Різниця між результатами відеокарт на чіпах Nvidia і AMD зазвичай є на користь рішень каліфорнійської компанії, і вона обумовлена ​​відмінностями геометричних конвеєрах чіпів цих компаній. Ось і в даному випадку, топові відеочіпи Nvidia мають багато блоків з обробки геометрії, тому й виграш є. У тестах геометрії плати Geforce завжди конкурентоспроможніше Radeon.

Нова модель Geforce GTX Titan X трохи відстає від двочіпової плати GTX Titan Z на графічних процесорах попереднього покоління, але GTX 980 вона обганяє на 12-25%. Відеокарти Radeon показують помітно різні результати, так як R9 295X2 заснована на парі GPU, і тільки вона може посперечатися з новинкою в цьому тесті, а Radeon R9 290X стала аутсайдером. Подивимося, як зміниться ситуація при перенесенні частини обчислень до геометричного шейдера:

При зміні навантаження в цьому тесті цифри змінилися незначно для плат AMD і для рішень Nvidia. І це нічого особливо не змінює. Відеокарти в цьому тесті геометричних шейдерів слабо реагують на зміну параметра GS load, що відповідає за перенесення частини обчислень геометричний шейдер, тому і висновки залишаються колишніми.

На жаль, Hyperlight - другий тест геометричних шейдерів, що демонструє використання відразу декількох технік: instancing, stream output, buffer load, в якому використовується динамічне створення геометрії за допомогою малювання в два буфери, а також нова можливість Direct3D 10 - stream output, на всіх сучасних відеокартах компанії AMD просто не працює. Якоїсь миті чергове оновлення драйверів Catalyst призвело до того, що цей тест перестав запускатися на платах цієї компанії, і це не виправлено вже кілька років.

Direct3D 10: швидкість вибірки текстур із вершинних шейдерів

У тестах Vertex Texture Fetch вимірюється швидкість великої кількості текстурних вибірок з вершинного шейдера. Тести схожі, по суті, тому співвідношення між результатами карт у тестах «Earth» і «Waves» має бути приблизно однаковим. В обох тестах використовується displacement mapping на підставі даних текстурних вибірок, єдина істотна відмінність полягає в тому, що в тесті Waves використовуються умовні переходи, а в Earth - ні.

Розглянемо перший тест "Earth", спочатку в режимі "Effect detail Low":

Наші попередні дослідження показали, що на результати цього тесту може впливати філлрейт і пропускна здатність пам'яті, що добре помітно за результатами плат Nvidia, особливо в простих режимах. Нова відеокарта компанії Nvidia у цьому тесті показує швидкість явно нижчу, ніж має - всі плати Geforce виявилися приблизно на одному рівні, що явно не відповідає теорії. Вони у всіх режимах явно впираються у щось на кшталт ПСП. Втім, Radeon R9 295X2 теж далеко не вдвічі швидше за R9 290X.

До речі, одночипова плата від AMD цього разу виявилася сильнішою за всі плати від Nvidia в легкому режимі і приблизно на їхньому рівні у важкому. Ну, а двочіпова Radeon R9 295X2 знову стала лідером нашого порівняння. Подивимося на продуктивність у цьому тесті зі збільшеною кількістю текстурних вибірок:

Ситуація на діаграмі трохи змінилася, одночипове рішення компанії AMD у важких режимах втратило значно більше плат Geforce. Нова модель Geforce GTX Titan X показала швидкість до 14% швидше, ніж Geforce GTX 980, і виграла у одночіпової Radeon у всіх режимах, крім найлегшого - через все той же упор у щось. Якщо порівнювати новинку з двочіповим рішенням AMD, то Titan X змогла дати бій у тяжкому режимі, показавши близьку продуктивність, але відставши в легких режимах.

Розглянемо результати другого тесту текстурних вибірок із вершинних шейдерів. Тест Waves відрізняється меншою кількістю вибірок, зате в ньому використовуються умовні переходи. Кількість білінейних текстурних вибірок у разі до 14 («Effect detail Low») чи до 24 («Effect detail High») на кожну вершину. Складність геометрії змінюється аналогічно до попереднього тесту.

Результати у другому тесті вершинного текстурування "Waves" зовсім не схожі на те, що ми бачили на попередніх діаграмах. Швидкісні показники всіх Geforce у цьому тесті серйозно погіршилися, і нова модель Nvidia Geforce GTX Titan X показує швидкість лише трохи швидше за GTX 980, відстаючи від двочіпової Titan Z. Якщо порівнювати новинку з конкурентами, то обидві плати Radeon змогли показати кращу продуктивність у цьому тесті всіх режимах. Розглянемо другий варіант цього завдання:

З ускладненням завдання у другому тесті текстурних вибірок швидкість всіх рішень стала нижчою, але відеокарти Nvidia постраждали сильніше, у тому числі і модель, що розглядається. У висновках майже нічого не змінюється, нова модель Geforce GTX Titan X до 10-30% швидше, ніж GTX 980, відставши і від двочіпової Titan Z, і від обох плат Radeon. Далеко попереду в цих тестах виявилася Radeon R9 295X2, і з точки зору теорії це незрозуміло нічим, крім недостатньої оптимізації від Nvidia.

3DMark Vantage: тести Feature

Синтетичні випробування з пакету 3DMark Vantage покажуть нам те, що ми раніше пропустили. Feature тести з цього тестового пакета мають підтримку DirectX 10, досі актуальні та цікаві тим, що відрізняються від наших. При аналізі результатів новітньої відеокарти моделі Geforce GTX Titan X у цьому пакеті ми зробимо якісь нові та корисні висновки, що вислизнули від нас у тестах із пакетів сімейства RightMark.

Feature Test 1: Texture Fill

Перший тест вимірює продуктивність блоків текстурних вибірок. Використовується заповнення прямокутника значеннями, які зчитуються з маленької текстури з використанням численних текстурних координат, які змінюються кожен кадр.

Ефективність відеокарт AMD та Nvidia у текстурному тесті компанії Futuremark досить висока та підсумкові цифри різних моделей близькі до відповідних теоретичних параметрів. Так, різниця у швидкості між GTX Titan X і GTX 980 виявилася рівною 38% на користь рішення на базі GM200, що близько до теорії, адже у новинки в півтора рази більше блоків TMU, але вони працюють на меншій частоті. Звичайно, відставання від двочіпової GTX Titan Z залишається, тому що два GPU мають велику швидкість текстурування.

Що стосується порівняння швидкості текстурування нової топової відеоплати Nvidia з близькими за ціною рішеннями конкурента, то тут новинка поступається двочиповому супернику, який є умовним сусідом у ціновій ніші, зате випереджає Radeon R9 290X, хоч і не надто суттєво. Все-таки з текстурування відеокарти компанії AMD досі справляються трохи краще.

Feature Test 2: Color Fill

Друге завдання – тест швидкості заповнення. У ньому використовується дуже простий піксельний шейдер, який не обмежує продуктивність. Інтерполіроване значення кольору записується у позаекранний буфер (render target) з використанням альфа-блендінгу. Використовується 16-бітний позаекранний буфер формату FP16, що найчастіше використовується в іграх, що застосовують HDR-рендеринг, тому такий тест є цілком своєчасним.

Цифри другого підтесту 3DMark Vantage показують продуктивність блоків ROP, без урахування величини пропускної спроможності відеопам'яті (т.н. «ефективний філлрейт»), і тест вимірює саме продуктивність ROP. Розглянута нами сьогодні плата Geforce GTX Titan X помітно випередила обидві плати Nvidia, і GTX 980 і навіть GTX Titan Z, обігнавши одночипову плату на базі GM204 аж на 45% - кількість блоків ROP та ефективність їх роботи в топовому GPU архітектури Maxwell відмінна!

Та й якщо порівнювати швидкість заповнення сцени новою відеокартою Geforce GTX Titan X з відеокартами AMD, то розглянута нами плата Nvidia в цьому тесті показує кращу швидкість заповнення сцени навіть у порівнянні з найпотужнішою двочіповою Radeon R9 295X2, не кажучи вже про Radeon R9, що добряче відстала. Велика кількість блоків ROP та оптимізації ефективності стиснення даних буфера кадру зробили свою справу.

Feature Test 3: Parallax Occlusion Mapping

Один із найцікавіших feature-тестів, оскільки подібна техніка вже використовується в іграх. У ньому малюється один чотирикутник (точніше, два трикутники) із застосуванням спеціальної техніки Parallax Occlusion Mapping, що імітує складну геометрію. Використовуються досить ресурсомісткі операції з трасування променів та карта глибини великої роздільної здатності. Також ця поверхня затінюється за допомогою важкого алгоритму Strauss. Це тест дуже складного та важкого для відеочіпа піксельного шейдера, що містить численні текстурні вибірки при трасуванні променів, динамічні розгалуження та складні розрахунки освітлення Strauss.

Цей тест із пакету 3DMark Vantage відрізняється від проведених нами раніше тим, що результати в ньому залежать не тільки від швидкості математичних обчислень, ефективності виконання розгалужень або швидкості текстурних вибірок, а від кількох параметрів одночасно. Для досягнення високої швидкості в цьому завданні важливим є правильний баланс GPU, а також ефективність виконання складних шейдерів.

В даному випадку, важлива і математична і текстурна продуктивність, і в цій «синтетиці» з 3DMark Vantage нова плата Geforce GTX Titan X виявилася більш ніж на третину швидше, ніж модель, заснована на базі графічного процесора тієї ж архітектури Maxwell. І навіть двочіповий Kepler у вигляді GTX Titan Z виграв у новинки не більше 10%.

Одночипова топова плата Nvidia в цьому тесті показала результат явно краще, ніж у одночипової Radeon R9 290X, але обидві дуже серйозно програють двочіпової моделі Radeon R9 295X2. Графічні процесори виробництва компанії AMD у цьому задачі працюють дещо ефективніше за чіпи Nvidia, а у R9 295X2 їх цілих два.

Feature Test 4: GPU Cloth

Четвертий тест цікавий тим, що розраховує фізичну взаємодію (імітація тканини) за допомогою відеочіпа. Використовується вершинна симуляція, за допомогою комбінованої роботи вершинного та геометричного шейдерів, з кількома проходами. Використовується stream out для перенесення вершин одного проходу симуляції до іншого. Таким чином, тестується продуктивність виконання вершинних та геометричних шейдерів та швидкість stream out.

Швидкість рендерингу в цьому тесті також залежить відразу від декількох параметрів, і основними факторами впливу повинні бути продуктивність обробки геометрії та ефективність виконання геометричних шейдерів. Тобто, сильні сторони чіпів Nvidia повинні проявлятися, але на жаль - ми побачили дуже дивний результат (перевіряли ще раз), нова відеокарта Nvidia показала не дуже високу швидкість, м'яко кажучи. Geforce GTX Titan X у цьому підтесті показала результат гірше за всі рішення, відставши майже на 20% навіть від GTX 980!

Та й порівняння з платами Radeon у цьому тесті так само непривабливе для новинки. Незважаючи на теоретично меншу кількість геометричних виконавчих блоків та відставання по геометричній продуктивності у чіпів AMD, у порівнянні з конкуруючими рішеннями, обидві плати Radeon у цьому тесті працюють дуже ефективно та обганяють усі три плати Geforce, представлені порівняно. Знову схоже на брак оптимізації драйверів Nvidia під конкретне завдання.

Feature Test 5: GPU Particles

Тест фізичної симуляції ефектів з урахуванням систем частинок, розрахованих з допомогою відеочіпа. Також використовується вершинна симуляція, кожна вершина є одиночною частинкою. Stream out використовується з тією ж метою, що й у попередньому тесті. Розраховується кілька сотень тисяч частинок, всі анімуються окремо, також розраховуються зіткнення з картою висот.

Аналогічно одному з тестів нашого RightMark3D 2.0 частки малюються за допомогою геометричного шейдера, який з кожної точки створює чотири вершини, що утворюють частинку. Але тест найбільше завантажує шейдерні блоки вершинними розрахунками, а також тестується stream out.

У другому "геометричному" тесті з 3DMark Vantage ситуація серйозно змінилася, цього разу всі Geforce вже показують більш-менш нормальний результат, хоча двочіпова Radeon все одно залишилася в лідерах. Нова модель GTX Titan X працює на 24% швидше за свою сестру в особі GTX 980 і приблизно стільки ж відстає від двочіпової Titan Z на GPU минулого покоління.

Порівняння новинки Nvidia з конкуруючими відеокартами від компанії AMD цього разу більш позитивне - вона показала результат між двома платами від компанії-суперника, і виявилася ближчою до Radeon R9 295X2, що має два GPU. Новинка значно випереджає Radeon R9 290X і це чітко показує нам, наскільки різними можуть бути два як би схожі тести: імітації тканин і симуляції системи частинок.

Feature Test 6: Perlin Noise

Останній feature-тест пакету Vantage є математично-інтенсивним тестом відеочіпа, він розраховує кілька октав алгоритму Perlin noise у піксельному шейдері. Кожен колірний канал використовує свою функцію шуму для більшого навантаження на відеочіп. Perlin noise - це стандартний алгоритм, який часто застосовується в процедурному текстуровані, він використовує багато математичних обчислень.

І тут продуктивність рішень не зовсім відповідає теорії, хоч і близька до того, що ми бачили в аналогічних тестах. У математичному тесті з пакету компанії Futuremark, що показує пікову продуктивність відеочіпів у граничних завданнях, ми бачимо інший розподіл результатів, порівняно зі схожими тестами нашого тестового пакета.

Ми давно знаємо, що відеочіпи компанії AMD з архітектурою GCN досі справляються з подібними завданнями краще за рішення конкурента, особливо в тих випадках, коли виконується інтенсивна «математика». Але нова топова модель компанії Nvidia заснована на великому чіпі GM200, і тому Geforce GTX Titan X у даному тесті показала результат помітно вищий, ніж Radeon R9 290X.

Якщо порівнювати новинку з кращою моделлю сімейства Geforce GTX 900, то в цьому тесті різниця між ними склала майже 40% — на користь відеокарти, що розглядається сьогодні, звичайно. Це також близько до теоретичної різниці. Непоганий результат для Titan X, лише двочіпова Radeon R9 295X2 виявилася попереду, причому далеко попереду.

Direct3D 11: Обчислювальні шейдери

Щоб протестувати нещодавно випущене топове рішення компанії Nvidia у завданнях, що використовують такі можливості DirectX 11, як тесселяція та обчислювальні шейдери, ми скористалися прикладами з пакетів для розробників (SDK) та демонстраційними програмами компаній Microsoft, Nvidia та AMD.

Спочатку ми розглянемо випробування, що використовують обчислювальні (Compute) шейдери. Їх поява - одне з найважливіших нововведень в останніх версіях DX API, вони вже використовуються в сучасних іграх для виконання різних завдань: постобробки, симуляцій і т. п. У першому тесті показаний приклад HDR-рендерингу з tone mapping з DirectX SDK, з постобробкою , що використовує піксельні та обчислювальні шейдери.

Швидкість розрахунків у обчислювальному та піксельному шейдерах для всіх плат AMD та Nvidia приблизно однакова, відмінності спостерігалися лише у відеокарт на основі GPU попередніх архітектур. Судячи з наших попередніх тестів, результати завдання часто залежать не стільки від математичної потужності та ефективності обчислень, скільки від інших факторів, на кшталт пропускної здатності пам'яті.

В даному випадку, нова топова відеокарта за швидкістю випереджає одночіпові варіанти Geforce GTX 980 і Radeon R9 290X, але відстає від двочіпової R9 295X2, що цілком зрозуміло, адже вона має потужність пари R9 290X. Якщо порівнювати новинку з Geforce GTX 980, то плата каліфорнійської компанії, що розглядається сьогодні, на 34-36% швидше - точно по теорії.

Другий тест обчислювальних шейдерів також взятий з Microsoft DirectX SDK, в ньому показано розрахункове завдання гравітації N-тел (N-body) - симуляція динамічної системи частинок, на яку впливають фізичні сили, такі як гравітація.

У цьому тесті найчастіше спостерігається наголос на швидкість виконання складних математичних обчислень, обробки геометрії та ефективність виконання коду з розгалуженнями. І в цьому DX11-тесті розклад сил між рішеннями двох різних компаній вийшов зовсім інший - явно на користь відеоплат Geforce.

Втім, результати кількох рішень компанії Nvidia на різних чіпах теж дивні — Geforce GTX Titan X і GTX 980 майже рівні, їх розділяє лише 5% різниці у продуктивності. Двочіповий рендеринг у цьому завданні не працює, тому суперники (одночипова та двочіпова модель Radeon) приблизно рівні за швидкістю. Ну а GTX Titan X випереджає їх втричі. Схоже, що це завдання значно ефективніше розраховується на графічних процесорах саме архітектури Maxwell, що ми відзначали і раніше.

Direct3D 11: Продуктивність тесселяції

Обчислювальні шейдери дуже важливі, але ще одним важливим нововведенням у Direct3D 11 вважається апаратна тесселяція. Ми дуже докладно розглядали її у своїй теоретичній статті про Nvidia GF100. Тесселяцію вже досить давно почали використовувати в DX11-іграх, таких як STALKER: Поклик Прип'яті, DiRT 2, Aliens vs Predator, Metro Last Light, Civilization V, Crysis 3, Battlefield 3 та інших. У деяких із них тесселяція використовується для моделей персонажів, в інших – для імітації реалістичної водної поверхні чи ландшафту.

Існує кілька різних схем розбиття графічних примітивів (тесселяції). Наприклад, фон tessellation, PN triangles, Catmull-Clark subdivision. Так, схема розбиття PN Triangles використовується в STALKER: Поклик Прип'яті, а в Metro 2033 - Phong tessellation. Ці методи порівняно швидко і просто впроваджуються в процес розробки ігор та існуючі двигуни, тому стали популярними.

Першим тестом тесселяції буде приклад Detail Tessellation з ATI Radeon SDK. У ньому реалізована не тільки тесселяція, а й дві різні техніки попіксельної обробки: просте накладання карт нормалей та parallax occlusion mapping. Що ж, порівняємо DX11-рішення AMD та Nvidia в різних умовах:

У тесті простого бампмапінгу швидкість плат не дуже важлива, так як це завдання давно стало занадто легким, а продуктивність у ньому упирається в ПСП або філлрейт. Сьогоднішній герой огляду на 23% випереджає попередню топову модель Geforce GTX 980 на базі чіпа GM204 і трохи поступається конкуренту у вигляді Radeon R9 290X. Двочіповий варіант ще трохи швидше.

У другому підтесті з складнішими попіксельними розрахунками новинка стала вже на 34% швидше за модель Geforce GTX 980, що ближче до теоретичної різниці між ними. Зате Titan X цього разу вже трохи швидше за одночиповий умовний конкурент на базі одиночного Hawaii. Так як два чіпи у складі Radeon R9 295X2 працюють відмінно, то це завдання виконується на ньому ще швидше. Хоча ефективність виконання математичних обчислень у піксельних шейдерах у чіпів архітектури GCN вища, але вихід рішень архітектури Maxwell покращив позиції рішень Nvidia.

У підтесті із застосуванням легкого ступеня тесселяції анонсована нещодавно плата Nvidia знову лише на чверть швидше за модель Geforce GTX 980 - можливо, швидкість упирається в пропускну здатність пам'яті, так як текстурування в цьому тесті майже не впливає. Якщо порівнювати новинку з платами від AMD у цьому підтесті, то плата Nvidia знову поступається обом Radeon, тому що в цьому тесті тесселяції розбиття трикутників дуже помірне і геометрична продуктивність не обмежує загальну швидкість рендерингу.

Другим тестом продуктивності тесселяції буде ще один приклад для 3D-розробників ATI Radeon SDK - PN Triangles. Власне, обидва приклади входять також і до складу DX SDK, тому ми впевнені, що на їх основі створюють свій код ігрові розробники. Цей приклад ми протестували з різним коефіцієнтом розбиття (tessellation factor), щоб зрозуміти, як сильно впливає його зміна на загальну продуктивність.

У цьому вся тесті застосовується вже складніша геометрія, тому порівняння геометричної потужності різних рішень приносить інші висновки. Представлені в матеріалі сучасні рішення досить добре справляються з легким та середнім геометричним навантаженням, показуючи високу швидкість. Але хоча в легких умовах графічні процесори Hawaii у складі Radeon R9 290X і R9 295X2 у кількості однієї та двох штук добре працюють, у важких режимах плати Nvidia виходять далеко вперед. Так, у найскладніших режимах представлена ​​сьогодні Geforce GTX Titan X показує швидкість вже помітно краще, ніж двочіповий Radeon.

Що стосується порівняння плат Nvidia на чіпах GM200 і GM204 між собою, то модель Geforce GTX Titan X нарощує перевагу зі зростанням геометричного навантаження, оскільки в легкому режимі все впирається в ПСП. В результаті новинка випереджає плату Geforce GTX 980 в залежності від складності режиму до 31%.

Розглянемо результати ще одного тесту – демонстраційної програми Nvidia Realistic Water Terrain, також відомої як Island. У цій демці використовується тесселяція і карти зміщення (displacement mapping) для рендерингу поверхні океану і ландшафту, що реалістично виглядає.

Тест Island не є чисто синтетичним тестом для вимірювання виключно геометричної продуктивності GPU, так як він містить і складні піксельні та обчислювальні шейдери в тому числі, і таке навантаження ближче до реальних ігор, в яких використовуються всі блоки GPU, а не тільки геометричні, як у Попередні тести геометрії. Хоча основний все одно залишається саме навантаження на блоки обробки геометрії, але може впливати та сама ПСП, наприклад.

Ми тестуємо всі відеоплати при чотирьох різних коефіцієнтах тесселяції - в даному випадку налаштування називається Dynamic Tessellation LOD. При першому коефіцієнті розбиття трикутників швидкість не обмежена продуктивністю геометричних блоків, і відеокарти Radeon показують досить високий результат, особливо двочипова R9 295X2, навіть перевершуючий результат анонсованої плати Geforce GTX Titan X, але вже на наступних щаблях геометричного навантаження. Nvidia виходять уперед.

Перевага нової плати Nvidia на відеочіпі GM200 над суперниками у таких тестах вже дуже пристойна, і навіть багаторазова. Якщо порівняти Geforce GTX Titan X з GTX 980, то різниця між їх продуктивністю сягає 37-42%, що добре пояснюється теорією і точно їй відповідає. Графічні процесори Maxwell помітно ефективніше працюють у режимі змішаного навантаження, швидко перемикаючись від виконання графічних завдань до обчислювальних та назад, і Titan X у цьому тесті набагато швидший навіть двочіповий Radeon R9 295X2.

Проаналізувавши результати синтетичних тестів нової відеокарти Nvidia Geforce GTX Titan X, заснованої на новому топовому графічному процесорі GM200, а також розглянувши і результати інших моделей відеокарт від обох виробників дискретних відеочіпів, можна зробити висновок про те, що відеокарта, що розглядається сьогодні, повинна стати найшвидшою на ринку, склавши конкуренцію найсильнішої двочіпової відеокарти від компанії AMD. Загалом, це непоганий послідовник моделі Geforce GTX Titan Black – найпотужніший одночіп.

Нова відеокарта компанії Nvidia показує досить сильні результати у «синтетиці» — у багатьох тестах, хоч і не у всіх. У Radeon та Geforce традиційно різні сильні сторони. У великій кількості тестів два графічні процесори у складі моделі Radeon R9 295X2 виявилися швидше, у тому числі через більшу підсумкову пропускну здатність пам'яті та швидкість текстурування з дуже ефективним виконанням обчислювальних завдань. Але в інших випадках топовий графічний процесор архітектури Maxwell відіграється, особливо в геометричних тестах та прикладах з тесселяцією.

Втім, у реальних ігрових додатках все буде дещо інакше, в порівнянні з «синтетикою» і Geforce GTX Titan X повинен показати там швидкість помітно вище за рівень одночіпових Geforce GTX 980 і особливо Radeon R9 290X. А з двочіповою Radeon R9 295X2 новинку порівнювати складно - у систем на базі двох і більше GPU є свої неприємні особливості, хоча приріст середньої частоти кадрів за належної оптимізації вони забезпечують.

А ось архітектурні особливості та функціональність явно на користь преміального рішення Nvidia. Geforce GTX Titan X споживає набагато менше енергії, ніж той же Radeon R9 295X2, і за енергоефективністю нова модель компанії Nvidia дуже сильна - це особливість архітектури Maxwell. Не слід забувати про більшу функціональність новинки Nvidia: тут є підтримка рівня Feature Level 12.1 в DirectX 12, апаратне прискорення VXGI, новий спосіб згладжування MFAA та інші технології. Про ринковий погляд ми вже говорили в першій частині — в елітному сегменті від ціни залежить не так вже й багато. Головне, щоб рішення було максимально функціональним та продуктивним в ігрових додатках. Просто - було найкращим у всьому.

Саме для того, щоб оцінити швидкість новинки в іграх, в наступній частині нашого матеріалу ми визначимо продуктивність Geforce GTX Titan X у нашому наборі ігрових проектів і порівняємо її з показниками конкурентів, у тому числі оцінимо виправданість роздрібної ціни новинки з точки зору ентузіастів, а також дізнаємося, наскільки вона швидше за Geforce GTX 980 вже в іграх.

Монітор Asus ProArt PA249Q для робочого комп'ютера надано компанією Asustek Клавіатура Cougar 700K для робочого комп'ютера надана компанією Cougar

Поява великого GPU на базі архітектури Maxwell було неминуче, питання лише в тому, коли це станеться і в якій формі. У результаті виправдалося припущення, що GM200 повторить шлях свого аналога із сімейства Kepler - GK110, дебютувавши у складі прискорювача під маркою TITAN.

NVIDIA GeForce GTX TITAN X

Часу на тестування нової відеокарти цього разу було дуже мало, тому огляд буде стислим. Відкинувши необов'язкові міркування, перейдемо одразу до справи. Архітектура Maxwell, в порівнянні з Kepler, характеризується спрощеною та оптимізованою будовою потокових мультипроцесорів (SMM), що дозволило радикально зменшити площу SMM, зберігши 90% колишньої продуктивності. Крім того, GM200 належить до другої ітерації архітектури Maxwell, як і випущені раніше чіпи GM204 (GeForce GTX 970/980) та GM206 (GeForce GTX 960). А отже, має більш продуктивний геометричний двигун PolyMorph Engine версії 3.0 і підтримує на рівні «заліза» деякі обчислювальні функції, які, ймовірно, увійдуть у новий feature level Direct3D 12, а також необхідні для апаратного прискорення технології глобального освітлення VXGI, розробленої NVIDIA. За більш докладним описом архітектури Maxwell першого та другого покоління відсилаємо читачів до оглядів GeForce GTX 750 Ti та GeForce GTX 980.

Блок-схема графічного процесора NVIDIA GM200

Якісно графічний процесор GM200 і молодші GPU в лінійці не відрізняються один від одного, за винятком того, що тільки GM206 має виділений блок декодування відео, стиснутого за стандартом H.265 (HEVC). Відмінності суто кількісні. GM200 включає безпрецедентне число транзисторів - 8 млрд, тому обчислювальних блоків у ньому у півтора-два рази більше, ніж у GM204 (залежно від того, які саме рахувати). Крім того, повернулася в дію 384-бітна шина пам'яті. Порівняно з чіпом GK110 новий флагманський GPU не настільки жахливо могутній, але, наприклад, число ROP тут вдвічі більше, що робить GM200 відмінно підготовленим до 4К-дозвіл.

У плані підтримки обчислень подвійної точності GM200 нічим не відрізняється від GM204. Кожен SMX містить лише чотири ядра CUDA, сумісні з FP64, тому сукупна продуктивність при такому навантаженні становить 1/32 від FP32.

⇡ Технічні характеристики, ціна

У TITAN X використовується найпотужніша версія ядра GM200 з повним набором активних обчислювальних блоків. Базова частота GPU становить 1000 МГц, Boost Clock - 1076 МГц. Пам'ять працює на стандартній для продуктів на базі Maxwell частоті 7012 МГц. А ось об'єм небачений для ігрових відеокарт – 12 Гбайт (а TITAN X – це в першу чергу ігрова відеокарта, принаймні до появи GM200 в основній, «номерній» лінійці GeForce).

Рекомендовані роздрібні ціни на TITAN X були оголошені в останні години перед публікацією огляду. Для ринку США встановлено ціну 999 доларів — стільки ж, скільки свого часу коштував перший TITAN на базі GK110.

Прим.:ціни в таблиці для GeForce GTX 780 Ti та TITAN Black наведені на момент зняття з виробництва останніх.

Модель

Графічний процесор

Відеопам'ять

TDP, Вт

РРЦ* на ринку США (без податків), $

Кодова назва

Число транзисторів, млн

Тактова частота, МГц: Base Clock / Boost Clock

Число ядер CUDA

Число текстурних блоків

Розрядність шини, біт

Тип мікросхем

Тактова частота: реальна (ефективна), МГц

Об'єм, Мбайт

GeForce GTX 780 Ti

GeForce GTX TITAN Black

GeForce GTX 980

GeForce GTX TITAN X

⇡ Конструкція

Починаючи з самого першого «Титану» NVIDIA використовує в топових відеокартах, з деякими варіаціями, ту саму систему охолодження. TITAN X виділяється серед своїх попередників тільки абсолютно чорним корпусом (лише дві вставки на боках залишилися незабарвленими).

NVIDIA GeForce GTX TITAN X

Задня пластина, якою в порядку експерименту оснастили GeForce GTX 980, TITAN X знову відсутня, незважаючи на те, що на зворотному боці плати розпаяна частина мікросхем пам'яті. Хоча чіпам GDDR5 додаткове охолодження, загалом, і не потрібне.

NVIDIA GeForce GTX TITAN X, задній вид

Зате повернувся радіатор з випарною камерою, який GTX 980 був замінений більш простим варіантом.

NVIDIA GeForce GTX TITAN X, система охолодження

NVIDIA GeForce GTX TITAN X, система охолодження

NVIDIA GeForce GTX TITAN X, система охолодження

Відеокарта має три роз'єми DisplayPort і по одній штуці - HDMI і Dual-Link DVI-I.

⇡ Плата

Дизайн друкованої плати, що зовсім не дивно, викликає асоціацію із серією відеоадаптерів на чіпі GK110. Перетворювач напруги побудований за схемою 6+2 (число фаз для живлення GPU та мікросхем пам'яті відповідно). Живлення подається через один восьмиконтактний та один шестиконтактний роз'єм. А ось контролер живлення графічного процесора ON Semiconductor NCP81174 ми бачимо тут вперше.

24 мікросхеми пам'яті SK hynix H5GQ4H24MFR-R2C зі штатною частотою 7 ГГц розташовані по обидва боки плати.

NVIDIA GeForce GTX TITAN X, друкована плата, передня сторона

NVIDIA GeForce GTX TITAN X, друкована плата, задня сторона

Тестовий стенд, методика тестування

Енергозберігаючі технології CPU у всіх тестах відключені. У налаштуваннях драйвера NVIDIA як процесор для обчислення PhysX вибирається CPU. У драйверах AMD параметр Tesselation переводиться зі стану AMD Optimized у Use application settings.

Бенчмарки: синтетичні
Програма Налаштування Розширення
3DMark 2011 Тест Extreme - -
3DMark Тест Fire Strike (не Extreme) - -
Unigine Heaven 4 DirectX 11, макс. якість, тесселяція в режимі Extreme AF 16x, MSAA 4x 1920 × 1080 / 2560 × 1440
Бенчмарки: ігри
Програма Налаштування Анізотропна фільтрація, повноекранне згладжування Розширення
Far Cry 3 + FRAPS DirectX 11, макс. якість, HDAO. Початок місії Secure the Outpost AF, MSAA 4x 2560 × 1440/3840 × 2160
Tomb Raider. Вбудований бенчмарк Макс. якість AF 16x, SSAA 4x 2560 × 1440/3840 × 2160
Bioshock Infinite. Вбудований бенчмарк Макс. якість. Postprocessing: Normal AF 16x, FXAA 2560 × 1440/3840 × 2160
Crysis 3 + FRAPS Макс. якість. Початок місії Post Human AF 16x, MSAA 4x 2560 × 1440/3840 × 2160
Metro: Last Light. Вбудований бенчмарк Макс. якість AF 16x, SSAA 4x 2560 × 1440/3840 × 2160
Company of Heroes 2. Вбудований бенчмарк Макс. якість AF, SSAA 4x 2560 × 1440/3840 × 2160
Battlefield 4 + FRAPS Макс. якість. Початок місії Tashgar AF 16x, MSAA 4x + FXAA 2560 × 1440/3840 × 2160
Thief. Вбудований бенчмарк Макс. якість AF 16x, SSAA 4x + FXAA 2560 × 1440/3840 × 2160
Alien: Isolation Макс. якість AF 16x, SMAA T2X 2560 × 1440/3840 × 2160

Учасники тестування

У тестуванні продуктивності взяли участь такі відеокарти:

  • NVIDIA GeForce GTX TITAN X (1000/7012 МГц, 12 Гбайт);

⇡ Тактові частоти, енергоспоживання, температура, розгін

GM110 працює на базовій частоті, до якої ніколи не піднімався GK110 у референсних специфікаціях. Крім того, GPU Boost діє дуже агресивно, піднімаючи частоту до 1177 МГц. При цьому процесор задовольняється напругою 1,174 - нижчим щодо топових продуктів на базі GK110.

Налаштування BIOS дозволяють збільшити ліміт потужності до 110% та додати 83 мВ до максимальної напруги на GPU. Насправді напруга піднімається лише до 1,23, але одночасно відкриваються кілька додаткових сходинок частоти/VID: різниця між базовою частотою і максимальною частотою, зареєстрованою в динаміці, зростає до 203 МГц.

Розгін відеокарти дозволив досягти базової частоти 1252 МГц, а динаміці спостерігалися частоти до 1455 МГц. Відеопам'ять змогла додати 1,2 ГГц, успішно працюючи на ефективній частоті 8212 МГц.

Base Clock, МГц Макс. Boost Clock, МГц Base Clock, МГц (розгін) Макс. зареєстрована Boost Clock, МГц (розгін)
GeForce GTX TITAN X 1000 1177 (+177) 1252 1455 (+203)
GeForce GTX 980 1127 1253 (+126) 1387 1526 (+139)
GeForce GTX TITAN Black 889 1032 (+143) 1100 1262 (+162)
GeForce GTX TITAN 836 1006 (+145) 966 1150 (+184)
GeForce GTX 780 Ti 876 1020 (+144) 986 1130 (+144)
GeForce GTX 780 863 1006 (+143) 1053 1215 (+162)
GeForce GTX 770 1046 1176 (+130) 1190 1333 (+143)

По енергоспоживання TITAN X близький до GTX 780 Ti і набагато перевершує GTX 980. Всупереч очікуванням, у Crysis 3 немає істотної різниці між TITAN X і Radeon R9 290X, а ось у FurMark R9 290X (як і R9 280X) X.

Розгін TITAN X підвищує потужність на 5-25 Вт залежно від того, на результати якого тесту спиратися - FurMark або Crysis 3.

Максимальна температура, яка допустима для GPU, визначається налаштуваннями BIOS, тому TITAN X не виходить за рамки встановлених 83 ° C. При цьому турбіна системи охолодження розкручується на 49% від максимальної швидкості - до 2339 об/хв. На перший погляд, це досить багато, але насправді шум від кулера цілком прийнятний.

⇡ Продуктивність: синтетичні тести

  • TITAN X вражає з першого ж тесту. Порівняно з GTX 780 Ti та Radeon R9 290X відеокарта у півтора рази продуктивніша.
  • З Radeon R9 280X і GeForce GTX 770 - адаптерами на базі колись топових GPU - різниця більш ніж дворазова.

  • Все вищесказане справедливе та для 3DMark 2013 року.

Unigine Heaven 4

  • TITAN X зберігає перевагу близько 50% перед GTX 780 Ti та Radeon R9 290X при роздільній здатності WQHD. До речі, на відміну від 3DMark, GTX 980 у цьому тесті анітрохи не кращий за GTX 780 Ti.
  • При дозволі Ultra HD раніше випущені відеоадаптери скоротили відстань, та все ж TITAN X на голову перевершує всіх суперників.

⇡ Продуктивність: ігри

На цей раз ми відступимо від стандартної форми опису ігрових тестів. Розписувати для кожної гри, яка відеокарта швидше, у випадку з TITAN X абсолютно безглуздо. У всіх іграх новий «Титан» із колосальним відривом випереджає суперників. Кількісні показники прагнуть до формули: TITAN X на 30-50% швидше, ніж GeForce GTX 780 Ti і Radeon R9 290X, і часто вдвічі швидше в порівнянні з Radeon R9 280X і GeForce GTX 770. чи інший бік. Крім того, є унікальний випадок: TITAN X насолоджується частотою зміни кадрів 24 FPS у Far Cry 4 при роздільній здатності Ultra HD і згладжуванні MSAA 4x, у той час як суперники не можуть вибратися з ями в 5-7 FPS (а GeForce GTX 770 - і того менше). Тут, мабуть, «Титану» став у нагоді обсяг пам'яті в 12 Гбайт, і навіть 4 Гбайт, якими оснащений Radeon R9 290X, для таких налаштувань у FC4 недостатньо.

Tomb Raider

Bioshock Infinite

Crysis 3

⇡ Продуктивність: обчислення

Декодування відео (DXVA Checker, Decode Benchmark)

  • Виділений декодер H.264 у GM200 такий самий, як і в інших чіпах сімейства Maxwell. Продуктивності його більш ніж достатньо для відтворення відео з роздільною здатністю до Ultra HD і частотою зміни кадрів 60 Гц і вище.
  • Серед дискретних відеоадаптерів AMD подібним може похвалитися тільки Radeon R9 285. GeForce GTX 780 Ti здатний видати до 35 FPS при роздільній здатності 3840×2160.
  • CPU з 6-8 ядрами x86 краще підходять для швидкого декодування з метою конвертації відео, проте блок фіксованої функціональності виконує цю роботу з меншим енергоспоживанням, та й нарешті просто дається в навантаження до найпотужнішого GPU.

  • Єдиним GPU з повністю апаратним декодуванням H.265 є GM206 у складі GeForce GTX 960. Інші представники архітектури Maxwell, а також Kepler частину операцій виконують на конвеєрі декодера H.264. Решта лягає на центральний процесор.
  • Продуктивності всіх цих адаптерів при хорошому CPU цілком достатньо для відтворення відео з будь-якою розумною роздільною здатністю та частотою зміни кадрів. Для роботи на швидкість найкраще підходить GTX 960 або потужний CPU.

Luxmark: Room (Complex Benchmark)

  • Архітектура Maxwell у цьому завдання демонструє дивовижний приріст продуктивності порівняно з Kepler, завдяки чому TITAN X подвоїв скромний результат GeForce GTX 780 Ti та залишив далеко позаду Radeon R9 290X. Втім, це ще не означає, що результати LuxMark є репрезентативними щодо будь-яких завдань трасування променів.
  • Різниця між TITAN X та GeForce GTX 980 не така величезна, як у ігрових тестах.

Sony Vegas Pro 13

  • Відеоадаптери AMD зберігають лідерство у задачі рендерингу відео. А TITAN X нічим не виділяється у групі найпродуктивніших пристроїв NVIDIA.

CompuBench CL: Ocean Surface Simulation

  • TITAN X забирає пальму першості у Radeon R9 290X і компенсує невдачу GeForce GTX 980, якому цей тест дається напрочуд важко.

CompuBench CL: Particle Simulation

  • Тут, навпаки, GTX 980 зробив великий крок уперед від GTX 780 Ti, а TITAN X закріпив успіх. Radeon R9 290X не йде в жодне порівняння з флагманом NVIDIA.

SiSoftware Sandra 2015: Scientific Analysis

  • В умовах подвійної точності (FP64) прискорювачі AMD, як і раніше, не знають рівних, і навіть Radeon R9 280X на базі далеко не нового GPU може дати фору TITAN X.
  • Серед "зелених" TITAN X передбачувано лідирує за продуктивністю в FP64, особливо в порівнянні з відверто слабким GTX 980.
  • У обчисленнях FP32 TITAN X різко виділяється із усіх відеокарт NVIDIA. Лише вона забезпечує рівень продуктивності, який можна порівняти з таким у Radeon R9 290X.

⇡ Висновки

Якщо зважити, що виробництво дискретних GPU все ще залишається в рамках техпроцесу 28 нм, результати GeForce GTX TITAN X виглядають просто фантастично. При такому ж TDP, як відеоадаптерів на базі GK110, TITAN X досягає 130-150% швидкодії таких прискорювачів, як GTX 780 Ti і Radeon R9 290X. Якщо взяти перші 28-нанометрові GPU - GK104 (GTX 680, GTX 770) і Radeon R9 280X, то TITAN X часто перевершує їх вдвічі.

TITAN X, як і його попередники на цій позиції, надзвичайно дорогий для відеокарти на одиночному GPU. Позиціонування не змінилося порівняно із попередніми «Титанами». По-перше, це альтернатива SLI-конфігураціям з двох дискретних GeForce GTX 980: нехай потенційна продуктивність тандему вище, одиночний GPU має більш передбачувану швидкодію. По-друге, компактні ПК, у яких немає місця для двох відеокарт. І, нарешті, неграфічні обчислення (GP-GPU). Хоча продуктивність FP64 GM200 обмежена 1/32 від продуктивності FP32, TITAN X частково компенсує це обмеження грубою силою GPU. Крім того, обчислення FP32 переважають у «просьюмерський»навантаженні (той самий Ray Tracing, прискорення рендерингу відео), а в цій дисципліні GM200 щонайменше не поступається кращим продуктам AMD, а часто і перевершує так само, як у ігрових тестах.

Представляємо базовий детальний матеріал із дослідженням Nvidia Geforce GTX Titan X.

Об'єкт дослідження: Прискорювач тривимірної графіки (відеокарта) Nvidia Geforce GTX Titan X 12288 МБ 384-бітної GDDR5 PCI-E

Відомості про розробника: Компанія Nvidia Corporation (торгова марка Nvidia) заснована у 1993 році в США. Штаб-квартира у Санта-Кларі (Каліфорнія). Розробляє графічні процесори, технології. До 1999 року основною маркою була Riva (Riva 128/TNT/TNT2), з 1999 року і до теперішнього часу – Geforce. У 2000 році було придбано активи 3dfx Interactive, після чого торгові марки 3dfx/Voodoo перейшли до Nvidia. Свого виробництва немає. Загальна кількість співробітників (включаючи регіональні офіси) близько 5000 осіб.

Частина 1: Теорія та архітектура

Як ви вже знаєте, ще в середині минулого місяця компанія Nvidia випустила нову топову відеокарту під назвою Geforce GTX Titan X, яка стала найпотужнішою на ринку. У нас відразу ж вийшов докладний огляд цієї новинки, але він містив лише практичні дослідження, без теоретичної частини і синтетичних тестів. Так вийшло через різні обставини, у тому числі від нас, що не залежать. Але сьогодні ми виправляємо цей недолік і дуже докладно розглянемо березневу новинку – за місяць не сталося нічого такого, щоб вона втратила актуальність.

Ще в далекому 2013 році Nvidia випустила перше рішення нової марки відеокарт Geforce GTX Titan, названого на ім'я суперкомп'ютера в Окріджській національній лабораторії. Перша модель нової лінійки встановила нові рекорди як за продуктивністю, так і за ціною - рекомендована ціна для ринку США була встановлена ​​в $999. Це була перша елітна відеокарта серії Titan, яка потім продовжилася не найпопулярнішою двочіповою Titan Z та прискореною Titan Black, що отримала повністю розблокований графічний процесор GK110 ревізії B.

І ось навесні 2015 настав час для ще однієї новинки Nvidia з «титанової» преміальної серії. Вперше GTX Titan X була показана президентом компанії Дженсеном Хуангом на ігровій конференції для розробників GDC 2015 на заході з ігрового двигуна Epic Unreal Engine. По суті, ця відеокарта в будь-якому разі незримо брала участь на шоу, будучи встановленою у багато демостенди, але Дженсен представив її офіційно.

До виходу Geforce GTX Titan X, найшвидшою одночіповою відеокартою була Geforce GTX 980, заснована на чіпі GM204 тієї ж графічної архітектури Maxwell, представленому у вересні минулого року. Ця модель є дуже енергоефективною, забезпечуючи пристойну обчислювальну потужність при споживанні лише 165 Вт енергії - тобто, вона вдвічі більш енергоефективна порівняно з попереднім поколінням Geforce.

При цьому GPU архітектури Maxwell підтримують майбутній DirectX 12 (включаючи Feature Level 12.1) та інші новітні графічні технології компанії: імітацію глобального освітлення Nvidia Voxel Global Illumination (VXGI, про неї ми писали в статті по GTX 980), новий метод AA (MFAA), динамічна підвищена роздільна здатність Dynamic Super Resolution (DSR) та ін. Поєднання продуктивності, енергоефективності та можливостей зробило чіп GM204 найкращим просунутим графічним процесором на момент його виходу.

Але все колись змінюється, і на заміну GPU з 2048 обчислювальними ядрами та 128 текстурними модулями прийшов новий графічний процесор на основі цієї ж архітектури Maxwell другого покоління (перше ми пам'ятаємо за чіпом GM107, на якому заснована відеокарта Geforce GTX 75 ж можливостями, але вже з 3072 обчислювальними ядрами CUDA і 192 текстурними блоками - все це запакували вже 8 мільярдів транзисторів. Зрозуміло, Geforce GTX Titan X відразу ж став найпотужнішим рішенням.

Насправді, топовий чіп другого покоління Maxwell, який ми тепер знаємо під кодовим ім'ям GM200, був готовий Nvidia ще якийсь час до його анонсу. Просто не було особливого сенсу випускати ще одну топову модель відеокарти, коли навіть Geforce GTX 980 на основі GM204 чудово справлялася із завданням найшвидшої одночіпової відеокарти у світі. Компанія Nvidia якийсь час чекала виходу потужнішого рішення від AMD на базі GPU, виробленого з того ж 28 нм техпроцесу, але так і не дочекалася.

Ймовірно, щоб продукт зовсім не «прокис» без реальної конкуренції, його все ж таки вирішили випустити, закріпивши за собою звання компанії, що випускає найпотужніші GPU. І справді, чекати на рішення суперника сенсу не було, адже його відклали як мінімум до червня - стільки часу чекати просто невигідно. Ну а в разі чого, завжди можна випустити ще потужнішу відеокарту на основі цього ж графічного процесора, але працює на вищій частоті.

Але навіщо взагалі потрібні такі потужні рішення в епоху поширення мультиплатформенних ігор із досить середніми вимогами до потужності GPU? По-перше, дуже скоро повинні з'явитися перші ігрові програми, що використовують можливості DirectX 12, нехай навіть і мультиплатформні - адже ПК-версії таких додатків практично завжди пропонують якіснішу графіку, додаткові ефекти та текстури вищої роздільної здатності. По-друге, вже зараз вийшли DirectX 11 ігри, які можуть використати всі можливості найпотужніших GPU - на зразок Grand Theft Auto V, про яку ми докладніше розповімо нижче.

Важливо, що графічні рішення архітектури Maxwell від Nvidia повністю підтримують так званий рівень можливостей Feature Level 12.1 з DirectX 12 – максимальний відомий на даний момент. Компанія Nvidia вже давно надавала ігровим розробникам драйвери з підтримкою майбутньої версії DirectX, а тепер вони стали доступними і користувачам, які встановили Microsoft Windows 10 Technical Preview. Не дивно, що відеокарти Geforce GTX Titan X використовувалися для демонстрації можливостей DirectX 12 на ігровій конференції розробників Game Developers Conference, де модель і була вперше показана.

Оскільки модель відеокарти від компанії Nvidia, що розглядається, заснована на топовому графічному процесорі архітектури «Maxwell» другого покоління, яку ми вже розглядали і яка в деталях схожа з попередньою архітектурою «Kepler», то перед прочитанням даного матеріалу корисно ознайомитися з більш ранніми статтями про відеокарти компанії Nvidia:

  • Nvidia Geforce GTX 970 - Непогана заміна GTX 770
  • Nvidia Geforce GTX 980 - Послідовник Geforce GTX 680, який обганяє навіть GTX 780 Ti
  • Nvidia Geforce GTX 750 Ti - Maxwell починає з малого... незважаючи на Maxwell
  • Nvidia Geforce GTX 680 – новий однопроцесорний лідер 3D-графіки

Отже, розглянемо докладні характеристики відеоплати Geforce GTX Titan X, заснованої на графічному процесорі GM200.

Графічний прискорювач Geforce GTX Titan X
ПараметрЗначення
Кодове ім'я чіпаGM200
Технологія виробництва28 нм
Кількість транзисторівблизько 8 мільярдів.
Площа ядраблизько 600 мм.
АрхітектураУніфікована з масивом загальних процесорів для потокової обробки численних видів даних: вершин, пікселів та ін.
Апаратна підтримка DirectXDirectX 12, з підтримкою рівня можливостей Feature Level 12.1
Шина пам'яті384-бітна: шість незалежних контролерів пам'яті шириною по 64 біти з підтримкою GDDR5-пам'яті
Частота графічного процесора1000 (1075) МГц
Обчислювальні блоки24 потокових мультипроцесора, що включають 3072 скалярних ALU для розрахунків з плаваючою комою одинарної та подвійної точності (з темпом 1/32 від FP32) у рамках стандарту IEEE 754-2008;
Блоки текстурування192 блоки текстурної адресації та фільтрації з підтримкою FP16- та FP32-компонент у текстурах та підтримкою трилінійної та анізотропної фільтрації для всіх текстурних форматів
Блоки розтеризації (ROP)6 широких блоків ROP (96 пікселів) з підтримкою різних режимів згладжування, у тому числі програмованих і при FP16 або FP32 форматі буфера кадру. Блоки складаються з масиву конфігурованих ALU і відповідають за генерацію та порівняння глибини, мультисемплінг та блендинг
Підтримка моніторівІнтегрована підтримка до чотирьох моніторів, підключених за інтерфейсами Dual Link DVI, HDMI 2.0 та DisplayPort 1.2
Специфікації референсної відеокарти Geforce GTX Titan X
ПараметрЗначення
Частота ядра1000 (1075) МГц
Кількість універсальних процесорів3072
Кількість текстурних блоків192
Кількість блоків блендінгу96
Ефективна частота пам'яті7000 (4×1750) МГц
Тип пам'ятіGDDR5
Шина пам'яті384-біт
Обсяг пам'яті12 ГБ
Пропускна спроможність пам'яті336,5 ГБ/с
Обчислювальна продуктивність (FP32)до 7 терафлопс
Теоретична максимальна швидкість забарвлення96 гігапікселів/с
Теоретична швидкість вибірки текстур192 гігатекселів/с
ШинаPCI Express 3.0
Роз'ємиОдин роз'єм Dual Link DVI, один HDMI 2.0 та три DisplayPort 1.2
Енергоспоживаннядо 250 Вт
Додаткове харчуванняОдин 8-контактний та один 6-контактний роз'єми
Число слотів, що займають у системному корпусі2
Рекомендована ціна$999 (США), 74990 руб (Росія)

Нова модель Geforce GTX Titan X одержала найменування, що продовжує лінійку преміальних рішень Nvidia специфічного позиціонування - до нього просто додали літеру X. Новинка прийшла на заміну моделі Geforce GTX Titan Black, і в поточній продуктовій лінійці компанії знаходиться на самому верху. Вище її залишається хіба що двочіпова Geforce GTX Titan Z (хоча її вже можна і не згадувати), а нижче - одночіпові моделі GTX 980 і GTX 970. є найкращим за продуктивністю рішенням на ринку одночіпових відеокарт.

Розглянута модель компанії Nvidia зроблена на базі чіпа GM200, що має 384-бітну шину пам'яті, а пам'ять працює на частоті 7 ГГц, що дає пікову пропускну здатність в 336,5 ГБ/с - у півтора рази більше, ніж у GTX 980. Це дуже вражаюче значення, особливо якщо згадати нові методи внутрішньочипового стиснення інформації, що використовуються в Maxwell другого покоління, що допомагають використовувати наявну ПСП значно ефективніше, ніж GPU конкурента.

З такою шиною пам'яті, обсяг встановленої на відеокарту відеопам'яті міг бути 6 або 12 ГБ, але у разі елітної моделі було прийнято рішення щодо встановлення 12 ГБ, щоб продовжити тренд, заданий першими моделями GTX Titan. Цього більш ніж достатньо для запуску будь-яких 3D-додатків без огляду на параметри якості - такого об'єму відеопам'яті вистачить абсолютно для будь-якої існуючої гри в будь-якій роздільній здатності екрану та при будь-яких налаштуваннях якості, що робить відеокарту Geforce GTX Titan X особливо привабливою з видом на перспективу - її власник ніколи не зіткнеться з нестачею відеопам'яті.

Офіційна цифра енергоспоживання для Geforce GTX Titan X становить 250 Вт - стільки ж, що й інші одночіпові рішення елітної серії Titan. Цікаво, що 250 Вт приблизно на 50% більше в порівнянні з GTX 980, на стільки ж зросла кількість основних функціональних блоків. Жодних проблем досить високе споживання не приносить, референсний кулер чудово справляється з розсіюванням такої кількості тепла, а системи ентузіастів після GTX Titan і GTX 780 Ti давно готові до подібного рівня енергоспоживання.

Архітектура

Модель відеокарти Geforce GTX Titan X заснована на новому графічному процесорі GM200, який включає всі архітектурні можливості чіпа GM204, тому все сказане у статті GTX 980 відноситься повною мірою і до преміальної новинки - радимо ознайомитися спочатку з тим матеріалом, в якому більш повно розглянуті саме архітектурні особливості Maxwell.

Графічний процесор GM200 можна назвати екстремальною версією GM204, можливим у рамках технологічного процесу 28 нм. Новий чіп більше за розміром, значно швидше і вимогливіший до харчування. За даними компанії Nvidia, "великий Maxwell" включає 8 мільярдів транзисторів, які займають площу близько 600 мм 2 - тобто, це найбільший графічний процесор компанії. "Великий Maxwell" має на 50% більше потокових процесорів, на 50% більше блоків ROP і на 50% більшу ПСП, тому і має майже в півтора рази більшу площу.

Архітектурний відеочіп GM200 повністю відповідає молодшій моделі GM204, він також складається з кластерів GPC, в які зібрано по кілька мультипроцесорів SM. Топовий графічний процесор містить шість кластерів GPC, що складаються з 24 мультипроцесорів, всього він має 3072 обчислювальних CUDA ядер, а текстурні операції (вибірка та фільтрація) виробляються за допомогою 192 текстурних модулів. І при базовій частоті в 1 ГГц, продуктивність текстурних модулів становить 192 гігатекселя/сек, що більш ніж на третину перевищує аналогічну характеристику попередньої потужної відеокарти компанії Geforce GTX 980.

Мультипроцесор другого покоління Maxwell розбитий на чотири блоки CUDA-ядер по 32 штуки (загалом 128 ядер на SMM), кожен з яких має власні ресурси для розподілу команд, планування обробки та буферизації потоку інструкцій. Завдяки тому, що кожен обчислювальний блок має свої блоки диспетчера, обчислювальні CUDA-ядра використовуються більш ефективно, ніж Kepler, що також знижує і енергоспоживання GPU. Сам собою мультипроцесор порівняно з GM204 не змінився:

Для покращення ефективності використання кешів у GPU, було зроблено численні зміни у підсистемі пам'яті. Кожен з мультипроцесорів GM200 має виділені 96 КБ загальної пам'яті, а кеші першого рівня і текстур об'єднані в 24 КБ блоки - по два блоки в мультипроцесорі (всього 48 КБ на SMM). Графічні процесори попереднього покоління Kepler мали лише 64 КБ загальної пам'яті, яка виконувала функції кеш-пам'яті першого рівня. В результаті всіх змін ефективність CUDA-ядер Maxwell приблизно в 1,4 рази вище, ніж в аналогічному чіпі Kepler, а енергоефективність нових чіпів приблизно вдвічі вище.

В цілому, в графічному процесорі GM200 все влаштовано точно так, як і в розглянутому нами в 2014 році чіпі GM204. Не зачепили навіть обчислювальні ядра, які вміють виконувати операції з плаваючою комою подвійної точності з темпом лише 1/32 від швидкості обчислень одинарної точності - точно як у Geforce GTX 980. Таке враження, що в Nvidia визнали, що випуск спеціалізованих рішень для професійного ринку (GK210) та для ігрового (GM200) цілком обґрунтований.

Підсистема пам'яті у GM200 у порівнянні з GM204 посилена – вона заснована на шести 64-бітних контролерах пам'яті, що у сумі становить 384-бітну шину. Чіпи пам'яті працюють на ефективній частоті в 7 ГГц, що дає пікову пропускну здатність в 336,5 ГБ/с, що в півтора рази вище, ніж у Geforce GTX 980. Не забуваймо і про нові методи стиснення даних від Nvidia, які дозволяють досягти більшої ефективної ПСП, у порівнянні з попередніми продуктами – на тій же 384-бітній шині. В огляді Geforce GTX 980 ми ретельно розглядали це нововведення другого покоління чіпів Maxwell, яке забезпечує їм на чверть ефективніше використання відеопам'яті порівняно з Kepler.

Як і всі останні відеокарти Geforce, модель GTX Titan X має базову частоту – мінімальну для роботи GPU у 3D-режимі, а також турбо-частоту Boost Clock. Базова частота для новинки становить 1000 МГц, а частота Boost Clock – 1075 МГц. Як і раніше, турбо-частота означає лише середню частоту роботи GPU для якогось набору ігрових додатків та інших 3D-завдань, що використовуються в Nvidia, а реальна частота роботи може бути й вищою - вона залежить від 3D-навантаження та умов (температури, споживання енергії і т.д.)

Виходить, що частота GPU у новинки приблизно на 10% вище, ніж було у GTX Titan Black, але нижче, ніж у GTX 980, так як великі графічні процесори завжди доводиться тактувати на меншій частоті (а GM200 за площею помітно більше, ніж GM204) . Тому загальна 3D-продуктивність новинки буде приблизно на 33% вищою, ніж у GTX 980, особливо якщо порівнювати Turbo Boost частоти.

У всьому іншому, чіп GM200 рівно нічим не відрізняється від GM204 - за своїми можливостями та підтримуваними технологіями рішення ідентичні. Навіть модулі роботи з дисплеями і відеоданими залишили точно такими ж, що і у GM204, на якому заснована модель Geforce GTX 980. Відповідно, все те, що ми писали про GTX 980 і GTX 970, повною мірою відноситься і до Titan X.

Тому з усіх інших питань функціональних тонкощів новинки ви можете звернутися до оглядів Geforce GTX 980 і GTX 750 Ti, в яких ми докладно писали про архітектуру Maxwell, пристрій потокових мультипроцесорів (Streaming Multiprocessor - SMM), організацію підсистеми пам'яті та деякі інші архітектурні відмінності. Там же ви можете ознайомитися і з функціональними можливостями, на кшталт апаратної підтримки прискорення розрахунку глобального освітлення VXGI, нових методів повноекранного згладжування та покращених можливостей графічного API DirectX 12.

Вирішення проблем із освоєнням нових техпроцесів

Можна впевнено говорити про те, що на ринку відеокарт все давно втомилися від 28 нм техпроцесу - ми спостерігаємо вже четвертий рік використання саме його, а крок уперед у TSMC зробити спочатку не виходило зовсім, а потім начебто вийшло почати 20 нм виробництво, але користь від Його для великих GPU не було - вихід придатних досить низький, і переваг у порівнянні з відпрацьованим 28 нм не виявилося. Тому Nvidia і AMD довелося вичавлювати з існуючих можливостей якнайбільше, і у випадку чипів архітектури Maxwell компанія Nvidia явно досягла успіху в цьому. За потужністю та енергоефективністю GPU цієї архітектури стали явним кроком уперед, на який AMD просто нічого не відповіла – як мінімум поки що.

Так, з GM204 інженери Nvidia змогли вичавити набагато більше продуктивності в порівнянні з GK104, при тому ж рівні енергоспоживання, хоча чіп збільшився на третину, а велика щільність розміщення транзисторів дозволила підняти їхню кількість ще більше - з 3,5 млрд. до 5,2. млрд. Зрозуміло, що в таких умовах у складі GM204 виявилося значно більше виконавчих блоків, що вилилося і у велику 3D-продуктивність.

Але у випадку найбільшого чіпа архітектури Maxwell, конструктори Nvidia не могли надто сильно збільшувати розмір чіпа, в порівнянні з GK110, він і так має площу близько 550 мм 2 , і збільшити його площу на третину або хоча б чверть не уявлялося можливим - такий GPU став би надто складним і дорогим у виробництві. Довелося чимось пожертвувати (у порівнянні зі старшим Kepler), і цим чимось стала продуктивність обчислень з подвійною точністю - її темп у GM200 такий самий, як і в інших рішень Maxwell, хоча старший Kepler був універсальнішим, підходячи і для графічних. і будь-яких неграфічних розрахунків.

Таке рішення далося для Kepler нелегко - занадто велика частина площі цього чіпа була зайнята FP64-ядрами CUDA та іншими спеціалізованими блоками для обчислень. У разі великого Maxwell було вирішено обійтися графічними завданнями і його зробили просто у вигляді укрупненої версії GM204. Новий чіп GM200 став чисто графічним, у ньому немає спеціальних блоків для FP64-обчислень, та їх темп залишився колишнім – лише 1/32 від FP32. Зате більша частина площі GK110, зайнята FP64 ALU, звільнилася і на їхнє місце було вміщено більшу кількість важливих для графіки FP32 ALU.

Такий хід дозволив помітно збільшити графічну (та й обчислювальну, якщо брати FP32-обчислення) продуктивність порівняно GK110 без зростання енергоспоживання та при незначному збільшенні площі кристала – менш ніж на 10%. Цікаво, що Nvidia навмисно пішла на поділ графічних та обчислювальних чіпів цього разу. Хоча GM200 залишається дуже продуктивним у FP32-обчисленнях, і цілком можливий вихід спеціалізованих рішень Tesla для обчислень з одинарною точністю, достатніх для багатьох наукових завдань, але Tesla K40 залишається найпродуктивнішою для FP64-обчислень.

В цьому і на відміну від оригінальної Titan, до речі - перше рішення лінійки могло використовуватися і в професійних цілях для обчислень з подвійною точністю, оскільки воно також має темп 1/3 для розрахунків FP64. І багато дослідників використовували GTX Titan як початкову карту для своїх CUDA-додатків та завдань, при успіху переходячи на рішення Tesla. Ось для цього GTX Titan X вже не підійде, доведеться чекати на GPU наступних поколінь. Якщо вони не будуть розділені на графічні та обчислювальні чіпи спочатку, звичайно.

У картах розширення такий поділ є вже зараз - модель Tesla K80 містить пару чіпів GK210, що не застосовуються у відеокартах і відрізняються від GK110 подвоєним реєстровим файлом і пам'яттю для більшої продуктивності саме обчислювальних завдань. Виходить, що GK210 можна вважати виключно «обчислювальним» процесором, а GM200 – чисто «графічним» (з певною часткою умовності, адже обидва GPU мають однакові можливості, просто різної спеціалізації).

Подивимося, що вийде у наступних поколіннях графічних архітектур компанії Nvidia, вироблених вже більш «тонкому» техпроцесі - можливо, такий поділ у яких не знадобиться, по крайнього заходу спочатку. Або навпаки, ми відразу побачимо жорсткий поділ за моделями GPU з різною спеціалізацією (у обчислювальних моделях буде більше обчислювальних можливостей, а в графічних - TMU та ROP блоків, наприклад), хоча архітектура залишиться єдиною.

Особливості конструкції відеокарти

Але повернемося до Geforce GTX Titan X. Це найпотужніша відеокарта, призначена для ентузіастів ПК-ігор, тому вона повинна мати і відповідний зовнішній вигляд – оригінальний та солідний дизайн плати та кулера. Як і попередні рішення лінійки Titan, модель Geforce GTX Titan X накрита алюмінієвим корпусом, який і надає цей преміальний вид відеокарті - вона дійсно виглядає солідно.

Дуже вражаюче виглядає і система охолодження – у конструкції кулера Titan X використовується випарна камера з мідного сплаву – вона охолоджує графічний процесор GM200. Випарна камера з'єднана з великим двослотовим радіатором із алюмінієвого сплаву, який розсіює тепло, передане від відеочіпа. Вентилятор виводить нагріте повітря поза корпусом ПК, що позитивно позначається на загальному температурному режимі в системі. Вентилятор працює дуже тихо навіть при розгоні і при тривалій роботі під навантаженням, і в результаті, GTX Titan X із споживанням 250 Вт є однією з тихих відеокарт у своєму класі.

На відміну від референсної плати Geforce GTX 980, новинка не містить спеціальної знімної пластини, якою прикрита задня поверхня плати - це зроблено для забезпечення максимального припливу повітря до PCB для охолодження. Для живлення плати використовується набір з одного 8-контактного та одного 6-контактного роз'єму додаткового живлення PCI Express.

Так як Geforce GTX Titan X призначена для ентузіастів, що віддають перевагу рішенням з максимальною продуктивністю, то всі компоненти нової відеокарти підбиралися з цим розрахунком і навіть з деяким запасом можливостей і характеристик.

Наприклад, для забезпечення графічного процесора у складі Geforce GTX Titan X енергією використовується 6-фазна система живлення з можливістю додаткового посилення. Для забезпечення роботи GDDR5-пам'яті додатково використовується ще одна двофазна система живлення. 6+2-фазна система живлення відеокарти забезпечує розглянуту модель більш ніж достатньою кількістю енергії, навіть з урахуванням розгону. Так, референсна плата Titan X здатна підвести до 275 Вт живлення до GPU за умови встановлення максимального значення цільового живлення (power target) на 110%.

Також, для подальшого покращення розгінного потенціалу, було покращено охолодження всіх компонентів новинки, в порівнянні з оригінальною відеокартою Geforce GTX Titan – змінений дизайн плати та кулера призвів до покращення оверклокерських можливостей. У результаті, майже всі зразки Titan X здатні працювати на частоті до 1.4 ГГц і більше - при референсному повітряному кулері.

Довжина референсної плати Geforce GTX Titan X становить 267 мм, на ній встановлені наступні роз'єми для виведення зображення: один Dual-Link DVI, один HDMI 2.0 та три DisplayPort. Geforce GTX Titan X підтримує виведення зображення на дисплеї з роздільною здатністю до 5K, і є черговою відеокартою з підтримкою HDMI 2.0, чого досі немає у конкурента - це дозволяє підключати новинку до 4K-телевізорів, забезпечуючи максимальну якість картинки за високої частоти оновлення 60 Гц.

Підтримка ігрових розробників

Nvidia завжди була компанією, яка відрізняється дуже тісною роботою з виробниками ПЗ, а особливо – ігровими розробниками. Чого вартий тільки PhysX - найпопулярніший ігровий двигун фізичних ефектів, який застосовується вже понад 10 років у більш ніж 500 іграх. Широке поширення PhysX пов'язано у тому числі з тим, що він інтегрований в одні з найпопулярніших ігрових двигунів: Unreal Engine 3 і Unreal Engine 4. Так, на конференції ігрових розробників Game Developers Conference 2015, компанія Nvidia анонсувала вільний доступ до вихідних кодів CPU- орієнтованої частини PhysX 3.3.3 для розробників на C++ у варіантах для Windows, Linux, OS X та Android.

Розробники тепер зможуть модифікувати код PhysX движка так, як вони забажають, і модифікації навіть можуть бути включені в основний код Nvidia PhysX. Відкривши вихідні коди PhysX для всіх бажаючих, Nvidia дала доступ до свого фізичного двигуна ще більш широкому колу розробників ігрових додатків, які можуть використовувати цей просунутий фізичний двигун у своїх іграх.

Nvidia продовжує просувати ще одну свою технологію - досить новий алгоритм імітації динамічного глобального освітлення VXGI, який включає підтримку спеціального апаратного прискорення на відеокартах з графічними процесорами Maxwell другого покоління, таких як Geforce GTX Titan X.

Впровадження VXGI у гру дозволить розробникам забезпечити дуже якісний розрахунок динамічного глобального освітлення в реальному часі, що використовує всі можливості сучасних GPU та забезпечує найвищу продуктивність. Щоб зрозуміти важливість розрахунку глобального освітлення (рендерингу з урахуванням не тільки прямого освітлення від джерел світла, але і його відображення від усіх об'єктів сцени), достатньо подивитися на пару картинок - з включеним GI і без нього:

Зрозуміло, що цей приклад штучний, і насправді ігрові дизайнери використовують спеціальні методи для імітації глобального затінювання, розставляючи додаткові джерела світла або використовуючи попередній розрахунок освітлення - але до появи VXGI вони або були повністю динамічними (попередньо розраховувалися для статичної геометрії) або не мали достатню реалістичність та/або продуктивність. У майбутніх іграх цілком можна застосовувати VXGI, і зовсім не тільки на топових GPU.

Техніка VXGI дуже сподобалася ігровим розробникам. Принаймні, багато хто з них спробував метод у тестових сценах, дуже натхненний результатами і розглядає можливість її включення до своїх ігор. А ось вам ще одна сцена з якісним розрахунком глобального освітлення – по ній теж видно, наскільки важливо враховувати промені світла, відбиті від усіх поверхонь сцени:

Поки розробники не впровадили VXGI у власні двигуни, можна скористатися спеціальною версією двигуна Unreal Engine 4 VXGI GitHub, який наданий усім зацікавленим розробникам - це дає можливість швидкої інтеграції VXGI в їх ігрові (і не тільки!) проекти, що використовують цей популярний ігровий Для цього будуть потрібні деякі модифікації, VXGI не можна просто "включити".

Розглянемо ще одну технологію Nvidia – повноекранне згладжування методом MFAA, що забезпечує відмінну продуктивність і при цьому – прийнятну якість згладжування. Ми вже писали про цей метод і лише коротко повторимо суть та перспективи. Підтримка MFAA є однією з ключових можливостей графічних процесорів Maxwell у порівнянні з GPU попередніх поколінь. Використовуючи можливість програмування позицій для вибірок згладжування при методі MSAA, ці вибірки змінюються кожен кадр таким чином, що MFAA є практично повноцінним MSAA, але при меншому навантаженні на GPU.

В результаті, картинка з увімкненим MFAA виглядає практично як з MSAA, але втрати продуктивності при цьому значно нижчі. Наприклад, MFAA 4x забезпечує швидкість лише на рівні MSAA 2x, а якість згладжування близько до MSAA 4x. Тому в тих іграх, де продуктивності для досягнення високої частоти кадрів недостатньо, застосування MFAA буде цілком виправданим і може покращити якість. Ось приклад продуктивності з MSAA і MFAA на відеокарті Titan X в порівнянні зі звичайною Titan (у 4К-дозвіл):

Метод згладжування MFAA сумісний з усіма іграми, що використовують DirectX 10 та DirectX 11 та мають підтримку MSAA (за винятком рідкісних проектів на кшталт Dead Rising 3, Dragon Age 2 та Max Payne 3). MFAA можна увімкнути вручну на панелі керування Nvidia. Також MFAA інтегрована в Geforce Experience і цей метод автоматично включиться для різних ігор у разі оптимізації за допомогою Geforce Experience. Єдиною проблемою є те, що зараз MFAA все ще не сумісна з технологією Nvidia SLI, що обіцяють виправити в майбутніх версіях відеодрайверів.

Сучасні ігри на Geforce GTX Titan X

З усією своєю потужністю та можливостями, Geforce GTX Titan X здатний впоратися не тільки з нинішніми іграми, але й майбутніми проектами з підтримкою майбутньої версії DirectX 12. Але «поставити на коліна» новинку можна і зараз – за допомогою найвибагливіших сучасних ігор при максимальних налаштуваннях якості, з включеним повноекранним згладжуванням та високою роздільною здатністю рендерингу - на зразок 4K.

В умовах високих дозволів і включеному згладжуванні потужна підсистема пам'яті стає особливо важливою, і Geforce GTX Titan X з нею все в повному порядку - 384-бітний інтерфейс пам'яті і чіпи, що працюють на ефективній частоті 7 ГГц забезпечують пропускну здатність в 336,5 ГБ/ с – хоч це і не рекорд, але досить пристойно.

А ще дуже важливо, щоб усі дані поміщалися у відеопам'ять, тому що при включенні MSAA у роздільній здатності 4K у багатьох іграх об'єму відеопам'яті просто не вистачає – потрібно більш ніж 4 ГБ пам'яті. І в Titan X є не просто 6 ГБ, а цілих 12 ГБ відеопам'яті, адже ця лінійка створена для тих ентузіастів, які не терплять компромісів. Зрозуміло, що з таким обсягом набірної пам'яті гравцю не потрібно замислюватися про те, чи не знизиться продуктивність гри у високій роздільній здатності при включенні мультисемплінгу - у всіх іграх при будь-яких налаштуваннях 12 ГБ буде більш ніж достатньо.

На даний момент, в будь-якій грі можна задавати будь-які налаштування та вибирати будь-які дозволи - Titan X забезпечить достатню частоту кадрів за (майже) будь-яких умов. Ось які ігри обрала Nvidia для демонстрації продуктивності свого рішення:

Як бачите, частота кадрів в 40 FPS і більше забезпечується в більшості найважчих сучасних ігор, з включеним повноекранним згладжуванням, у тому числі таких проектах, як Far Cry 4 - в цій грі при Ultra-налаштуваннях і згладжуванні в 4K-дозволе домогтися прийнятної швидкості рендерингу можна тільки на Titan X або багаточипових конфігураціях.

А з виходом ігор майбутнього, які матимуть підтримку DirectX 12, можна очікувати ще більшого зростання вимог до продуктивності GPU та відеопам'яті – покращення якості рендерингу «безкоштовно» не дається. До речі, на той момент Nvidia ще не протестувала свою відеокарту Titan X у новітній грі, що вийшла зовсім недавно – ПК-версії Grand Theft Auto V. Ця серія ігор є найпопулярнішою серед сучасних проектів, у ній ви виступаєте у ролі різних кримінальних елементів у декораціях міста Лос-Сантос, підозріло схоже на реальний Лос-Анджелес. ПК-версію GTAV дуже чекали і вона нарешті вийшла в середині квітня – через місяць після Titan X.

Навіть консольні версії (мова про консолі поточного покоління, зрозуміло) ігри Grand Theft Auto V були дуже непогані за якістю картинки, а вже ПК-версія гри пропонує ще кілька можливостей для її покращення: значно збільшену дальність промальовування (об'єктів, ефектів, тіней), можливість гри при 60 FPS і більше, у тому числі у дозволах до 4K. Окрім цього обіцяють багатий та щільний трафік, безліч динамічних об'єктів у сцені, покращені погодні ефекти, тіні, освітлення тощо.

Застосування кількох технологій Nvidia GameWorks дозволило ще більше покращити якість картинки в GTAV. Нагадаємо, GameWorks - це спеціальна платформа для ігрових та графічних розробників, що забезпечує їх 3D-технологіями та утилітами, призначеними для відеокарт Nvidia. Додавання технологій GameWorks в ігри дозволяє порівняно просто досягти якісної імітації реалістичного диму, вовни та волосся, хвиль, а також глобального освітлення та інших ефектів. GameWorks значно полегшує завдання розробників, забезпечуючи приклади, бібліотеки та SDK, готові до застосування в ігровому коді.

Гра Grand Theft Auto V використовує пару таких технологій від Nvidia: ShadowWorks Percentage-Closer Soft Shadows (PCSS) та Temporal Anti-Aliasing (TXAA), які покращують і так непогану графіку у грі. PCSS - це спеціальна техніка рендерингу тіней, що має кращу якість, у порівнянні з типовими методами м'яких тіней. PCSS має три переваги: ​​ступінь м'якості країв тіней залежить від відстані між об'єктом, що відкидає тінь і поверхнею, на якій вона малюється, також забезпечується якісніша фільтрація, що знижує кількість артефактів у вигляді рваних країв тіней, а використання тіньового буфера дозволяє грамотно обробляти перетину тіней від різних об'єктів і допускати появи «здвоєних» тіней.

В результаті при включенні PCSS у грі забезпечуються м'які реалістичні динамічні тіні, куди кращої якості, порівняно з тим, що ми бачили на ігрових консолях. А для гри на кшталт Grand Theft Auto V з яскравим сонцем, що постійно переміщається по горизонту, якість тіней дуже важлива, вони завжди на увазі. За наступними скріншотами можна оцінити різницю між двома якісними методами, що застосовуються в грі (алгоритм AMD проти методу Nvidia):

Очевидно видно, що метод PCSS дозволяє отримати м'які краї тіней, які прогресивно замилюється тим більше, чим далі відстань між об'єктом, від якого тінь, і поверхнею, що «приймає» тінь. При цьому включення PCSS майже не позначається на підсумковій продуктивності у грі. Хоча цей метод забезпечує кращу якість та реалізм тіней, включення цієї опції практично «безкоштовно» для продуктивності.

Ще одним важливим доповненням до ПК-версії GTAV можна назвати метод згладжування Nvidia TXAA. Temporal Anti-Aliasing – це новий алгоритм згладжування, створений спеціально для усунення проблем звичайних методів згладжування, видимих ​​у динаміці – коли окремі пікселі мерехтять. Для фільтрації пікселів на екрані за допомогою цього методу використовуються семпли не тільки всередині пікселя, а й зовні його, а також разом із семплами з попередніх кадрів, що дозволяє отримати «кіношну» якість фільтрації.

Особливо добре перевага методу перед MSAA помітна на таких об'єктах із напівпрозорими поверхнями, як трава, листя дерев та сітки парканів. Також TXAA допомагає якісно згладити попіксельні ефекти. В цілому, метод дуже якісний і наближається за якістю до професійних методів, що застосовуються в 3D-графіці, але результат після TXAA виходить трохи розмитий, порівняно з MSAA, що подобається не всім користувачам.

Падіння продуктивності від включення TXAA залежить від гри та умов і корелює в основному зі швидкістю MSAA, який також використовується в цьому методі. Але в порівнянні з методами згладжування чисто постобробкою, на зразок FXAA, які забезпечують максимальну швидкість за меншої якості, TXAA покликаний максимізувати якість при деякому додатковому падінні продуктивності. Але при такому багатстві та деталізації світу, як ми бачимо у Grand Theft Auto V, включення якісного згладжування буде дуже корисним.

ПК-версія гри має багаті графічні налаштування, що дозволяють отримати необхідну якість зображення з необхідною продуктивністю. Так, GTAV на ПК забезпечує прийнятну швидкість рендерингу та його якості на всіх рішеннях компанії Nvidia, починаючи приблизно з Geforce GTX 660. Ну а щоб отримати повноцінну насолоду всіма графічними ефектами гри, рекомендується використовувати щось на зразок Geforce GTX 970/980 або навіть Titan X.

Для перевірки налаштувань у гру вбудований тест продуктивності – цей бенчмарк містить п'ять сцен, близьких до реального геймплею, що дозволить оцінити швидкість рендерингу у грі на ПК з різними апаратними конфігураціями. Але власникам відеокарт Nvidia можна зробити простіше, оптимізувавши гру для свого ПК за допомогою Geforce Experience. Це ПЗ підбере і налаштує оптимальні налаштування за збереження грабельної швидкості рендеринга - і це робиться натисканням однієї кнопки. Geforce Experience знайде найкраще поєднання характеристик і для Geforce GTX 660 з FullHD-монітором, і для Titan X з 4К-телевізором, забезпечивши найкращі налаштування для конкретної системи.

Повна підтримка гри GTAV з'явилася в новому складанні драйверів Geforce версії 350.12 WHQL, що має спеціальний оптимізований профіль для цієї програми. Ця версія драйверів забезпечить оптимальну продуктивність у грі, у тому числі з використанням інших технологій компанії Nvidia: 3D Vision, 4K Surround, Dynamic Super Resolution (DSR), GameStream, G-SYNC (Surround), Multi Frame Sampled Anti-Aliasing (MFAA) , Percentage Closer Soft Shadows (PCSS), SLI та інших.

Також, спеціальний драйвер версії 350.12 WHQL містить оновлені SLI-профілі для декількох ігор, включаючи новий профіль для Grand Theft Auto V. На додаток до SLI-профілів, драйвер оновлює і додає профілі і для технології 3D Vision, і профіль для GTAV отримав оцінку «Excellent», що означає відмінну якість стереозображення в цій грі – власникам відповідних окулярів та моніторів варто спробувати!

Підтримка технологій віртуальної реальності

Тема віртуальної реальності (Virtual Reality – VR) зараз є однією з найгучніших в ігровій індустрії. Багато в чому, у відродженні інтересу до VR «винна» компанія Oculus, яку потім придбав Facebook. До деякого часу вони показували лише прототипи або комплекти SDK, але вони мають плани і з випуску комерційної версії шолома Oculus Rift наприкінці поточного року. Інші компанії також не залишаються осторонь. Наприклад, відома компанія Valve анонсувала плани партнерства з компанією HTC для випуску власного шолома віртуальної реальності також до кінця 2015 року.

Природно, що і виробники графічних процесорів бачать у VR перспективу, і компанія Nvidia щільно працює з постачальниками програмних та апаратних рішень для віртуальної реальності для того, щоб забезпечити максимально комфортну роботу спільно з відеокартами Geforce (а то й Tegra, хто знає?). І це – не просто маркетингові гасла, адже щоб використання VR було комфортним, потрібно вирішити кілька проблем, у тому числі знизити затримки між дією гравця (рух голови) та результуючим відображенням цього руху на дисплеї – надто великий лаг не просто псує враження від віртуальної реальності , але може викликати так звану морську хворобу (захитування, motion sickness).

Для того, щоб знизити затримку, програмне забезпечення VR Direct від Nvidia підтримує таку можливість, як асинхронне спотворення часу (asynchronous time warp). Із застосуванням асинхронного спотворення часу, відрендерена деякий час тому сцена може зрушуватися, ґрунтуючись на пізніших рухах голови гравця, яку захопили сенсори шолома. Це скорочує затримку між дією та виведенням зображення, тому що GPU не потрібно перераховувати весь кадр повністю перед зсувом. Компанія Nvidia вже надає драйверну підтримку для розробників VR-програм, і вони можуть застосувати асинхронне спотворення часу у своєму ПЗ.

Крім затримки виведення, дуже важливим для досягнення комфортного геймплею в шоломі віртуальної реальності є не просто забезпечення високої частоти кадрів, а виведення кадрів для кожного ока з максимально плавною їхньою зміною. Відповідно, після популяризації VR-шоломів майбутнього покоління, багато гравців захочуть випробувати з у сучасних іграх, дуже вимогливих до потужності GPU. І в деяких випадках доведеться створювати двочіпову SLI-конфігурацію з пари найпотужніших відеокарт типу Geforce GTX Titan X.

Щоб забезпечити максимальний комфорт у таких випадках, Nvidia пропонує технологію VR SLI, що дозволяє розробникам ігор призначити конкретний GPU з пари для кожного з очей, щоб зменшити затримки та покращити продуктивність. У такому випадку, картинку для лівого ока рендеруватиме один графічний процесор, а для правого - другий GPU. Це очевидне рішення знижує затримки та ідеально для додатків віртуальної реальності.

Поки що VR SLI і asynchronous time warp недоступні в публічних драйверах Nvidia, але це й не дуже потрібно, адже для їх використання потрібна зміна коду ігор. А попередні версії відеодрайверів Geforce з підтримкою VR SLI і асинхронного спотворення часу доступні для обраних партнерів Nvidia, таких як Epic, Crytek, Valve і Oculus. А публічний драйвер вийде ближче до виходу кінцевих VR-продуктів у продаж.

Додамо, що така потужна відеокарта як Geforce GTX Titan X, застосовувалася у багатьох демонстраціях віртуальної реальності на ігровій конференції для розробників цього року – Game Developers Conference 2015. Ось лише кілька прикладів: Thief in the Shadows – спільна розробка Nvidia, Epic, Oculus і WETA Digital - студії, що створювала візуальні ефекти в кінотрилогії "Хоббіт", "Back to Dinosaur Island" - перезавантаження відомої 14 років тому демо-програми "X-Isle: Dinosaur Island" від Crytek, а також демонстрації від Valve: "Portal », «Job Simulator», «The BlueVR» та «Gallery». Загалом справа за виходом VR-шоломів у продаж, а вже Nvidia до цього буде готова.

Висновки з теоретичної частини

З архітектурної точки зору новий топовий GPU другого покоління архітектури Maxwell вийшов дуже цікавим. Як і його «родичі», GM200 взяв все найкраще з минулих архітектур компанії, отримавши додаткову функціональність та всі покращення другого покоління Maxwell. Тому функціонально новинка виглядає просто відмінно, відповідаючи моделям лінійки Geforce GTX 900. За допомогою серйозної модернізації виконавчих блоків, інженери компанії Nvidia досягли в Maxwell подвоєння показника співвідношення продуктивності до споживання енергії, додавши при цьому у функціональності - згадуємо апаратну API DirectX 12

Топова відеокарта моделі Geforce GTX Titan X призначена для гравців-ультраентузіастів, які хочуть отримати максимальну якість і продуктивність від найсучасніших ПК-ігор, запущених у найвищих дозволах, з максимальними налаштуваннями якості, повноекранним згладжуванням, і все це - з прийнятною частотою кадрів. З одного боку, настільки потужний GPU потрібен небагатьма іграми, та й можна поставити пару менш дорогих відеокарт. З іншого - через проблеми багаточіпових рішень зі збільшеними затримками і неплавністю зміни кадрів, багато гравців віддадуть перевагу одному потужному GPU парі менш сильним. Не говорячи вже про те, що одночіпова карта забезпечить ще й менше енергоспоживання та шум від системи охолодження.

Природно, за таких умов головним питанням Geforce GTX Titan X є ціна рішення. Але справа в тому, що вона продається в тій ніші, де поняття виправданості ціни і співвідношення ціни і якості просто не потрібні - рішення максимальної продуктивності завжди коштують помітно дорожче, ніж близькі до них, але все ж таки не такі продуктивні. І Titan X – це екстремально потужна та дорога відеокарта, призначена для тих, хто готовий платити за максимум швидкості у 3D-додатках.

Geforce GTX Titan X позиціонується як преміальна (люксова, елітна – називайте як завгодно) відеокарта, і до рекомендованої вартості не повинно бути жодних претензій – тим більше, що попередні рішення лінійки (GTX Titan та GTX Titan Black) коштували спочатку рівно стільки ж – $999 . Це рішення для тих, кому потрібен найшвидший графічний процесор із існуючих, незважаючи на його ціну. Більш того, для найбагатших ентузіастів і рекордсменів у 3D-бенчмарках, доступні системи з трьох і навіть чотирьох відеокарт Titan X – це найшвидші відеосистеми у світі.

Ось такі запити Titan X повністю виправдовує і забезпечує - топова новинка навіть на самоті показує найвищу частоту кадрів у всіх ігрових додатках і майже в усіх умовах (дозвіл та налаштування), а обсяг швидкої GDDR5-відеопам'яті в 12 ГБ дозволяє не думати про нестачу локальної пам'яті на кілька років уперед - навіть ігри майбутніх поколінь, за допомогою DirectX 12 тощо, просто не зможуть забити цю пам'ять настільки, що її не вистачить.

Як і у випадку з першим GTX Titan у 2013 році, новинка в особі GTX Titan X встановила нову планку продуктивності та функціональності для сегменту преміальних відеокарт. Свого часу GTX Titan стала досить успішним продуктом для компанії Nvidia, і немає жодних сумнівів у тому, що GTX Titan X повторить успіх попередниці. Тим більше, що заснована на найбільшому відеочіпі архітектури Maxwell модель стала найпродуктивнішою на ринку без жодних застережень. Оскільки відеокарти на кшталт GTX Titan X виробляє сама Nvidia і продає референсні зразки своїм партнерам, то з доступністю в магазинах немає жодних проблем із моменту її анонсу.

GTX Titan X відповідає своєму найвищому рівню за всіма параметрами: найпотужніший GPU сімейства Maxwell, відмінний дизайн відеокарт у стилі попередніх моделей Titan, а також чудова система охолодження – ефективна та тиха. За швидкістю 3D-рендерингу це найкраща відеокарта сучасності, що пропонує більш ніж на третину більшу продуктивність, у порівнянні з найкращими моделями, що вийшли до Titan X - на зразок Geforce GTX 980. І якщо не розглядати двочіпові відеосистеми (на кшталт пари тих самих GTX 980 або однієї Radeon R9 295X2 від конкурента, що мають проблеми, притаманні багаточиповим конфігураціям), то Titan X можна назвати найкращим рішенням для багатих ентузіастів.

У наступній частині нашого матеріалу ми досліджуємо швидкість рендерингу нової відеокарти Nvidia Geforce GTX Titan X на практиці, порівнявши її швидкість з продуктивністю найпотужніших відеосистем від компанії AMD і зі швидкісними показниками попередників виробництва Nvidia, спочатку в нашому звичному наборі синтетичних тестів, а потім і в іграх.

У березні 2015 року публіці було представлено нову флагманську відеокарту від NVIDIA. Ігрова відеокарта Nvidia Titan X є одночіповою, а в основу її архітектури закладено алгоритм Pascal (для GPU GP102), запатентований виробником. На момент презентації Geforce GTX Titan X по праву вважався найпотужнішим ігровим відеоадаптером.

Графічний процесор. GPU має 3584 ядра CUDA з базовою частотою 1417 МГц. У цьому тактова частота з прискоренням буде лише на рівні 1531 МГц.

Пам'ять. Флагман був представлений з обсягом 12 Gb, проте пізніше була випущена версія зі зменшеним обсягом в 2 рази. Швидкодія пам'яті сягає 10 Гбіт/с. Смугу пропускання в шині пам'яті виконали 384-бітну, що дозволяє мати пропускну здатність пам'яті 480 Гбіт/с. Використовуються чіпи пам'яті GDDR5X, тому навіть з конфігурацією в 6 Gb продуктивність буде високою.

Інші характеристики Titan X.Число ALU 3584, ROP дорівнює 96, а кількість блоків накладених текстур – 192. Також у карти підтримка дозволів до 7680×4320, набір роз'ємів нових стандартів DP 1.4, HDMI 2.0b, DL-DVI, а також HDCP версії 2.2.

Відеокарта працює зі слотом (шиною) PCIe 3.0. Для забезпечення повного живлення необхідно мати додаткові роз'єми 8-pin та 6-pin на блоці живлення. Карта займе два слоти на материнській платі (SLI можливий на 2, 3 та 4 карти).

Висота відеокарти – 4.376″, а довжина – 10.5″. Рекомендується використовувати блоки живлення потужністю від 600 Вт.

Огляд відеокарти

Основний упор виробників був зроблений на покращення графіки для VR, а також для повноцінної підтримки DirectX 12. Продуктивність відеокарти в іграх можна трохи підняти, розігнавши показники картки GTX Titan X 12 Gb.


Технологія Pascal орієнтована на ігри у віртуальному шоломі. За допомогою надшвидкісної технології FinFET досягається максимальне згладжування при використанні шолома. Модель Geforce Titan X Pascal повноцінно сумісна з VRWorks, що дає ефект повного занурення з можливістю відчути фізику та тактильні відчуття від гри.

Замість теплових мідних трубок використовується випарна камера. Максимальна температура – ​​94 градуси (з сайту виробника), однак у тестах середній показник температури – 83-85 градусів.При підйомі такої температури турбіна охолоджувача прискорюється. Якщо прискорення недостатньо, знижується тактова частота графічного чіпа. Шум від турбіни досить помітний, тому якщо це для користувача значний показник, то краще використовувати водне охолодження. Рішення для цієї моделі вже є.

Поліпшення продуктивності для майнінгу

Компанія наголосила на ігровій продуктивності. У порівнянні з відеокартою, Geforce GTX Titan X 12 Gb майнінг не покращує, а витрата при цьому більше. Всі відеокарти серії Titan відрізняються своєю продуктивністю у обчисленнях з подвійною точністю FP32 та INT8. Це дозволяє вважати серію карток прискорювачами професійних класів. Однак модель з чіпом GM200 такою не є, оскільки безліч тестів показує зниження продуктивності у обчисленні хешей та інших операцій. Продуктивність для видобутку криптовалют лише 37.45 МХеш/с.

Не рекомендуємо використовувати модель Х для добування криптографічних валют. Навіть налаштування Nvidia Titan X для продуктивності не дасть такого результату, як Radeon Vega (якщо брати з тієї ж цінової категорії), не кажучи вже про Tesla.

Нова карта від цього виробника дає показники більше в 2,5 рази. У розігнаному стані Titan V дала показник 82.07 МХеш/с.

Результати тестів в іграх

Якщо порівнювати відеокарту Titan X Pascal з іншими, вона на 20-25% краще, ніж відеокарта того ж виробника, а також майже вдвічі переважає за показниками перед конкурентом Radeon R9 FuryX, яка також є одночіповою.

У всіх іграх у 4K та UltraHD спостерігаємо плавну картинку. Також високих результатів досягли у тестах під час використання SLI режиму.

Порівняння відеокарт від різних виробників

Ціна відеокарти Titan X 12 Gb починається від 1200 $ і залежить від виробника та обсягу пам'яті.

Пропонуємо ознайомитись із порівняльною характеристикою товарів від різних виробників (* – аналогічно):

ПродуктPalit GeForce GTX TITAN XMSI GeForce GTX TITAN XASUS GeForce GTX TITAN X
Первинний перелік характеристик
Тип відеокартиігрова *
Найменування GPUNVIDIA GeForce GTX TITAN X *
Код виробникаNE5XTIX015KB-PG600F *
Кодове ім'я GPUGM 200 *
Тех.процес28нм *
Підтримується моніторівчотири *
Роздільна здатність GM200 (максимальна)5120 на 3200 *
Список технічних характеристик
Частота GPU1000MHz *
Обсяг пам'яті12288Mb *
Тип пам'ятіGDDR5 *
Частота пам'яті7000 Mhz7010 Mhz7010 Mhz
Розрядність шини пам'яті384 bit *
Частота RAMDAC400 Mhz *
Підтримка режиму CrossFire/SLIможлива *
Підтримка Quad SLIможлива* *
Список характеристик підключення
Роз'ємипідтримка HDC, HDMI, DisplayPort x3 *
Версія HDMI2.0 *
Математичний блок
Кількість універсальних процесорів3072 *
Версія шейдерів5.0 *
Кількість текстурних блоків192 *
Кількість блоків растеризації96 *
Додаткові характеристики
Розміри267×112 мм280×111 мм267×111 мм
Кількість займаних слотів2 *
Ціна74300 нар.75000 нар.75400 нар.

Виходячи з порівняльної таблиці, можна помітити, що різні виробники дотримуються стандартизації. Відмінність у характеристиках незначна: різна частота відеопам'яті та розміри адаптерів.

Зараз у продажу немає цієї моделі жодного виробника. У січні 2018 року світові була представлена, яка у продуктивності в іграх та в майнінгу кріпвалют виграє у аналогів у кілька разів.