بررسی و آزمایش NVIDIA GeForce GTX TITAN X: کشتار نوزادان. نمای کلی آداپتور ویدئویی NVIDIA TITAN X: ظاهر و ابعاد بزرگ پاسکال

Nvidia Geforce GTX Titan X

قوی ترین شتاب دهنده تک پردازنده ای

  • قسمت 2 - آشنایی عملی

با توجه به دریافت دیرهنگام نمونه آزمایشی شتابدهنده جدید (و نرم افزار آن) و همچنین به دلیل مشارکت نویسنده ما الکسی بریلو در کار GTC، بخش هایی از این بررسی به معماری انویدیا جدید اختصاص دارد. محصول و تجزیه و تحلیل تست های مصنوعی بعدا (حدود یک هفته دیگر) منتشر خواهد شد. و اکنون مطلبی را ارائه می کنیم که خوانندگان را با ویژگی های کارت گرافیک و همچنین با نتایج تست های بازی آشنا می کند.

دستگاه(ها)



Nvidia Geforce GTX Titan X 12288MB 384 بیتی GDDR5 PCI-E
پارامترمعنیارزش اسمی (مرجع)
پردازنده گرافیکیGeforce GTX Titan X (GM200)
رابطPCI Express x16
فرکانس کاری GPU (ROP)، مگاهرتز1000—1075 1000—1075
فرکانس حافظه (فیزیکی (موثر))، مگاهرتز1750 (7000) 1750 (7000)
عرض گذرگاه تبادل حافظه، بیت384
تعداد واحدهای محاسباتی در GPU / فرکانس بلوک ها، مگاهرتز24/1000—1075 24/1000—1075
تعداد عملیات (ALU) در هر بلوک128
کل عملیات (ALU)3072
تعداد واحدهای بافت (BLF/TLF/ANIS)192
تعداد بلوک های شطرنجی سازی (ROP)96
ابعاد، میلی متر270×100×35270×100×35
تعداد اسلات های موجود در واحد سیستم که توسط کارت گرافیک اشغال شده است2 2
رنگ تکستولیتسیاهسیاه
مصرف برق (پیک در حالت 3 بعدی / در حالت 2 بعدی / در حالت "خواب")، W257/98/14 257/98/14
سطح نویز (در حالت دو بعدی / در حالت دو بعدی (پخش ویدیو) / در حالت حداکثر سه بعدی)، dBA20/21/29,5
جک های خروجی1×DVI (Dual-Link/HDMI)، 1×HDMI 2.0، 3×DisplayPort 1.2
پشتیبانی از چند پردازشSLI
حداکثر تعداد گیرنده/مانیتور برای خروجی تصویر همزمان4 4
برق کمکی: تعداد کانکتور 8 پین1 1
برق کمکی: تعداد کانکتورهای 6 پین1 1
حداکثر وضوح 2 بعدی: DP/HDMI/DVI-Link DVI/Single-Link DVI
حداکثر رزولوشن سه بعدی: DP/HDMI/DVI-Link DVI/Single-Link DVI3840×2400/3840×2400/2560×1600/1920×1200

همراه با حافظه محلی

این کارت دارای 12288 مگابایت GDDR5 SDRAM است که در 24 تراشه 4 گیگابایتی (12 در هر طرف PCB) قرار گرفته است.

به عنوان تست های مصنوعی برای DirectX 11، از نمونه هایی از Microsoft و AMD SDK و همچنین برنامه نمایشی Nvidia استفاده کردیم. اولین مورد HDRToneMappingCS11.exe و NBodyGravityCS11.exe از DirectX SDK (فوریه 2010) است. ما همچنین برنامه هایی را از هر دو سازنده تراشه های ویدئویی دریافت کردیم: Nvidia و AMD. DetailTessellation11 و PNTriangles11 از ATI Radeon SDK گرفته شده اند (آنها همچنین در DirectX SDK هستند). علاوه بر این، برنامه نمایشی Realistic Water Terrain انویدیا، که با نام Island11 نیز شناخته می شود، استفاده شد.

آزمایش‌های مصنوعی روی کارت‌های ویدئویی زیر انجام شد:

  • Geforce GTX Titan X GTX Titan X)
  • Geforce GTX Titan Zبا پارامترهای استاندارد (به اختصار GTX Titan Z)
  • Geforce GTX 980با پارامترهای استاندارد (به اختصار GTX 980)
  • Radeon R9 295X2با پارامترهای استاندارد (به اختصار R9 295X2)
  • Radeon R9 290Xبا پارامترهای استاندارد (به اختصار R9 290X)

برای تحلیل عملکرد مدل جدید کارت گرافیک Geforce GTX Titan X، این راه حل ها به دلایل زیر انتخاب شدند. Geforce GTX 980 مبتنی بر یک پردازنده گرافیکی با همان معماری Maxwell است، اما سطح پایین تر - GM204، و برای ما بسیار جالب خواهد بود که بررسی کنیم که پیچیدگی تراشه به GM200 چه می دهد. خوب، کارت گرافیک دو تراشه Geforce GTX Titan Z فقط برای مرجع در نظر گرفته شد - به عنوان پربازده ترین کارت گرافیک Nvidia بر اساس یک جفت تراشه GK110 معماری قبلی کپلر.

از شرکت رقیب AMD، ما نیز دو کارت گرافیک را برای مقایسه خود انتخاب کردیم. آنها در اصل بسیار متفاوت هستند، اگرچه آنها بر اساس همان پردازنده های گرافیکی هاوایی هستند - آنها فقط تعداد متفاوتی از GPU روی کارت ها دارند و از نظر موقعیت و قیمت متفاوت هستند. Geforce GTX Titan X هیچ رقیب قیمتی ندارد، بنابراین ما قدرتمندترین کارت گرافیک دو تراشه ای Radeon R9 295X2 را گرفتیم، اگرچه چنین مقایسه ای از نظر فنی چندان جالب نخواهد بود. برای دومی، سریع‌ترین کارت گرافیک تک‌تراشه رقیب، Radeon R9 290X، گرفته شد، اگرچه مدت‌ها پیش منتشر شد و مبتنی بر پردازنده گرافیکی با پیچیدگی کمتر است. اما به سادگی هیچ انتخاب دیگری از راه حل های AMD وجود ندارد.

Direct3D 10: تست سایه زن PS 4.0 (تکسچرینگ، حلقه زدن)

ما معیارهای منسوخ شده DirectX 9 را کنار گذاشتیم، زیرا راه حل های فوق العاده قدرتمندی مانند Geforce GTX Titan X نتایج خیلی خوبی را در آنها نشان نمی دهند، زیرا همیشه با پهنای باند حافظه، نرخ پر شدن یا بافت بندی محدود می شوند. ناگفته نماند که کارت گرافیک های دو تراشه همیشه در چنین برنامه هایی به درستی کار نمی کنند و ما دو مورد از آنها را داریم.

نسخه دوم RightMark3D شامل دو تست PS 3.0 از قبل آشنا تحت Direct3D 9 است که برای DirectX 10 بازنویسی شده است، و همچنین دو تست جدید دیگر. جفت اول قابلیت فعال کردن خود سایه‌زنی و ابرنمونه‌برداری سایه‌زن را اضافه کرد که به‌علاوه بار روی تراشه‌های ویدیویی را افزایش می‌دهد.

این تست‌ها عملکرد سایه‌زن‌های پیکسل حلقه‌ای را با تعداد زیادی نمونه بافت (تا چند صد نمونه در هر پیکسل در سنگین‌ترین حالت) و بار نسبتاً کوچک ALU اندازه‌گیری می‌کنند. به عبارت دیگر سرعت واکشی بافت و کارایی انشعاب را در سایه زن پیکسل اندازه گیری می کنند.

اولین تست سایه زن پیکسل خز خواهد بود. در پایین ترین تنظیمات، از 15 تا 30 نمونه بافت از ارتفاع مپ و دو نمونه از بافت اصلی استفاده می کند. جزئیات اثر - حالت "High" تعداد نمونه ها را به 40-80 افزایش می دهد، شامل سوپرنمونه برداری "شاهد" - تا 60-120 نمونه، و حالت "High" همراه با SSAA با حداکثر "شدت" مشخص می شود. - از 160 تا 320 نمونه از نقشه ارتفاع.

بیایید ابتدا حالت‌های بدون سوپرنمونه‌سازی فعال را بررسی کنیم، آنها نسبتا ساده هستند و نسبت نتایج در حالت‌های "Low" و "High" باید تقریباً یکسان باشد.

عملکرد در این تست به تعداد و کارایی TMU ها بستگی دارد و راندمان اجرای برنامه های پیچیده نیز تاثیرگذار است. و در نسخه بدون سوپرنمونه، پرکردن موثر و پهنای باند حافظه نیز تأثیر بیشتری بر عملکرد دارد. نتایج هنگام جزئیات سطح "بالا" تا یک و نیم برابر کمتر از "پایین" است.

در وظایف رندر خز رویه‌ای با تعداد زیادی انتخاب بافت، با انتشار تراشه‌های ویدئویی مبتنی بر معماری GCN، AMD مدت‌هاست که گوی سبقت را به دست گرفته است. این بردهای Radeon هستند که هنوز در این مقایسه ها تا به امروز بهترین هستند و این نشان دهنده کارآمدی آنها در اجرای این برنامه ها است. این نتیجه گیری با مقایسه امروز تأیید می شود - کارت گرافیک انویدیا که ما در نظر داریم حتی در برابر قدیمی ترین تراشه Radeon R9 290X از دست رفته است، نه اینکه به نزدیک ترین رقیب قیمتی از AMD اشاره کنیم.

در اولین آزمایش Direct3D 10، کارت گرافیک جدید Geforce GTX Titan X بر اساس تراشه ای با همان معماری در قالب GTX 980 کمی سریعتر از خواهر کوچکتر خود بود، اما دومی دور نیست. پشت سر - 9-12٪. این نتیجه را می‌توان با سرعت بافت‌دهی بسیار پایین‌تر GTX 980 توضیح داد، و در سایر پارامترها عقب‌تر است، اگرچه واضح است که نکته در عملکرد واحدهای ALU نیست. دو تراشه Titan Z سریعتر است، اما نه به سرعت Radeon R9 295X2.

بیایید به نتیجه همان آزمایش نگاه کنیم، اما با سوپرنمونه‌برداری "شاهد" روشن، که کار را چهار برابر می‌کند: در چنین شرایطی، چیزی باید تغییر کند و پهنای باند حافظه با fillrate تأثیر کمتری خواهد داشت:

در شرایط سخت، کارت گرافیک جدید Geforce GTX مدل Titan X در حال حاضر به طرز محسوسی از مدل جوانتر همان نسل - GTX 980 جلوتر است، که با سرعت مناسب 33-39٪، بسیار نزدیک به تفاوت نظری است. بین آنها. و عقب ماندگی رقبا در قالب Radeon R9 295X2 و R9 290X کاهش یافته است - محصول جدید Nvidia تقریباً با Radeon تک تراشه ای روبرو شده است. با این حال، دو تراشه بسیار جلوتر است، زیرا تراشه های AMD محاسبات پیکسل به پیکسل را ترجیح می دهند و در چنین محاسباتی بسیار قوی هستند.

تست بعدی DX10 عملکرد اجرای سایه زن حلقه پیچیده پیکسل با تعداد زیادی واکشی بافت را اندازه گیری می کند و نگاشت پارالکس شیب نامیده می شود. در تنظیمات کم، از 10 تا 50 نمونه بافت از ارتفاع نقشه و سه نمونه از بافت های اصلی استفاده می کند. وقتی حالت سنگین را با خود سایه روشن می کنید، تعداد نمونه ها دو برابر می شود و سوپرنمونه برداری این عدد را چهار برابر می کند. پیچیده ترین حالت آزمایشی با ابرنمونه برداری و خود سایه زنی بین 80 تا 400 مقدار بافت را انتخاب می کند، یعنی هشت برابر بیشتر از حالت ساده. ابتدا گزینه های ساده را بدون ابرنمونه برداری بررسی می کنیم:

دومین تست سایه زن Direct3D 10 پیکسلی از نقطه نظر عملی جالب تر است، زیرا انواع نقشه برداری اختلاف منظر به طور گسترده در بازی ها استفاده می شود، در حالی که انواع سنگین، مانند نقشه برداری اختلاف منظر شیب دار، مدت هاست در بسیاری از پروژه ها استفاده می شود، به عنوان مثال، در Crysis، Lost Planet و بسیاری بازی های دیگر. علاوه بر این، در آزمایش ما، علاوه بر سوپرنمونه‌سازی، می‌توانید خود سایه‌زنی را روشن کنید، که بار روی تراشه ویدیویی را حدود دو برابر افزایش می‌دهد - این حالت "High" نامیده می‌شود.

نمودار به طور کلی شبیه به نمودار قبلی است، همچنین بدون گنجاندن سوپرنمونه، و این بار Geforce GTX Titan X جدید کمی به GTX Titan Z نزدیک‌تر بود و به یک برد دو تراشه‌ای متکی نبود. روی یک جفت GPU خانواده Kepler. در شرایط مختلف، محصول جدید 14 تا 19 درصد از مدل برتر قبلی نسل فعلی انویدیا جلوتر است، و حتی اگر مقایسه ای با کارت گرافیک های AMD داشته باشیم، چیزی در اینجا تغییر کرده است - در این مورد، GTX Titan جدید. X نسبت به Radeon R9 290X کمی پایین تر است. با این حال، دو تراشه R9 295X2، بسیار جلوتر از همه است. بیایید ببینیم که چه چیزی گنجاندن سوپرنمونه‌برداری را تغییر می‌دهد:

هنگامی که supersampling و self-shadowing فعال می شوند، کار دشوارتر می شود، گنجاندن ترکیبی دو گزینه به طور همزمان بار روی کارت ها را تقریباً هشت برابر افزایش می دهد و باعث افت شدید عملکرد می شود. تفاوت بین نشانگرهای سرعت کارت های ویدئویی آزمایش شده اندکی تغییر کرده است، اگرچه گنجاندن سوپرنمونه سازی تأثیر کمتری نسبت به مورد قبلی دارد.

راه حل های گرافیکی AMD Radeon در این تست سایه زن پیکسل D3D10 نسبت به بردهای Geforce رقیب کارآمدتر عمل می کنند، اما تراشه جدید GM200 وضعیت را به سمت بهتر شدن تغییر می دهد - برد Geforce GTX Titan X مبتنی بر تراشه معماری Maxwell در حال حاضر از Radeon R9 290X جلوتر است. در همه شرایط (با این حال، بر اساس یک پردازنده گرافیکی پیچیده کمتر). راه حل دو تراشه مبتنی بر جفت Hawaii همچنان پیشتاز است، اما در مقایسه با سایر راه حل های Nvidia، محصول جدید بد نیست. سرعتی تقریباً در سطح Geforce GTX Titan Z با دو تراشه نشان داد و ۲۸ تا ۳۳ درصد بهتر از Geforce GTX 980 بود.

Direct3D 10: PS 4.0 Pixel Shader Benchmarks (محاسبات)

دو تست سایه‌زن پیکسل بعدی شامل حداقل تعداد واکشی بافت برای کاهش تأثیر عملکرد TMU است. آنها از تعداد زیادی عملیات حسابی استفاده می کنند و دقیقاً عملکرد ریاضی تراشه های ویدئویی، سرعت اجرای دستورات حسابی را در سایه زن پیکسل اندازه گیری می کنند.

اولین آزمون ریاضی معدنی است. این یک تست بافت سازی رویه ای پیچیده است که تنها از دو نمونه داده بافت و 65 دستورالعمل sin و cos استفاده می کند.

نتایج آزمایش‌های ریاضی محدود اغلب با تفاوت در فرکانس‌ها و تعداد واحدهای محاسباتی مطابقت دارد، اما فقط تقریباً، زیرا نتایج تحت تأثیر کارایی متفاوت استفاده از آنها در کارهای خاص و بهینه‌سازی درایورها و آخرین فرکانس و سیستم های مدیریت انرژی و حتی تاکید بر پهنای باند حافظه. در مورد تست Mineral، مدل جدید Geforce GTX Titan X تنها 10 درصد سریعتر از برد GTX 980 مبتنی بر تراشه GM204 از همان نسل است و GTX Titan Z با دو تراشه در این تست سرعت چندانی نداشت. - چیزی به وضوح مانع از باز شدن بردهای Nvidia می شود.

مقایسه Geforce GTX Titan X با مادربردهای رقیب AMD چندان غم انگیز نخواهد بود اگر پردازنده‌های گرافیکی R9 290X و Titan X از نظر پیچیدگی نزدیک باشند. اما GM200 بسیار بزرگتر از هاوایی است و برد کوچک آن طبیعی است. ارتقاء معماری انویدیا از کپلر به ماکسول، تراشه های جدید را به راه حل های رقیب AMD در چنین آزمایش هایی نزدیک کرده است. اما حتی راه حل ارزان تر دو تراشه Radeon R9 295X2 به طور قابل توجهی سریع تر است.

بیایید تست دوم محاسبات سایه زن را در نظر بگیریم که Fire نام دارد. برای ALU سنگین‌تر است، و تنها یک بافت واکشی در آن وجود دارد، و تعداد دستورالعمل‌های sin و cos دو برابر شده است، تا 130. بیایید ببینیم با افزایش بار چه چیزی تغییر کرده است:

در دومین آزمون ریاضی از RigthMark، ما نتایج متفاوتی را برای کارت‌های ویدئویی نسبت به یکدیگر مشاهده می‌کنیم. بنابراین، Geforce GTX Titan X جدید در حال حاضر قوی‌تر است (۲۰ درصد) از GTX 980 بر روی تراشه‌ای با همان معماری گرافیکی، و Geforce دو تراشه‌ای بسیار نزدیک به محصول جدید است - Maxwell با وظایف محاسباتی بسیار کنار می‌آید. بهتر از کپلر

Radeon R9 290X عقب مانده است، اما همانطور که قبلاً نوشتیم، پردازنده گرافیکی هاوایی به طور قابل توجهی ساده تر از GM200 است و این تفاوت منطقی است. اما اگرچه Radeon R9 295X2 دو تراشه همچنان در آزمون های ریاضی پیشتاز است، اما به طور کلی، تراشه ویدیویی جدید انویدیا در چنین کارهایی به خوبی عمل می کند، اگرچه به تفاوت نظری با GM204 نرسید.

Direct3D 10: تست های سایه زن هندسی

دو تست سرعت سایه زن هندسی در RightMark3D 2.0 وجود دارد، گزینه اول "Galaxy" نام دارد، این تکنیک شبیه به "point sprites" از نسخه های قبلی Direct3D است. این یک سیستم ذرات را روی GPU متحرک می کند، یک سایه زن هندسی از هر نقطه چهار راس ایجاد می کند که یک ذره را تشکیل می دهد. الگوریتم های مشابه باید به طور گسترده در بازی های آینده DirectX 10 استفاده شوند.

تغییر تعادل در تست های شیدر هندسه بر نتیجه رندر نهایی تاثیری ندارد، تصویر نهایی همیشه دقیقاً یکسان است، فقط روش های پردازش صحنه تغییر می کند. پارامتر "بار GS" تعیین می کند که محاسبات در کدام سایه زن انجام می شود - در راس یا هندسه. تعداد محاسبات همیشه یکسان است.

بیایید اولین نسخه از تست "کهکشان" را با محاسبات در سایه بان راس، برای سه سطح از پیچیدگی هندسی در نظر بگیریم:

نسبت سرعت ها با پیچیدگی هندسی متفاوت صحنه ها تقریباً برای همه راه حل ها یکسان است، عملکرد مربوط به تعداد نقاط است، با هر مرحله افت FPS نزدیک به دو برابر می شود. این کار برای کارت‌های ویدیویی مدرن و قدرتمند بسیار ساده است و عملکرد در آن به دلیل سرعت پردازش هندسه و گاهی اوقات با پهنای باند حافظه و/یا نرخ پر شدن محدود می‌شود.

تفاوت بین نتایج کارت های ویدیویی مبتنی بر تراشه های Nvidia و AMD معمولاً به نفع راه حل های شرکت کالیفرنیایی است و دلیل آن تفاوت در خطوط لوله هندسی تراشه های این شرکت ها است. در این مورد نیز، تراشه‌های ویدیویی برتر Nvidia دارای واحدهای پردازش هندسی زیادی هستند، بنابراین سود آشکار است. در تست‌های هندسه، بردهای Geforce همیشه رقابتی‌تر از Radeon هستند.

مدل جدید Geforce GTX Titan X کمی از برد دو تراشه GTX Titan Z در پردازنده‌های گرافیکی نسل قبلی عقب‌تر است، اما 12 تا 25 درصد بهتر از GTX 980 است. کارت‌های گرافیک Radeon نتایج کاملاً متفاوتی را نشان می‌دهند، زیرا R9 295X2 مبتنی بر یک جفت GPU است و تنها آن می‌تواند با جدید بودن این آزمایش رقابت کند، در حالی که Radeon R9 290X یک خارجی بود. بیایید ببینیم هنگام انتقال بخشی از محاسبات به شیدر هندسه، وضعیت چگونه تغییر می کند:

وقتی بار در این آزمایش تغییر کرد، اعداد کمی تغییر کردند، برای بردهای AMD و برای راه حل های Nvidia. و واقعا چیزی را تغییر نمی دهد. کارت‌های ویدیویی در این آزمایش سایه‌زن‌های هندسی نسبت به تغییرات پارامتر بار GS که مسئول انتقال بخشی از محاسبات به سایه‌زن هندسی است، واکنش ضعیفی نشان می‌دهند، بنابراین نتیجه‌گیری یکسان باقی می‌ماند.

متأسفانه، "Hyperlight" دومین آزمایش سایه زن هندسی است که استفاده از چندین تکنیک را به طور همزمان نشان می دهد: نمونه گیری، خروجی جریان، بار بافر، که از ایجاد هندسه پویا با کشیدن به دو بافر و همچنین ویژگی جدید Direct3D 10 استفاده می کند - خروجی جریان، در همه کارت‌های گرافیک مدرن AMD کار نمی‌کنند. در مقطعی، یکی دیگر از آپدیت‌های درایور Catalyst باعث شد که این تست روی بردهای Catalyst اجرا نشود و چندین سال است که این مشکل برطرف نشده است.

Direct3D 10: نرخ واکشی بافت از سایه زن های راس

تست های "واکشی بافت رأس" سرعت تعداد زیادی از واکشی بافت از یک سایه زن راس را اندازه گیری می کند. آزمون ها در اصل مشابه هستند، بنابراین نسبت بین نتایج کارت ها در آزمون های "زمین" و "امواج" باید تقریباً یکسان باشد. هر دو آزمون از نگاشت جابجایی بر اساس داده‌های نمونه‌برداری بافت استفاده می‌کنند، تنها تفاوت قابل توجه این است که آزمایش "امواج" از پرش‌های شرطی استفاده می‌کند، در حالی که تست "زمین" این کار را نمی‌کند.

اولین آزمایش "Earth" را در ابتدا در حالت "Effect detail Low" در نظر بگیرید:

مطالعات قبلی ما نشان داده است که هم پرکردن و هم پهنای باند حافظه می توانند بر روی نتایج این تست تأثیر بگذارند که به وضوح روی نتایج بردهای انویدیا به خصوص در حالت های ساده قابل مشاهده است. کارت گرافیک جدید Nvidia در این آزمایش سرعتی را نشان می دهد که به وضوح کمتر از آنچه باید باشد - همه تخته های Geforce تقریباً در یک سطح هستند که به وضوح با تئوری مطابقت ندارد. در همه حالت ها، آنها به وضوح با چیزی شبیه به پهنای باند حافظه مواجه می شوند. با این حال، Radeon R9 295X2 نیز تقریباً دو برابر سریعتر از R9 290X نیست.

به هر حال، این بار برد تک تراشه AMD در حالت نور از همه بردهای Nvidia قوی تر و در حالت هارد تقریباً در سطح آنها است. خوب، دو تراشه Radeon R9 295X2 دوباره رهبر مقایسه ما شد. بیایید به عملکرد در همان آزمایش با افزایش تعداد واکشی بافت نگاه کنیم:

وضعیت در نمودار کمی تغییر کرده است، راه حل تک تراشه AMD در حالت های سنگین به طور قابل توجهی بردهای Geforce بیشتری را از دست داده است. Geforce GTX Titan X جدید تا 14 درصد سرعت بیشتری نسبت به Geforce GTX 980 نشان داد و در همه حالت‌ها به جز سبک‌ترین حالت، از Radeon تک تراشه‌ای بهتر عمل کرد - به دلیل همان تاکید بر چیزی. اگر محصول جدید را با راه حل دو تراشه AMD مقایسه کنیم، Titan X توانست در حالت سنگین مبارزه کند و عملکرد نزدیک را نشان دهد، اما در حالت های سبک عقب مانده است.

بیایید نتایج دومین آزمایش واکشی بافت از سایه‌زنان راس را در نظر بگیریم. تست Waves نمونه های کمتری دارد، اما از پرش های شرطی استفاده می کند. تعداد نمونه های بافت دوخطی در این مورد تا 14 ("Effect Detail Low") یا حداکثر تا 24 ("Effect Detail High") در هر راس است. پیچیدگی هندسه مشابه آزمایش قبلی تغییر می کند.

نتایج دومین آزمایش بافت راس «امواج» هیچ شباهتی به آنچه در نمودارهای قبلی دیدیم نیست. عملکرد سرعت تمامی Geforce ها در این تست به طور جدی بدتر شده است و مدل جدید Nvidia Geforce GTX Titan X سرعت کمی بالاتر از GTX 980 نشان می دهد و از Titan Z دو تراشه عقب مانده است. در مقایسه با رقبا، هر دو برد Radeon قادر به انجام آن بودند. برای نشان دادن بهترین عملکرد در این تست در تمام حالت ها. نسخه دوم همین مشکل را در نظر بگیرید:

با پیچیدگی کار در دومین آزمایش نمونه‌برداری بافت، سرعت همه راه‌حل‌ها کمتر شد، اما کارت‌های ویدئویی انویدیا از جمله مدل مورد بررسی آسیب بیشتری دیدند. تقریباً هیچ چیز در نتیجه گیری تغییر نمی کند، مدل جدید Geforce GTX Titan X 10-30٪ سریعتر از GTX 980 است و از هر دو تراشه Titan Z و هر دو برد Radeon عقب است. Radeon R9 295X2 در این آزمایش‌ها بسیار جلوتر بود و از نظر تئوری، به جز بهینه‌سازی ناکافی از Nvidia، این به سادگی غیرقابل توضیح است.

3DMark Vantage: تست های ویژگی

تست های مصنوعی از بسته 3DMark Vantage به ما نشان می دهد که قبلاً چه چیزی را از دست داده ایم. تست‌های ویژگی این بسته آزمایشی از DirectX 10 پشتیبانی می‌کنند، همچنان مرتبط و جالب هستند زیرا با ما متفاوت هستند. هنگام تجزیه و تحلیل نتایج آخرین کارت گرافیک Geforce GTX Titan X در این بسته، چند نتیجه جدید و مفید خواهیم گرفت که در آزمایش های بسته های خانواده RightMark از ما دور مانده است.

ویژگی تست 1: بافت پر

اولین آزمایش عملکرد واحدهای واکشی بافت را اندازه گیری می کند. برای پر کردن یک مستطیل با مقادیر خوانده شده از یک بافت کوچک با استفاده از چند مختصات بافت که هر فریم را تغییر می دهد استفاده می شود.

راندمان کارت گرافیک های AMD و Nvidia در تست بافت Futuremark بسیار بالا است و ارقام نهایی مدل های مختلف به پارامترهای نظری مربوطه نزدیک است. بنابراین، تفاوت سرعت بین GTX Titan X و GTX 980 38٪ به نفع یک راه حل مبتنی بر GM200 است که به تئوری نزدیک است، زیرا محصول جدید یک و نیم برابر واحدهای TMU بیشتری دارد. ، اما با فرکانس پایین تری کار می کنند. به طور طبیعی، عقب ماندگی دوگانه GTX Titan Z همچنان باقی می ماند، زیرا این دو پردازنده گرافیکی دارای سرعت بافت بالاتری هستند.

در مورد مقایسه سرعت بافت کارت گرافیک جدید انویدیا برتر با راه حل های مشابه قیمت رقیب، در اینجا جدیدتر از رقیب دو تراشه پایین تر است، که همسایه مشروط در طاقچه قیمت است، اما جلوتر از آن است. Radeon R9 290X، اگرچه خیلی زیاد نیست. با این حال، کارت‌های گرافیک AMD هنوز در زمینه بافت‌دهی کمی بهتر عمل می‌کنند.

تست ویژگی 2: پر کردن رنگ

وظیفه دوم تست نرخ پر شدن است. از یک سایه زن بسیار ساده پیکسل استفاده می کند که عملکرد را محدود نمی کند. مقدار رنگ درونیابی شده با استفاده از ترکیب آلفا در بافر خارج از صفحه (هدف رندر) نوشته می شود. از یک بافر 16 بیتی FP16 خارج از صفحه استفاده می کند، که بیشتر در بازی هایی استفاده می شود که از رندر HDR استفاده می کنند، بنابراین این تست کاملا به موقع است.

اعداد دومین زیرآزمون 3DMark Vantage عملکرد واحدهای ROP را بدون در نظر گرفتن مقدار پهنای باند حافظه ویدیویی (به اصطلاح "پرکردن موثر") نشان می‌دهند و این تست دقیقاً عملکرد ROP را اندازه‌گیری می‌کند. برد Geforce GTX Titan X که امروز بررسی می کنیم به طور قابل توجهی از هر دو برد Nvidia یعنی GTX 980 و حتی GTX Titan Z جلوتر است و تا 45 درصد از برد تک تراشه مبتنی بر GM204 برتری دارد - تعداد ROP ها و آنها. بهره وری در GPU برتر معماری Maxwell عالی است!

و اگر سرعت پر کردن صحنه کارت گرافیک جدید Geforce GTX Titan X را با کارت‌های ویدئویی AMD مقایسه کنیم، برد Nvidia مورد نظر ما در این تست بهترین سرعت پر کردن صحنه را حتی در مقایسه با قدرتمندترین دو تراشه Radeon R9 نشان می‌دهد. 295X2، نه گفتن به عقب افتادن قابل توجهی از Radeon R9 290X. تعداد زیادی بلوک ROP و بهینه سازی برای کارایی فشرده سازی داده های فریم بافر کار خود را انجام دادند.

تست ویژگی 3: نقشه انسداد اختلاف منظر

یکی از جالب ترین تست های ویژگی، زیرا این تکنیک قبلاً در بازی ها استفاده می شود. این یک چهار ضلعی (به طور دقیق تر، دو مثلث) با استفاده از تکنیک ویژه نقشه برداری انسداد Parallax ترسیم می کند، که هندسه پیچیده را تقلید می کند. از عملیات ردیابی پرتوی نسبتاً فشرده منابع و نقشه عمق با وضوح بالا استفاده می شود. این سطح نیز با استفاده از الگوریتم سنگین اشتراوس سایه می اندازد. این آزمایش یک سایه زن بسیار پیچیده و سنگین پیکسلی برای یک تراشه ویدئویی است که شامل واکشی بافت های متعدد در طول ردیابی پرتو، انشعاب پویا و محاسبات پیچیده نورپردازی اشتراوس است.

این تست از بسته 3DMark Vantage با آزمایش های قبلی متفاوت است زیرا نتایج در آن نه تنها به سرعت محاسبات ریاضی، کارایی اجرای شاخه یا سرعت واکشی بافت، بلکه به چندین پارامتر به طور همزمان بستگی دارد. برای دستیابی به سرعت بالا در این کار، تعادل صحیح GPU و همچنین کارایی اجرای شیدرهای پیچیده مهم است.

در این مورد، هم عملکرد ریاضی و هم عملکرد بافت مهم است، و در این "مصنوعی" از 3DMark Vantage، برد جدید Geforce GTX Titan X بیش از یک سوم سریعتر از مدل مبتنی بر پردازنده گرافیکی همان معماری Maxwell است. . و حتی کپلر دو تراشه‌ای در قالب GTX Titan Z کمتر از 10 درصد از جدید بودن عملکرد بهتری داشت.

برد بالای تک تراشه انویدیا در این آزمایش به وضوح از Radeon R9 290X تک تراشه بهتر عمل کرد، اما هر دو به طور جدی نسبت به Radeon R9 295X2 دو تراشه بهتر عمل کردند. پردازنده‌های گرافیکی AMD در این کار تا حدودی کارآمدتر از Nvidia هستند و R9 295X2 دارای دو عدد از آن‌ها است.

ویژگی تست 4: پارچه GPU

تست چهارم جالب است زیرا فعل و انفعالات فیزیکی (تقلید پارچه) را با استفاده از یک تراشه ویدئویی محاسبه می کند. شبیه‌سازی راس با استفاده از عملیات ترکیبی سایه‌زن‌های راس و هندسه، با چندین پاس استفاده می‌شود. از stream out برای انتقال رئوس از یک پاس شبیه سازی به دیگری استفاده کنید. بنابراین، عملکرد اجرای سایه‌زن‌های راس و هندسه و سرعت خروج جریان تست می‌شود.

سرعت رندر در این تست نیز به چند پارامتر به طور همزمان بستگی دارد و عوامل اصلی تاثیرگذار باید عملکرد پردازش هندسه و کارایی شیدرهای هندسه باشد. یعنی، نقاط قوت تراشه های انویدیا باید نمایان شوند، اما افسوس - ما شاهد یک نتیجه بسیار عجیب بودیم (بررسی مجدد)، کارت گرافیک جدید انویدیا، به بیان ملایم، سرعت نه چندان بالایی را نشان داد. Geforce GTX Titan X در این آزمون فرعی بدترین نتیجه را از همه راه حل ها نشان داد و حتی از GTX 980 تقریباً 20 درصد عقب افتاد!

خوب، مقایسه با بردهای Radeon در این تست برای یک محصول جدید به همان اندازه ناخوشایند است. با وجود تعداد تئوری کمتر واحدهای اجرایی هندسی و تاخیر عملکرد هندسی تراشه‌های AMD در مقایسه با راه‌حل‌های رقیب، هر دو برد Radeon در این تست بسیار کارآمد عمل می‌کنند و از هر سه برد Geforce ارائه‌شده در مقایسه بهتر عمل می‌کنند. باز هم، به نظر می رسد عدم بهینه سازی در درایورهای Nvidia برای یک کار خاص است.

ویژگی تست 5: ذرات GPU

آزمایشی برای شبیه سازی فیزیکی اثرات بر اساس سیستم های ذرات محاسبه شده با استفاده از یک تراشه ویدئویی. از شبیه سازی راس نیز استفاده می شود، هر راس نشان دهنده یک ذره است. Stream out برای همان هدفی که در آزمایش قبلی انجام شد استفاده می شود. چند صد هزار ذره محاسبه شده است، همه به طور جداگانه متحرک هستند، برخورد آنها با نقشه ارتفاع نیز محاسبه می شود.

مشابه یکی از تست‌های RightMark3D 2.0، ذرات با استفاده از یک سایه‌زن هندسی ترسیم می‌شوند که از هر نقطه چهار راس برای تشکیل ذره ایجاد می‌کند. اما این آزمایش بلوک های سایه زن را با محاسبات رأس بارگذاری می کند، جریان بیرون نیز آزمایش می شود.

در دومین آزمایش "هندسی" از 3DMark Vantage، وضعیت به طور جدی تغییر کرده است، این بار تمام Geforces در حال حاضر یک نتیجه کم و بیش نرمال را نشان می دهند، اگرچه Radeon با تراشه دوگانه همچنان در صدر قرار دارد. مدل جدید GTX Titan X 24 درصد سریعتر از GTX 980 خواهر خود است و تقریباً در همان زمان از GPU دوگانه Titan Z در نسل قبلی GPU سریعتر است.

مقایسه تازگی انویدیا با کارت‌های ویدئویی رقیب AMD این بار مثبت‌تر است - نتیجه را بین دو برد از شرکت رقیب نشان داد و معلوم شد که به Radeon R9 295X2 که دارای دو پردازنده گرافیکی است نزدیک‌تر است. این نوآوری بسیار جلوتر از Radeon R9 290X است و این به وضوح به ما نشان می دهد که دو آزمایش به ظاهر مشابه چقدر می توانند متفاوت باشند: شبیه سازی پارچه و شبیه سازی سیستم ذرات.

تست ویژگی 6: پرلین نویز

آخرین تست ویژگی بسته Vantage یک تست ریاضی فشرده از تراشه ویدیویی است که چندین اکتاو از الگوریتم نویز Perlin را در سایه زن پیکسل محاسبه می کند. هر کانال رنگی از عملکرد نویز خاص خود برای افزایش بار روی تراشه ویدیویی استفاده می کند. نویز پرلین یک الگوریتم استاندارد است که اغلب در بافت سازی رویه ای استفاده می شود و از محاسبات ریاضی زیادی استفاده می کند.

در این مورد، عملکرد راه‌حل‌ها کاملاً با تئوری مطابقت ندارد، اگرچه به آنچه در آزمایش‌های مشابه دیدیم نزدیک است. در تست ریاضی بسته Futuremark که حداکثر عملکرد تراشه‌های ویدئویی را در وظایف محدود نشان می‌دهد، شاهد توزیع متفاوت نتایج در مقایسه با تست‌های مشابه بسته آزمایشی خود هستیم.

مدت‌هاست که می‌دانیم تراشه‌های ویدیویی AMD با معماری GCN هنوز هم بهتر از راه‌حل‌های رقیب با چنین وظایفی کنار می‌آیند، به خصوص در مواردی که "ریاضیات" فشرده انجام می‌شود. اما مدل برتر جدید انویدیا مبتنی بر تراشه بزرگ GM200 است و بنابراین Geforce GTX Titan X در این تست عملکرد بهتری نسبت به Radeon R9 290X داشت.

اگر محصول جدید را با بهترین مدل خانواده Geforce GTX 900 مقایسه کنیم، در این آزمایش تفاوت بین آنها تقریباً 40٪ بود - البته به نفع کارت گرافیکی که امروز در نظر داریم. این نیز به تفاوت نظری نزدیک است. نتیجه بدی برای Titan X نیست، فقط Radeon R9 295X2 دو تراشه جلوتر بود و بسیار جلوتر بود.

Direct3D 11: محاسبه سایه بان ها

برای آزمایش راه‌حل برتر Nvidia که اخیراً منتشر شده است برای کارهایی که از ویژگی‌های DirectX 11 مانند tessellation و compute shader استفاده می‌کنند، از نمونه‌های SDK و نسخه‌های نمایشی Microsoft، Nvidia و AMD استفاده کردیم.

ابتدا به بنچمارک هایی که از Compute Shader استفاده می کنند نگاه می کنیم. ظاهر آنها یکی از مهم ترین نوآوری ها در آخرین نسخه های DX API است، آنها در حال حاضر در بازی های مدرن برای انجام کارهای مختلف استفاده می شوند: پس پردازش، شبیه سازی و غیره. تست اول نمونه ای از رندر HDR با نگاشت صدا را نشان می دهد. از DirectX SDK، با پس پردازش، که از سایه‌زن‌های پیکسل و محاسباتی استفاده می‌کند.

سرعت محاسبه در شیدرهای محاسباتی و پیکسلی برای همه بردهای AMD و Nvidia تقریباً یکسان است، تفاوت‌ها فقط برای کارت‌های ویدئویی بر اساس پردازنده‌های گرافیکی معماری‌های قبلی مشاهده شد. با قضاوت بر اساس تست های قبلی ما، نتایج یک مسئله اغلب نه چندان به قدرت ریاضی و کارایی محاسباتی، بلکه به عوامل دیگری مانند پهنای باند حافظه بستگی دارد.

در این مورد، کارت گرافیک رده بالای جدید سریعتر از نسخه های تک تراشه Geforce GTX 980 و Radeon R9 290X است، اما پشت کارت گرافیک دو تراشه R9 295X2 است که قابل درک است، زیرا قدرت یک جفت R9 را دارد. 290X. اگر محصول جدید را با Geforce GTX 980 مقایسه کنیم، مادربرد شرکت کالیفرنیایی در نظر گرفته شده امروز 34-36٪ سریعتر است - دقیقاً مطابق با تئوری.

دومین آزمایش سایه زن محاسباتی نیز از Microsoft DirectX SDK گرفته شده است و یک مشکل محاسباتی گرانشی N-body (N-body) را نشان می دهد، شبیه سازی یک سیستم ذرات دینامیکی که تحت نیروهای فیزیکی مانند گرانش قرار دارد.

در این آزمون اغلب بر سرعت اجرای محاسبات پیچیده ریاضی، پردازش هندسه و کارایی اجرای کد با انشعاب تاکید می شود. و در این آزمایش DX11، هم ترازی نیروها بین راه حل های دو شرکت مختلف کاملاً متفاوت بود - به وضوح به نفع کارت های گرافیک Geforce.

با این حال، نتایج یک جفت راه حل انویدیا مبتنی بر تراشه های مختلف نیز عجیب است - Geforce GTX Titan X و GTX 980 تقریباً برابر هستند، تنها با 5٪ تفاوت در عملکرد از هم جدا می شوند. رندر دو تراشه در این کار کار نمی کند، بنابراین رقبا (مدل های Radeon تک تراشه و دو تراشه) از نظر سرعت تقریبا برابر هستند. خوب، GTX Titan X سه برابر از آنها جلوتر است. به نظر می رسد که این کار بر روی پردازنده های گرافیکی معماری Maxwell که قبلاً به آن اشاره کردیم بسیار کارآمدتر محاسبه می شود.

Direct3D 11: عملکرد Tessellation

شیدرهای محاسباتی بسیار مهم هستند، اما یکی دیگر از ویژگی های جدید اصلی در Direct3D 11، تسلیت سخت افزاری است. ما آن را در مقاله نظری خود در مورد Nvidia GF100 با جزئیات زیاد در نظر گرفتیم. Tessellation برای مدت طولانی در بازی های DX11 مانند STALKER: Call of Pripyat، DiRT 2، Aliens vs Predator، Metro Last Light، Civilization V، Crysis 3، Battlefield 3 و غیره استفاده شده است. برخی از آنها از تسلیت برای مدل های شخصیت استفاده می کنند، برخی دیگر برای شبیه سازی سطح آب یا منظره واقعی.

چندین طرح مختلف برای پارتیشن بندی گرافیک های اولیه (tessellation) وجود دارد. به عنوان مثال، phong tessellation، مثلث PN، زیربخش Catmull-Clark. بنابراین، طرح کاشی کاری مثلث PN در STALKER: Call of Pripyat و در Metro 2033 - Phong tessellation استفاده می شود. این روش ها نسبتاً سریع و آسان در فرآیند توسعه بازی و موتورهای موجود پیاده سازی می شوند و به همین دلیل محبوب شده اند.

اولین تست Tessellation نمونه Detail Tessellation از ATI Radeon SDK خواهد بود. این نه تنها تسلاسیون، بلکه دو تکنیک مختلف پردازش پیکسل به پیکسل را نیز پیاده‌سازی می‌کند: یک پوشش ساده از نقشه‌های معمولی و نگاشت انسداد اختلاف منظر. خوب، بیایید راه حل های DX11 را از AMD و Nvidia در شرایط مختلف مقایسه کنیم:

در تست ساده bumpmapping، سرعت بردها خیلی مهم نیست، زیرا این کار برای مدت طولانی بسیار آسان شده است و عملکرد در آن بستگی به پهنای باند حافظه یا پرکردن دارد. قهرمان امروزی این بررسی 23 درصد از مدل برتر قبلی Geforce GTX 980 مبتنی بر تراشه GM204 جلوتر است و کمی از رقیب خود در قالب Radeon R9 290X پایین تر است. نسخه دو تراشه حتی کمی سریعتر است.

در دومین آزمون فرعی با محاسبات پیکسل به پیکسل پیچیده تر، محصول جدید در حال حاضر 34 درصد سریعتر از Geforce GTX 980 است که به تفاوت نظری بین آنها نزدیکتر است. اما Titan X این بار کمی سریعتر از یک رقیب مشروط تک تراشه مبتنی بر هاوایی است. از آنجایی که دو تراشه در Radeon R9 295X2 به خوبی کار می کنند، این کار حتی با سرعت بیشتری بر روی آن انجام می شود. اگرچه عملکرد محاسبات ریاضی در سایه زن های پیکسل برای تراشه های معماری GCN بالاتر است، اما انتشار راه حل های معماری Maxwell موقعیت راه حل های Nvidia را بهبود بخشید.

در آزمون فرعی انویدیا که اخیراً معرفی شده است، فقط یک چهارم سریعتر از Geforce GTX 980 است - شاید سرعت آن توسط پهنای باند حافظه محدود شده باشد، زیرا بافت سازی در این تست تقریباً هیچ تأثیری ندارد. اگر در این آزمون فرعی محصول جدید را با بردهای AMD مقایسه کنیم، برد انویدیا دوباره نسبت به هر دو Radeon پایین‌تر است، زیرا در این تست تسلاسیون تقسیم مثلث بسیار متوسط ​​است و عملکرد هندسی سرعت کلی رندر را محدود نمی‌کند.

دومین تست عملکرد تسلاسیون نمونه دیگری برای توسعه دهندگان سه بعدی از ATI Radeon SDK - PN Triangles خواهد بود. در واقع، هر دو نمونه در DX SDK نیز گنجانده شده اند، بنابراین ما مطمئن هستیم که توسعه دهندگان بازی کد خود را بر اساس آنها ایجاد می کنند. ما این مثال را با یک فاکتور تسلاسیون متفاوت آزمایش کردیم تا ببینیم چقدر بر عملکرد کلی تأثیر می گذارد.

در این آزمون از هندسه پیچیده تری استفاده می شود، بنابراین مقایسه توان هندسی راه حل های مختلف نتایج متفاوتی را به همراه دارد. راه حل های مدرن ارائه شده در مواد به خوبی با بارهای هندسی سبک و متوسط ​​مقابله می کنند و سرعت بالایی را نشان می دهند. اما در حالی که یک و دو پردازنده گرافیکی هاوایی در Radeon R9 290X و R9 295X2 در شرایط نوری عملکرد خوبی دارند، بردهای انویدیا در کارهای سنگین برتر هستند. بنابراین، در سخت‌ترین حالت‌ها، Geforce GTX Titan X که امروز ارائه شد، سرعت را به‌طور قابل‌توجهی بهتر از Radeon با دو تراشه نشان می‌دهد.

در مورد مقایسه بردهای انویدیا بر اساس تراشه های GM200 و GM204، مدل Geforce GTX Titan X امروزه مزیت خود را با افزایش بار هندسی افزایش می دهد، زیرا در حالت نور همه چیز به پهنای باند حافظه بستگی دارد. در نتیجه، محصول جدید بسته به پیچیدگی حالت، تا 31 درصد از برد Geforce GTX 980 جلوتر است.

بیایید نگاهی به نتایج آزمایش دیگری بیندازیم، برنامه نمایشی Nvidia Realistic Water Terrain که به جزیره نیز معروف است. این نسخه ی نمایشی از نقشه برداری و جابجایی برای ارائه یک سطح و زمین اقیانوس به نظر واقعی استفاده می کند.

تست جزیره یک تست کاملا مصنوعی برای اندازه‌گیری عملکرد GPU کاملاً هندسی نیست، زیرا شامل سایه‌زن‌های پیچیده پیکسلی و محاسباتی است و چنین باری به بازی‌های واقعی که از تمام واحدهای گرافیکی استفاده می‌کنند و نه فقط هندسی، مانند موارد قبلی، نزدیک‌تر است. تست های هندسه اگرچه بار روی واحدهای پردازش هندسه همچنان اصلی است، به عنوان مثال، همان پهنای باند حافظه نیز می تواند تأثیر بگذارد.

ما همه کارت‌های ویدئویی را با چهار فاکتور مختلف تسلیت آزمایش می‌کنیم - در این مورد، این تنظیم به نام Dynamic Tessellation LOD است. با ضریب تقسیم مثلث اول، سرعت توسط عملکرد بلوک‌های هندسی محدود نمی‌شود و کارت‌های گرافیک Radeon نتیجه نسبتاً بالایی را نشان می‌دهند، به خصوص R9 295X2 دو تراشه‌ای که حتی از نتیجه برد Geforce GTX Titan X نیز پیشی می‌گیرد. ، اما در حال حاضر در سطوح بار هندسی بعدی، عملکرد کارت‌های Radeon کاهش می‌یابد و راه‌حل‌هایی که Nvidia پیشرو است.

مزیت برد جدید انویدیا مبتنی بر تراشه ویدئویی GM200 نسبت به رقبای خود در چنین آزمایشاتی در حال حاضر کاملاً مناسب و حتی چندگانه است. اگر Geforce GTX Titan X را با GTX 980 مقایسه کنیم، تفاوت بین عملکرد آنها به 37-42٪ می رسد که کاملاً توسط تئوری توضیح داده شده است و دقیقاً با آن مطابقت دارد. پردازنده‌های گرافیکی Maxwell در حجم‌های کاری ترکیبی کارآمدتر هستند، به سرعت از گرافیک به محاسبات و دوباره برمی‌گردند، و Titan X حتی از Radeon R9 295X2 دو تراشه در این تست بسیار سریع‌تر است.

پس از تجزیه و تحلیل نتایج آزمایشات مصنوعی کارت گرافیک جدید Nvidia Geforce GTX Titan X بر اساس GPU جدید GM200 و همچنین با در نظر گرفتن نتایج سایر مدل‌های کارت گرافیک از هر دو سازنده تراشه‌های ویدئویی گسسته، می‌توان نتیجه گرفت که کارت گرافیکی که امروز در نظر داریم باید سریع ترین کارت گرافیک موجود در بازار باشد و با قوی ترین کارت گرافیک دو تراشه ای AMD رقابت کند. به طور کلی، این یکی از پیروان خوب Geforce GTX Titan Black است - یک تراشه قدرتمند.

کارت گرافیک جدید انویدیا در بسیاری از آزمایشات، البته نه در همه، نتایج بسیار قوی در زمینه مصنوعی نشان می دهد. Radeon و Geforce به طور سنتی دارای نقاط قوت متفاوتی هستند. در تعداد زیادی از آزمایش‌ها، دو پردازنده گرافیکی در مدل Radeon R9 295X2 سریع‌تر بودند، از جمله به دلیل پهنای باند حافظه کلی و سرعت بافت‌دهی بالاتر با اجرای بسیار کارآمد وظایف محاسباتی. اما در موارد دیگر، پردازنده گرافیکی برتر معماری Maxwell، به ویژه در آزمایش‌های هندسی و نمونه‌های تسلیت، برنده می‌شود.

با این حال، در برنامه های بازی واقعی، همه چیز در مقایسه با "مصنوعی" کمی متفاوت خواهد بود و Geforce GTX Titan X باید سرعت قابل توجهی بالاتر از سطح تک تراشه Geforce GTX 980 و حتی بیشتر از Radeon R9 290X نشان دهد. . و مقایسه این نوآوری با دو تراشه Radeon R9 295X2 دشوار است - سیستم های مبتنی بر دو یا چند GPU ویژگی های ناخوشایند خود را دارند، اگرچه با بهینه سازی مناسب افزایش متوسط ​​نرخ فریم را ارائه می دهند.

اما ویژگی های معماری و عملکرد به وضوح به نفع راه حل برتر Nvidia است. Geforce GTX Titan X نسبت به همان Radeon R9 295X2 انرژی بسیار کمتری مصرف می کند و از نظر بهره وری انرژی، مدل جدید انویدیا بسیار قوی است - این ویژگی متمایز معماری Maxwell است. ما نباید عملکرد بیشتر محصول جدید انویدیا را فراموش کنیم: پشتیبانی از ویژگی Level 12.1 در DirectX 12، شتاب سخت افزاری VXGI، یک روش جدید MFAA anti-aliasing و سایر فناوری ها وجود دارد. ما قبلاً در مورد دیدگاه بازار در بخش اول صحبت کردیم - در بخش نخبگان، خیلی به قیمت بستگی ندارد. نکته اصلی این است که راه حل باید تا حد امکان در برنامه های بازی کاربردی و سازنده باشد. به عبارت ساده، در همه چیز بهترین بود.

فقط به منظور ارزیابی سرعت تازگی در بازی ها، در قسمت بعدی مطالب خود، عملکرد Geforce GTX Titan X را در مجموعه پروژه های بازی خود تعیین کرده و آن را با عملکرد رقبا، از جمله ارزیابی توجیه، مقایسه خواهیم کرد. قیمت خرده فروشی این تازگی از دیدگاه علاقه مندان، و همچنین دریابید که Geforce GTX 980 در بازی ها چقدر سریعتر است.

مانیتور Asus ProArt PA249Q برای کامپیوتر کار ارائه شده توسط این شرکت آسوستک کیبورد Cougar 700K برای کامپیوتر کار ارائه شده توسط شرکت گربه وحشی پشمالو

ظهور یک GPU بزرگ مبتنی بر معماری Maxwell اجتناب ناپذیر بود، تنها سوال این است که چه زمانی و به چه شکلی. در نتیجه، این فرض توجیه شد که GM200 مسیر همتای خود از خانواده کپلر، GK110 را تکرار خواهد کرد و اولین خود را به عنوان بخشی از یک شتاب دهنده تحت نام تجاری TITAN انجام می دهد.

NVIDIA GeForce GTX TITAN X

این بار زمان بسیار کمی برای آزمایش کارت گرافیک جدید وجود داشت، بنابراین بررسی فشرده خواهد شد. با کنار گذاشتن استدلال های غیر ضروری، بیایید مستقیماً به سر اصل مطلب برویم. معماری ماکسول، در مقایسه با کپلر، با ساختار ساده و بهینه‌سازی شده چند پردازنده‌های جریانی (SMM) مشخص می‌شود، که امکان کاهش شدید ناحیه SMM را فراهم می‌کند، در حالی که 90٪ عملکرد قبلی را حفظ می‌کند. علاوه بر این، GM200 مانند تراشه‌های GM204 (GeForce GTX 970/980) و GM206 (GeForce GTX 960) که قبلاً منتشر شده بود، به دومین نسخه از معماری Maxwell تعلق دارد. در نتیجه، موتور هندسی سازنده تری دارد که موتور PolyMorph نسخه 3.0 دارد و از برخی عملکردهای محاسباتی در سطح سخت افزار پشتیبانی می کند، که احتمالاً در سطح ویژگی جدید Direct3D 12 گنجانده شده است، و همچنین برای شتاب سخت افزاری VXGI جهانی NVIDIA ضروری است. تکنولوژی روشنایی برای شرح دقیق‌تر معماری نسل اول و دوم Maxwell، خوانندگان را به بررسی GeForce GTX 750 Ti و GeForce GTX 980 ارجاع می‌دهیم.

بلوک دیاگرام GPU NVIDIA GM200

از نظر کیفی، پردازنده گرافیکی GM200 و GPU های پایین تر در خط هیچ تفاوتی با یکدیگر ندارند، به جز اینکه تنها GM206 دارای واحد رمزگشایی ویدیویی H.265 (HEVC) اختصاصی است. تفاوت ها صرفاً کمی است. GM200 شامل تعداد بی‌سابقه‌ای ترانزیستور است - 8 میلیارد، بنابراین یک و نیم تا دو برابر واحدهای محاسباتی در آن نسبت به GM204 وجود دارد (بسته به اینکه کدام یک را باید حساب کرد). علاوه بر این، گذرگاه حافظه 384 بیتی به خدمت بازگشت. در مقایسه با تراشه GK110، پردازنده گرافیکی پرچمدار جدید آنقدرها هم قدرتمند نیست، اما، برای مثال، تعداد ROPها در اینجا دو برابر است، که باعث می شود GM200 به خوبی برای وضوح 4K آماده شود.

از نظر پشتیبانی از محاسبات با دقت مضاعف، GM200 هیچ تفاوتی با GM204 ندارد. هر SMX فقط شامل چهار هسته CUDA سازگار با FP64 است، بنابراین عملکرد ترکیبی تحت این بار 1/32 FP32 است.

⇡ مشخصات، قیمت

TITAN X از قدرتمندترین نسخه هسته GM200 با مجموعه کاملی از واحدهای محاسباتی فعال استفاده می کند. فرکانس پایه پردازنده گرافیکی 1000 مگاهرتز و ساعت تقویتی 1076 مگاهرتز است. حافظه با فرکانس استاندارد برای محصولات مبتنی بر Maxwell 7012 مگاهرتز کار می کند. اما حجم آن برای کارت‌های ویدئویی بازی بی‌سابقه است - 12 گیگابایت (و TITAN X در درجه اول یک کارت گرافیک بازی است، حداقل تا زمانی که GM200 در خط اصلی GeForce "شماره‌دار" ظاهر شد).

قیمت های خرده فروشی پیشنهادی TITAN X در آخرین ساعات قبل از انتشار بررسی اعلام شد. برای بازار ایالات متحده، قیمت 999 دلار تعیین شده است - همان قیمت اولین TITAN مبتنی بر GK110.

توجه داشته باشید:قیمت های جدول GeForce GTX 780 Ti و TITAN Black در زمانی است که دومی متوقف شد.

مدل

پردازنده گرافیکی

حافظه ویدیویی

TDP، W

RRP* برای بازار ایالات متحده (بدون احتساب مالیات)، دلار

نام کد

تعداد ترانزیستور، میلیون

فرکانس ساعت، مگاهرتز: ساعت پایه / ساعت تقویت کننده

تعداد هسته های CUDA

تعداد واحدهای بافت

عرض اتوبوس، بیت

نوع تراشه

فرکانس ساعت: واقعی (موثر)، مگاهرتز

حجم، مگابایت

GeForce GTX 780 Ti

GeForce GTX TITAN مشکی

GeForce GTX 980

GeForce GTX TITAN X

⇡ ساخت و ساز

از همان اول تایتان، NVIDIA از سیستم خنک‌کننده یکسانی در کارت‌های ویدئویی پیشرفته استفاده می‌کند، با برخی تغییرات. TITAN X در میان پیشینیان خود فقط با بدنه کاملاً مشکی متمایز است (تنها دو درج در طرفین بدون رنگ باقی مانده است).

NVIDIA GeForce GTX TITAN X

صفحه پشتی که به طور آزمایشی به GeForce GTX 980 مجهز شده بود، با وجود اینکه بخشی از تراشه های حافظه در پشت برد لحیم شده است، دوباره در TITAN X وجود ندارد. اگرچه تراشه های GDDR5 به طور کلی نیاز به خنک کننده اضافی ندارند.

نمای عقب NVIDIA GeForce GTX TITAN X

اما هیت سینک با محفظه بخار برگشت که در GTX 980 با گزینه ساده تری جایگزین شد.

NVIDIA GeForce GTX TITAN X، سیستم خنک کننده

NVIDIA GeForce GTX TITAN X، سیستم خنک کننده

NVIDIA GeForce GTX TITAN X، سیستم خنک کننده

کارت گرافیک دارای سه کانکتور DisplayPort و هر کدام یکی - HDMI و Dual-Link DVI-I است.

⇡ هزینه

طراحی برد مدار چاپی، که جای تعجب ندارد، تداعی کننده مجموعه ای از آداپتورهای ویدئویی مبتنی بر تراشه GK110 است. مبدل ولتاژ طبق طرح 6 + 2 ساخته شده است (به ترتیب تعداد فازهای تغذیه پردازنده گرافیکی و تراشه های حافظه). برق از طریق یک کانکتور 8 پین و یک کانکتور 6 پین تامین می شود. اما ما برای اولین بار کنترل کننده قدرت GPU ON Semiconductor NCP81174 را در اینجا می بینیم.

24 تراشه حافظه SK hynix H5GQ4H24MFR-R2C با فرکانس اسمی 7 گیگاهرتز در دو طرف برد قرار دارند.

NVIDIA GeForce GTX TITAN X، برد مدار چاپی، سمت جلو

NVIDIA GeForce GTX TITAN X، برد مدار چاپی، سمت عقب

پایه تست، روش تست

فناوری‌های CPU صرفه‌جویی در مصرف انرژی در همه آزمایش‌ها غیرفعال هستند. در تنظیمات درایور NVIDIA، CPU به عنوان پردازنده برای محاسبه PhysX انتخاب می شود. در درایورهای AMD، تنظیمات Tesselation از AMD Optimized به تنظیمات استفاده از برنامه منتقل می‌شود.

معیارها: مصنوعی
برنامه تنظیمات اجازه
3D Mark 2011 تست افراطی - -
3DMark تست آتش سوزی (نه شدید) - -
Unigine Heaven 4 DirectX 11 حداکثر کیفیت، تسریع در حالت Extreme AF 16x، MSAA 4x 1920×1080 / 2560×1440
معیارها: بازی ها
برنامه تنظیمات فیلتر ناهمسانگرد، ضد آلیاسینگ تمام صفحه اجازه
Far Cry 3 + FRAPS DirectX 11 حداکثر کیفیت، HDAO. آغاز ماموریت Secure the Outpost AF، MSAA 4x 2560×1440/3840×2160
مهاجم مقبره. معیار داخلی حداکثر کیفیت AF 16x، SSAA 4x 2560×1440/3840×2160
Bioshock Infinite. معیار داخلی حداکثر کیفیت پس پردازش: عادی AF 16x، FXAA 2560×1440/3840×2160
Crysis 3 + FRAPS حداکثر کیفیت آغاز ماموریت پست انسانی AF 16x، MSAA 4x 2560×1440/3840×2160
مترو: آخرین نور. معیار داخلی حداکثر کیفیت AF 16x، SSAA 4x 2560×1440/3840×2160
Company of Heroes 2. بنچمارک داخلی حداکثر کیفیت AF، SSAA 4x 2560×1440/3840×2160
Battlefield 4 + FRAPS حداکثر کیفیت آغاز ماموریت تشگر AF 16x، MSAA 4x + FXAA 2560×1440/3840×2160
دزد. معیار داخلی حداکثر کیفیت AF 16x، SSAA 4x + FXAA 2560×1440/3840×2160
بیگانه: انزوا حداکثر کیفیت AF 16x، SMAA T2X 2560×1440/3840×2160

شرکت کنندگان در آزمون

کارت‌های ویدئویی زیر در تست عملکرد شرکت کردند:

  • NVIDIA GeForce GTX TITAN X (1000/7012 مگاهرتز، 12 گیگابایت)؛

⇡ سرعت ساعت، مصرف انرژی، دما، اورکلاکینگ

GM110 با فرکانس پایه ای کار می کند که GK110 هرگز در مشخصات مرجع خود به آن نرسیده است. علاوه بر این، GPU Boost بسیار تهاجمی عمل می کند و فرکانس را تا 1177 مگاهرتز افزایش می دهد. در عین حال، پردازنده از ولتاژ 1.174 ولت برخوردار است که نسبت به محصولات برتر مبتنی بر GK110 کمتر است.

تنظیمات BIOS به شما امکان می دهد حد توان را تا 110٪ افزایش دهید و 83 میلی ولت را به حداکثر ولتاژ GPU اضافه کنید. در واقع، ولتاژ تنها به 1.23 ولت افزایش می یابد، اما در همان زمان چندین مرحله فرکانس اضافی / VID باز می شود: تفاوت بین فرکانس پایه و حداکثر فرکانس ثبت شده در بلندگو به 203 مگاهرتز افزایش می یابد.

اورکلاک کردن کارت گرافیک، رسیدن به فرکانس پایه 1252 مگاهرتز را امکان پذیر کرد و فرکانس هایی تا 1455 مگاهرتز در دینامیک مشاهده شد. حافظه ویدئویی قادر به اضافه کردن 1.2 گیگاهرتز بود و با موفقیت در فرکانس موثر 8212 مگاهرتز کار می کرد.

ساعت پایه، مگاهرتز حداکثر ساعت تقویتی، مگاهرتز ساعت پایه، مگاهرتز (اورکلاک) حداکثر ساعت بوست ثبت شده، مگاهرتز (اورکلاک)
GeForce GTX TITAN X 1000 1177 (+177) 1252 1455 (+203)
GeForce GTX 980 1127 1253 (+126) 1387 1526 (+139)
GeForce GTX TITAN مشکی 889 1032 (+143) 1100 1262 (+162)
GeForce GTX TITAN 836 1006 (+145) 966 1150 (+184)
GeForce GTX 780 Ti 876 1020 (+144) 986 1130 (+144)
GeForce GTX 780 863 1006 (+143) 1053 1215 (+162)
GeForce GTX 770 1046 1176 (+130) 1190 1333 (+143)

از نظر مصرف انرژی، TITAN X نزدیک به GTX 780 Ti است و بسیار بیشتر از GTX 980 است. برخلاف انتظار، در Crysis 3 تفاوت قابل توجهی بین TITAN X و Radeon R9 290X وجود ندارد، اما در FurMark R9 290X (مانند R9 280X) بیشتر گرم می شود و به طرز محسوسی بهتر از TITAN x عمل می کند.

اورکلاک TITAN X، بسته به اینکه به نتایج کدام آزمایش - FurMark یا Crysis 3 - تکیه می کنید، 5-25 وات قدرت را افزایش می دهد.

حداکثر دمای مجاز برای GPU توسط تنظیمات BIOS تعیین می شود، بنابراین TITAN X از دمای تنظیم شده 83 درجه سانتیگراد فراتر نمی رود. در همان زمان، توربین سیستم خنک کننده با 49٪ حداکثر سرعت چرخش می کند - تا حداکثر 2339 دور در دقیقه در نگاه اول، این مقدار بسیار زیاد است، اما در واقع، سر و صدای کولر کاملا قابل قبول است.

⇡ عملکرد: معیارهای مصنوعی

  • TITAN X از همان اولین آزمایش تحت تأثیر قرار می گیرد. در مقایسه با GTX 780 Ti و Radeon R9 290X، سرعت کارت گرافیک یک و نیم برابر بیشتر است.
  • با Radeon R9 280X و GeForce GTX 770 - آداپتورهای مبتنی بر GPU های زمانی برتر - تفاوت بیش از دو برابر است.

  • تمام موارد فوق برای 3DMark 2013 نیز صادق است.

Unigine Heaven 4

  • TITAN X در وضوح WQHD نسبت به GTX 780 Ti و Radeon R9 290X حدود 50 درصد برتری دارد. به هر حال، برخلاف 3DMark، GTX 980 در این تست بهتر از GTX 780 Ti نیست.
  • در وضوح Ultra HD، آداپتورهای گرافیکی قبلی فاصله را از بین برده اند، و با این حال TITAN X یک سر و گردن بالاتر از همه رقبا است.

⇡ عملکرد: بازی

این بار از فرم استاندارد توصیف تست های بازی منحرف می شویم. در مورد TITAN X، ترسیم اینکه برای هر بازی کدام کارت گرافیک سریعتر است، کاملاً بیهوده است. در همه بازی ها، "تایتان" جدید با اختلاف فاحش از رقبای خود جلوتر است. شاخص های کمی به این فرمول تمایل دارند: TITAN X 30-50٪ سریعتر از GeForce GTX 780 Ti و Radeon R9 290X است، و اغلب دو برابر سریعتر از Radeon R9 280X و GeForce GTX 770 است. تنها جذابیت این است که به دنبال نوسانات باشید. در این راهرو در آن طرف یا آن طرف. علاوه بر این، یک مورد منحصر به فرد وجود دارد: TITAN X از نرخ فریم 24 فریم در ثانیه در Far Cry 4 با وضوح Ultra HD و MSAA 4x برخوردار است، در حالی که رقبا نمی توانند از سوراخ 5-7 FPS خارج شوند (و GeForce GTX 770 و حتی کمتر). در اینجا ظاهراً تایتان به 12 گیگابایت حافظه نیاز داشت و حتی 4 گیگابایت که Radeon R9 290X به آن مجهز است برای چنین تنظیماتی در FC4 کافی نیست.

مهاجم مقبره

Bioshock Infinite

Crysis 3

⇡ عملکرد: محاسبات

رمزگشایی ویدیو (DXVA Checker، Decode Benchmark)

  • رمزگشای اختصاصی H.264 در GM200 مانند سایر تراشه های خانواده Maxwell است. عملکرد آن برای پخش ویدیوهایی با وضوح تا Ultra HD و نرخ فریم 60 هرتز و بالاتر بسیار کافی است.
  • در میان آداپتورهای ویدئویی گسسته AMD، تنها Radeon R9 285 می تواند به این موضوع ببالد. GeForce GTX 780 Ti قادر است تا 35 FPS را با وضوح 3840 × 2160 ارائه دهد.
  • CPUهایی با 6-8 هسته x86 برای رمزگشایی سریع برای تبدیل ویدیو مناسب تر هستند، اما بلوک عملکرد ثابت این کار را با مصرف انرژی کمتر انجام می دهد و در نهایت، به سادگی به GPU قدرتمند داده می شود.

  • تنها GPU با رمزگشایی کامل سخت افزاری H.265، GM206 در GeForce GTX 960 است. سایر نمایندگان معماری Maxwell و همچنین Kepler، برخی از عملیات ها را بر روی خط لوله رمزگشای H.264 انجام می دهند. بقیه روی پردازنده مرکزی می افتد.
  • عملکرد همه این آداپتورها با یک CPU خوب برای پخش ویدیو با هر وضوح و نرخ فریم مناسب کافی است. برای سرعت کار، یک GTX 960 یا یک CPU قدرتمند بهتر است.

لوکسمارک: اتاق (معیار پیچیده)

  • معماری Maxwell عملکرد شگفت‌انگیزی را نسبت به Kepler در این کار نشان می‌دهد، که باعث می‌شود TITAN X نتیجه متوسط ​​GeForce GTX 780 Ti را دو برابر کند و از Radeon R9 290X پیشی بگیرد. با این حال، این بدان معنا نیست که نتایج LuxMark نماینده هر کار ردیابی پرتو هستند.
  • تفاوت TITAN X و GeForce GTX 980 به اندازه تست های بازی زیاد نیست.

Sony Vegas Pro 13

  • آداپتورهای ویدئویی AMD همچنان در زمینه رندر ویدیو پیشرو هستند. و TITAN X در گروه پربازده ترین دستگاه های NVIDIA متمایز نیست.

CompuBench CL: شبیه سازی سطح اقیانوس

  • TITAN X کف دست را از Radeon R9 290X می گیرد و شکست GeForce GTX 980 را جبران می کند که در این تست به طرز شگفت انگیزی دشوار است.

CompuBench CL: شبیه سازی ذرات

  • در اینجا، در مقابل، GTX 980 یک گام بزرگ به جلو نسبت به GTX 780 Ti برداشته و TITAN X بر اساس موفقیت ساخته شده است. Radeon R9 290X با پرچمدار NVIDIA قابل مقایسه نیست.

SiSoftware Sandra 2015: تجزیه و تحلیل علمی

  • از نظر دقت مضاعف (FP64)، شتاب‌دهنده‌های AMD همچنان بی‌نظیر هستند و حتی Radeon R9 280X مبتنی بر پردازنده گرافیکی بسیار جدید می‌تواند عملکرد بهتری از TITAN X داشته باشد.
  • در میان "سبز" TITAN X به طور قابل پیش بینی در عملکرد FP64 پیشتاز است، به ویژه در مقایسه با GTX 980 ضعیف.
  • در محاسبات FP32، TITAN X به وضوح از همه کارت‌های گرافیک NVIDIA متمایز است. فقط سطحی از عملکرد قابل مقایسه با Radeon R9 290X را ارائه می دهد.

⇡ نتیجه گیری

با توجه به اینکه تولید GPU گسسته هنوز در فرآیند 28 نانومتری است، نتایج GeForce GTX TITAN X فوق العاده به نظر می رسند. با TDP مشابه آداپتورهای گرافیکی مبتنی بر GK110، TITAN X 130-150 درصد عملکرد شتاب دهنده هایی مانند GTX 780 Ti و Radeon R9 290X را به دست می آورد. اگر اولین پردازنده‌های گرافیکی 28 نانومتری - GK104 (GTX 680، GTX 770) و Radeon R9 280X را در نظر بگیریم، TITAN X اغلب دو برابر از آنها پیشی می‌گیرد.

TITAN X، مانند پیشینیان خود در این موقعیت، برای یک کارت گرافیک واحد GPU بسیار گران است. موقعیت یابی نسبت به تایتان های قبلی تغییری نکرده است. اولاً، این جایگزینی برای پیکربندی های SLI دو GeForce GTX 980 گسسته است: اگرچه عملکرد بالقوه پشت سر هم بالاتر است، یک GPU واحد عملکرد قابل پیش بینی تری دارد. ثانیا، رایانه های شخصی جمع و جور که در آنها جایی برای دو کارت گرافیک وجود ندارد. و در نهایت، محاسبات غیر گرافیکی (GP-GPU). اگرچه عملکرد FP64 در GM200 به 1/32 عملکرد FP32 محدود شده است، TITAN X تا حدودی این محدودیت را با نیروی بی رحمانه GPU جبران می کند. علاوه بر این، محاسبات FP32 در آن غالب است "فروشنده" load (همان Ray Tracing، رندر سریع ویدئو)، و در این رشته، GM200 حداقل به خوبی بهترین محصولات AMD است و اغلب عملکردی بهتر از تست های بازی دارد.

معرفی مواد اولیه دقیق با مطالعه Nvidia Geforce GTX Titan X.

موضوع مطالعه: شتاب دهنده گرافیک سه بعدی (کارت تصویری) Nvidia Geforce GTX Titan X 12288 مگابایت 384 بیتی GDDR5 PCI-E

جزئیات توسعه دهنده: شرکت انویدیا (علامت تجاری انویدیا) در سال 1993 در ایالات متحده تاسیس شد. دفتر مرکزی در سانتا کلارا (کالیفرنیا). پردازنده های گرافیکی، فناوری ها را توسعه می دهد. تا سال 1999، برند اصلی Riva (Riva 128/TNT/TNT2)، از سال 1999 تا کنون - Geforce بود. در سال 2000، دارایی های 3dfx Interactive به دست آمد، پس از آن علائم تجاری 3dfx / Voodoo به Nvidia منتقل شد. تولیدی وجود ندارد. تعداد کل کارکنان (با احتساب دفاتر منطقه ای) حدود 5000 نفر است.

بخش اول: تئوری و معماری

همانطور که می دانید، در اواسط ماه گذشته، انویدیا یک کارت گرافیک رده بالای جدید به نام Geforce GTX Titan X منتشر کرد که به قوی ترین کارت گرافیک موجود در بازار تبدیل شده است. ما بلافاصله یک بررسی دقیق از این محصول جدید منتشر کردیم، اما فقط شامل مطالعات عملی، بدون بخش تئوری و تست های مصنوعی بود. این به دلیل شرایط مختلف، از جمله موارد خارج از کنترل ما، رخ داد. اما امروز ما در حال تصحیح این نقص هستیم و نگاهی دقیق تر به محصول جدید مارس خواهیم داشت - در یک ماه هیچ اتفاقی نیفتاده است که ارتباط خود را از دست بدهد.

در سال 2013، انویدیا اولین راه‌حل کارت‌های ویدئویی با نام تجاری جدید Geforce GTX Titan را منتشر کرد که نام آن برگرفته از یک ابر رایانه در آزمایشگاه ملی Oak Ridge است. اولین مدل از خط تولید جدید رکوردهای جدیدی را هم از نظر عملکرد و هم از نظر قیمت با MSRP 999 دلار برای بازار ایالات متحده ثبت کرد. این اولین کارت گرافیک رده بالای سری Titan بود که پس از آن با تراشه دو تراشه نه چندان محبوب Titan Z و Titan Black شتاب‌دار ادامه یافت که GPU GK110 revision B را به طور کامل آنلاک دریافت کرد.

و اکنون، در بهار 2015، نوبت به یک محصول جدید انویدیا از سری پرمیوم "تیتانیوم" رسیده است. GTX Titan X اولین بار توسط جنسن هوانگ رئیس شرکت در کنفرانس توسعه دهندگان بازی GDC 2015 در رویداد Epic Unreal Engine رونمایی شد. در واقع، این کارت گرافیک به هر حال به طور نامرئی در نمایش شرکت کرد و در بسیاری از استندهای نمایشی نصب شد، اما جنسن آن را به طور رسمی ارائه کرد.

قبل از عرضه Geforce GTX Titan X، سریع ترین کارت گرافیک تک تراشه Geforce GTX 980 بر اساس تراشه GM204 از همان معماری گرافیکی Maxwell بود که در سپتامبر گذشته معرفی شد. این مدل بسیار کارآمد در مصرف انرژی است و قدرت پردازش مناسبی را ارائه می‌کند در حالی که تنها 165 وات انرژی مصرف می‌کند - یعنی دو برابر انرژی مصرفی آن نسبت به نسل قبلی Geforce است.

همزمان، پردازنده‌های گرافیکی Maxwell از DirectX 12 آینده (از جمله Feature Level 12.1) و دیگر آخرین فناوری‌های گرافیکی این شرکت پشتیبانی می‌کنند: Nvidia Voxel Global Illumination (VXGI، ما در مقاله GTX 980 در مورد آن نوشتیم)، یک Multi-Frame جدید. نمونه برداری از روش ضد آلیاسینگ AA (MFAA)، وضوح فوق العاده دینامیک (DSR) و موارد دیگر ترکیبی از عملکرد، بهره وری انرژی و ویژگی ها تراشه GM204 را به بهترین پردازنده گرافیکی پیشرفته در زمان عرضه تبدیل کرد.

اما همه چیز زمانی تغییر می کند و GPU با 2048 هسته و 128 واحد بافت با یک GPU جدید بر اساس همان معماری نسل دوم Maxwell جایگزین شد (اولین را از تراشه GM107 به یاد می آوریم که کارت گرافیک Geforce GTX 750 Ti روی آن قرار دارد. مبتنی بر) و همان قابلیت ها، اما با 3072 هسته CUDA و 192 واحد بافت - همه اینها قبلاً در 8 میلیارد ترانزیستور بسته بندی شده است. البته Geforce GTX Titan X بلافاصله تبدیل به قدرتمندترین راه حل شد.

در واقع تراشه برتر نسل دوم Maxwell که اکنون با نام رمز GM200 می شناسیم، مدتی قبل از معرفی در انویدیا آماده بود. زمانی که حتی Geforce GTX 980 مبتنی بر GM204 به عنوان سریع‌ترین کارت گرافیک تک‌تراشه‌ای جهان عمل کرد، عرضه یک کارت گرافیک برتر دیگر چندان منطقی نبود. انویدیا مدتی منتظر راه حل قدرتمندتر AMD بر اساس پردازنده گرافیکی بود که با همان فناوری پردازش 28 نانومتری تولید می شد، اما منتظر ماند.

این احتمال وجود دارد که در غیاب رقابت واقعی، محصول به هیچ وجه ترش نشود، با این وجود تصمیم گرفتند آن را منتشر کنند و عنوان شرکتی را که قدرتمندترین پردازنده‌های گرافیکی تولید می‌کند، تضمین کنند. و در واقع ، انتظار برای تصمیم حریف فایده ای نداشت ، زیرا حداقل تا ژوئن به تعویق افتاد - انتظار طولانی مدت صرفاً بی فایده است. خوب، در این صورت، همیشه می توانید یک کارت گرافیک حتی قدرتمندتر را بر اساس همان GPU منتشر کنید، اما با فرکانس بالاتر کار می کند.

اما چرا در عصر بازی‌های چند پلتفرمی با نیاز به توان GPU نسبتاً متوسط ​​به چنین راه‌حل‌های قدرتمندی نیاز داریم؟ اولاً، اولین برنامه های بازی که از قابلیت های DirectX 12 استفاده می کنند، حتی اگر چند پلتفرمی باشند، باید خیلی زود ظاهر شوند - از این گذشته، نسخه های رایانه شخصی چنین برنامه هایی تقریباً همیشه گرافیک بهتر، جلوه های اضافی و بافت های با وضوح بالاتر را ارائه می دهند. ثانیاً، بازی‌های DirectX 11 قبلاً منتشر شده‌اند که می‌توانند از تمام قابلیت‌های قوی‌ترین پردازنده‌های گرافیکی استفاده کنند - مانند Grand Theft Auto V که در ادامه به جزئیات بیشتری خواهیم پرداخت.

مهم است که راه حل های گرافیکی Maxwell انویدیا به طور کامل از سطح ویژگی 12.1 به اصطلاح از DirectX 12 پشتیبانی می کند - بالاترین سطح شناخته شده در حال حاضر. انویدیا مدت هاست که درایورهای نسخه آتی DirectX را در اختیار توسعه دهندگان بازی قرار می دهد و اکنون در دسترس کاربرانی است که پیش نمایش فنی مایکروسافت ویندوز 10 را نصب کرده اند. جای تعجب نیست که این کارت‌های گرافیک Geforce GTX Titan X بودند که برای نشان دادن قابلیت‌های DirectX 12 در کنفرانس توسعه‌دهندگان بازی، جایی که این مدل برای اولین بار نشان داده شد، استفاده شد.

از آنجایی که مدل در نظر گرفته شده کارت گرافیک انویدیا مبتنی بر پردازنده گرافیکی برتر نسل دوم معماری Maxwell است که قبلاً در نظر گرفتیم و از نظر جزئیات مشابه معماری قبلی کپلر است، خواندن مقالات قبلی در مورد کارت های ویدئویی شرکت قبل از خواندن این مطالب. انویدیا:

  • Nvidia Geforce GTX 970 - جایگزین خوبی برای GTX 770
  • Nvidia Geforce GTX 980 - پیرو Geforce GTX 680، عملکرد بهتری از GTX 780 Ti
  • Nvidia Geforce GTX 750 Ti - Maxwell با وجود Maxwell شروع به کار کوچک می کند
  • Nvidia Geforce GTX 680 پیشرو جدید تک سوکتی در گرافیک سه بعدی است.

بنابراین، بیایید نگاهی به مشخصات دقیق کارت گرافیک Geforce GTX Titan X بر اساس پردازنده گرافیکی GM200 بیندازیم.

شتاب دهنده گرافیکی Geforce GTX Titan X
پارامترمعنی
نام کد تراشهGM200
فن آوری تولید28 نانومتر
تعداد ترانزیستورحدود 8 میلیارد
منطقه اصلیتقریباً 600 میلی متر 2
معمارییکپارچه، با آرایه ای از پردازنده های رایج برای پردازش جریانی انواع متعددی از داده ها: رئوس، پیکسل ها و غیره.
پشتیبانی سخت افزاری DirectXDirectX 12، با پشتیبانی از Feature Level 12.1
اتوبوس حافظه384 بیتی: شش کنترلر حافظه 64 بیتی مستقل با پشتیبانی از حافظه GDDR5
فرکانس GPU1000 (1075) مگاهرتز
بلوک های محاسباتی24 چند پردازنده جریانی شامل 3072 ALU اسکالر برای محاسبات نقطه شناور با دقت تک و دوگانه (1/32 نرخ FP32) مطابق با استاندارد IEEE 754-2008.
بلوک های بافت192 واحد آدرس دهی و فیلتر بافت با پشتیبانی از اجزای FP16 و FP32 در بافت ها و پشتیبانی از فیلتر سه خطی و ناهمسانگرد برای همه فرمت های بافت
واحدهای شطرنجی سازی (ROP)6 ROP عریض (96 پیکسل) با پشتیبانی از حالت های مختلف ضد آلیاسینگ، از جمله قابل برنامه ریزی و با فرمت بافر فریم FP16 یا FP32. بلوک ها از آرایه ای از ALU های قابل تنظیم تشکیل شده اند و مسئول تولید عمق و مقایسه، چند نمونه گیری و ترکیب هستند.
نظارت بر پشتیبانیپشتیبانی یکپارچه برای حداکثر چهار نمایشگر متصل از طریق Dual Link DVI، HDMI 2.0 و DisplayPort 1.2
مشخصات کارت گرافیک مرجع Geforce GTX Titan X
پارامترمعنی
فرکانس هسته1000 (1075) مگاهرتز
تعداد پردازنده های جهانی3072
تعداد بلوک های بافت192
تعداد بلوک های ترکیبی96
فرکانس حافظه موثر7000 (4×1750) مگاهرتز
نوع حافظهGDDR5
اتوبوس حافظه384 بیتی
حافظه12 گیگابایت
پهنای باند حافظه336.5 گیگابایت بر ثانیه
عملکرد محاسباتی (FP32)تا 7 ترافلاپس
حداکثر نرخ پر شدن نظری96 گیگاپیکسل بر ثانیه
نرخ نمونه برداری بافت نظری192 گیگاکسل در ثانیه
لاستیکPCI Express 3.0
اتصال دهنده هایک DVI Dual Link، یک HDMI 2.0 و سه DisplayPort 1.2
مصرف انرژیتا 250 وات
غذای اضافییک کانکتور 8 پین و یک کانکتور 6 پین
تعداد اسلات های اشغال شده در شاسی سیستم2
قیمت پیشنهادی999 دلار (ایالات متحده)، 74990 روبل (روسیه)

مدل جدید Geforce GTX Titan X نامی دریافت کرد که ادامه دهنده خط راه حل های برتر انویدیا برای موقعیت یابی خاص است - آنها به سادگی حرف X را به آن اضافه کردند. خط تولید فعلی در بالای آن فقط Geforce GTX Titan Z دو تراشه ای باقی مانده است (البته دیگر نمی توان به آن اشاره کرد) و در زیر آن مدل های تک تراشه GTX 980 و GTX 970 قرار دارند. بهترین راه حل عملکرد در بازار برای تک تراشه است. کارت های ویدئویی

مدل مورد بحث انویدیا مبتنی بر تراشه GM200 است که دارای گذرگاه حافظه 384 بیتی است و حافظه آن با فرکانس 7 گیگاهرتز کار می کند که حداکثر پهنای باند 336.5 گیگابایت بر ثانیه را ارائه می دهد - یک و نیم برابر بیشتر از GTX. 980. این مقدار بسیار چشمگیر است، به خصوص اگر روش های جدید فشرده سازی اطلاعات روی تراشه مورد استفاده در ماکسول نسل دوم را به یاد بیاوریم که به استفاده از پهنای باند حافظه موجود بسیار موثرتر از GPU رقیب کمک می کند.

با این گذرگاه حافظه، میزان حافظه ویدیویی نصب شده روی کارت گرافیک می توانست 6 یا 12 گیگابایت باشد، اما در مورد مدل الیت، تصمیم به نصب 12 گیگابایت برای ادامه روند تعیین شده توسط اولین مدل های GTX Titan گرفته شد. . این مقدار برای اجرای هر برنامه سه بعدی بدون توجه به پارامترهای کیفیت بیش از اندازه کافی است - این مقدار حافظه ویدیویی برای مطلقاً هر بازی موجود با هر وضوح صفحه و تنظیمات کیفیت کافی است، که کارت گرافیک Geforce GTX Titan X را به ویژه از نظر دید وسوسه انگیز می کند. به آینده - این مالک هرگز حافظه ویدئویی خود را تمام نخواهد کرد.

رقم رسمی مصرف برق برای Geforce GTX Titan X 250 وات است - مانند سایر راه حل های تک تراشه در سری برتر Titan. جالب اینجاست که 250 وات حدود 50 درصد بیشتر از GTX 980 است و تعداد بلوک های کاربردی اصلی نیز به همین میزان افزایش یافته است. مصرف نسبتاً بالا هیچ مشکلی ایجاد نمی کند ، خنک کننده مرجع کار بسیار خوبی را در دفع چنین مقدار گرما انجام می دهد و سیستم های علاقه مند پس از GTX Titan و GTX 780 Ti مدت هاست که برای چنین سطح مصرف انرژی آماده هستند.

معماری

مدل کارت گرافیک Geforce GTX Titan X مبتنی بر پردازنده گرافیکی جدید GM200 است که شامل تمام ویژگی های معماری تراشه GM204 است، بنابراین هر آنچه در مقاله در مورد GTX 980 گفته شد به طور کامل در مورد محصول جدید پریمیوم صدق می کند - ما توصیه می کنیم ابتدا مطالبی را بخوانید که در آن دقیقاً ویژگی های معماری ماکسول وجود دارد.

پردازنده گرافیکی GM200 را می توان یک نسخه افراطی از GM204 نامید که در فرآیند 28 نانومتری امکان پذیر است. تراشه جدید بزرگ‌تر، سریع‌تر و نیاز به انرژی بیشتری دارد. به گفته انویدیا، "مکسول بزرگ" شامل 8 میلیارد ترانزیستور است که مساحتی در حدود 600 میلی متر مربع را پوشش می دهد - یعنی بزرگترین پردازنده گرافیکی این شرکت است. "Big Maxwell" دارای 50٪ پردازنده های جریان بیشتر، 50٪ ROP بیشتر و 50٪ پهنای باند حافظه بیشتر است، به همین دلیل است که تقریباً یک و نیم برابر مساحت دارد.

از نظر معماری، تراشه ویدئویی GM200 به طور کامل با مدل جوانتر GM204 سازگار است، همچنین از کلاسترهای GPC تشکیل شده است که شامل چندین پردازنده SM است. پردازنده گرافیکی برتر شامل شش کلاستر GPC، متشکل از 24 چند پردازنده، در مجموع دارای 3072 هسته CUDA است و عملیات بافت (نمونه برداری و فیلتر) با استفاده از 192 واحد بافت انجام می شود. و با فرکانس پایه 1 گیگاهرتز، عملکرد ماژول های بافت 192 گیگاتکسل در ثانیه است که بیش از یک سوم بالاتر از قدرتمندترین کارت گرافیک قبلی این شرکت - Geforce GTX 980 است.

نسل دوم چند پردازنده Maxwell به چهار بلوک از 32 هسته CUDA (در مجموع 128 هسته در هر SMM) تقسیم می شود که هر کدام منابع خاص خود را برای توزیع فرمان، زمان بندی پردازش و بافر کردن جریان دستورالعمل ها دارند. با توجه به اینکه هر واحد محاسباتی واحدهای دیسپاچر مخصوص به خود را دارد، هسته‌های محاسباتی CUDA کارآمدتر از Kepler استفاده می‌شوند که مصرف انرژی GPU را نیز کاهش می‌دهد. خود چند پردازنده نسبت به GM204 تغییری نکرده است:

برای بهبود کارایی استفاده از کش در GPU، تغییرات زیادی در زیر سیستم حافظه ایجاد شده است. هر یک از چند پردازنده در GM200 دارای 96 کیلوبایت حافظه مشترک اختصاصی است و حافظه پنهان سطح اول و بافت در بلوک های 24 کیلوبایتی ترکیب می شود - دو بلوک در هر چند پردازنده (در مجموع 48 کیلوبایت در هر SMM). نسل قبلی پردازنده‌های گرافیکی Kepler تنها 64 کیلوبایت حافظه مشترک داشتند که به عنوان حافظه نهان L1 نیز عمل می‌کرد. در نتیجه همه تغییرات، راندمان هسته های Maxwell CUDA حدود 1.4 برابر بیشتر از یک تراشه مشابه Kepler است و بازده انرژی تراشه های جدید حدود دو برابر بیشتر است.

به طور کلی، همه چیز در پردازنده گرافیکی GM200 دقیقاً به همان شکلی است که در تراشه GM204 که در سال 2014 بررسی کردیم. آنها حتی هسته‌هایی را که می‌توانند عملیات ممیز شناور با دقت دوگانه را با نرخی معادل 1/32 سرعت محاسبات تک‌دقیق انجام دهند، لمس نکردند - درست مانند Geforce GTX 980. به نظر می‌رسد که انویدیا این نسخه را تشخیص داده است. راه حل های تخصصی برای بازار حرفه ای (GK210) و برای بازی (GM200) کاملاً موجه است.

زیرسیستم حافظه GM200 در مقایسه با GM204 تقویت شده است - بر اساس شش کنترلر حافظه 64 بیتی است که در مجموع یک گذرگاه 384 بیتی را تشکیل می دهد. تراشه های حافظه با فرکانس موثر 7 گیگاهرتز کار می کنند که حداکثر پهنای باند 336.5 گیگابایت در ثانیه را ارائه می دهد که یک و نیم برابر بیشتر از Geforce GTX 980 است. روش های فشرده سازی داده های جدید انویدیا را فراموش نکنید. ، که به شما امکان می دهد در مقایسه با محصولات قبلی - در همان گذرگاه 384 بیتی به پهنای باند حافظه موثر بیشتری دست یابید. در بررسی Geforce GTX 980، این نوآوری نسل دوم تراشه‌های Maxwell را به دقت در نظر گرفتیم که استفاده کارآمدتری از حافظه ویدیویی را در مقایسه با Kepler در اختیار آنها قرار می‌دهد.

مانند تمام کارت‌های گرافیک اخیر Geforce، مدل GTX Titan X دارای فرکانس پایه است - حداقل برای عملکرد GPU در حالت 3D، و همچنین فرکانس Boost Clock توربو. فرکانس پایه برای این محصول جدید 1000 مگاهرتز و فرکانس Boost Clock 1075 مگاهرتز است. مانند قبل، فرکانس توربو فقط به معنی فرکانس متوسط ​​GPU برای مجموعه خاصی از برنامه های بازی و سایر وظایف سه بعدی مورد استفاده انویدیا است، و فرکانس واقعی عملکرد می تواند بالاتر باشد - این به بار و شرایط سه بعدی (دما، قدرت) بستگی دارد. مصرف و غیره)

به نظر می رسد که فرکانس GPU محصول جدید حدود 10 درصد بیشتر از GTX Titan Black است، اما کمتر از GTX 980 است، زیرا GPU های بزرگ همیشه باید با فرکانس پایین تری کلاک شوند (و GM200 به طور قابل توجهی بزرگتر از GM204). بنابراین، عملکرد کلی سه بعدی جدید حدود 33 درصد بیشتر از GTX 980 خواهد بود، به خصوص در هنگام مقایسه فرکانس های Turbo Boost.

از همه جنبه های دیگر، تراشه GM200 دقیقاً مشابه GM204 است - راه حل ها از نظر قابلیت ها و فناوری های پشتیبانی شده یکسان هستند. حتی ماژول‌های کار با نمایشگرها و داده‌های ویدیویی نیز دقیقاً مشابه مدل‌های GM204 باقی مانده‌اند که مدل Geforce GTX 980 بر اساس آن ساخته شده است. بر این اساس، هر آنچه در مورد GTX 980 و GTX 970 نوشتیم کاملاً در مورد Titan X صدق می‌کند. .

بنابراین، برای تمام سوالات دیگر در مورد ظرافت های کاربردی جدید، می توانید به بررسی Geforce GTX 980 و GTX 750 Ti مراجعه کنید، که در آن به طور مفصل در مورد معماری Maxwell، دستگاه پخش چند پردازنده (Streaming Multiprocessor - SMM) نوشته ایم. ، سازماندهی زیرسیستم حافظه و برخی تفاوت های معماری دیگر. همچنین می‌توانید ویژگی‌هایی مانند پشتیبانی سخت‌افزاری برای محاسبه شتاب‌دهنده روشنایی جهانی VXGI، روش‌های جدید ضدآلیاسینگ تمام صفحه، و قابلیت‌های بهبود یافته API گرافیکی DirectX 12 را بررسی کنید.

حل مشکلات با توسعه فرآیندهای فنی جدید

با اطمینان می توانیم بگوییم که همه در بازار کارت گرافیک برای مدت طولانی از فناوری فرآیند 28 نانومتری خسته شده اند - ما برای چهارمین سال است که آن را مشاهده می کنیم و در ابتدا TSMC اصلاً نمی توانست قدمی به جلو بردارد. سپس به نظر می‌رسید که می‌توان تولید 20 نانومتری را شروع کرد، اما فایده‌ای نداشت که برای پردازنده‌های گرافیکی بزرگ در دسترس نبود - بازده پردازنده‌های مناسب نسبتاً کم است و هیچ مزیتی در مقایسه با 28 نانومتر صرف شده یافت نشد. بنابراین، Nvidia و AMD مجبور بودند تا حد امکان از امکانات موجود استفاده کنند و در مورد تراشه‌های Maxwell، Nvidia به وضوح در این امر موفق بود. از نظر قدرت و بهره وری انرژی، پردازنده های گرافیکی این معماری به گامی رو به جلو تبدیل شده اند که AMD به سادگی به آن پاسخی نداد - حداقل هنوز.

بنابراین، از GM204، مهندسان Nvidia توانستند عملکرد بسیار بیشتری را در مقایسه با GK104، با همان سطح مصرف انرژی، تحت فشار قرار دهند، اگرچه تراشه یک سوم افزایش یافت و تراکم بالاتر ترانزیستورها باعث شد تعداد آنها حتی بیشتر شود - از 3.5 میلیارد به 5.2 میلیارد. واضح است که در چنین شرایطی GM204 شامل واحدهای اجرایی بسیار بیشتری بود که منجر به عملکرد سه بعدی بیشتر شد.

اما در مورد بزرگترین تراشه معماری Maxwell، طراحان انویدیا نتوانستند اندازه تراشه را بیش از حد افزایش دهند، در مقایسه با GK110، در حال حاضر مساحتی در حدود 550 میلی متر مربع دارد و اینطور نبود. امکان افزایش مساحت آن به میزان یک سوم یا حداقل یک چهارم وجود دارد - چنین GPU برای ساخت بسیار پیچیده و گران می شود. من مجبور شدم چیزی را قربانی کنم (در مقایسه با کپلر قدیمی)، و این چیزی به عملکرد محاسبات با دقت دوگانه تبدیل شد - سرعت آن در GM200 دقیقاً مانند سایر راه حل های ماکسول است، اگرچه کپلر قدیمی تر همه کاره تر بود، مناسب برای گرافیکی و برای هر گونه محاسبات غیر گرافیکی.

چنین تصمیمی برای کپلر آسان نبود - بیش از حد مساحت این تراشه توسط هسته های CUDA FP64 و سایر واحدهای محاسباتی تخصصی اشغال شده بود. در مورد ماکسول بزرگ، تصمیم گرفته شد که با کارهای گرافیکی کنار بیاید و به سادگی به عنوان یک نسخه بزرگ شده از GM204 ساخته شد. تراشه جدید GM200 کاملاً گرافیکی شده است، بلوک های خاصی برای محاسبات FP64 ندارد و نرخ آنها یکسان است - فقط 1/32 FP32. اما بیشتر منطقه GK110 که توسط ALU های FP64 اشغال شده بود، آزاد شد و ALU های FP32 که از نظر گرافیکی مهم بودند به جای آنها قرار گرفتند.

چنین حرکتی امکان افزایش قابل توجهی عملکرد گرافیکی (و محاسباتی، اگر محاسبات FP32 را در نظر بگیریم) در مقایسه با GK110 بدون افزایش مصرف انرژی و با افزایش جزئی در مساحت کریستال - کمتر از 10٪ امکان پذیر است. جالب اینجاست که انویدیا این بار عمدا به سراغ جداسازی تراشه های گرافیکی و محاسباتی رفت. اگرچه GM200 در محاسبات FP32 بسیار پربازده باقی می ماند و راه حل های تخصصی تسلا برای محاسبات تک دقیق کاملاً ممکن است و برای بسیاری از وظایف علمی کافی است، تسلا K40 پربازده ترین برای محاسبات FP64 است.

این تفاوت با تیتان اصلی است، به هر حال - راه حل اول خط همچنین می تواند برای مقاصد حرفه ای برای محاسبات با دقت مضاعف استفاده شود، زیرا برای محاسبات FP64 نیز دارای نرخ 1/3 است. و بسیاری از محققان از GTX Titan به عنوان کارت شروع برای برنامه‌ها و وظایف CUDA خود استفاده کرده‌اند و با موفقیت به راه‌حل‌های تسلا منتقل می‌شوند. برای این کار، GTX Titan X دیگر مناسب نیست، باید منتظر نسل بعدی پردازنده‌های گرافیکی باشید. البته اگر در ابتدا به تراشه های گرافیکی و محاسباتی تقسیم نشوند.

کارت‌های توسعه قبلاً چنین تقسیم‌بندی دارند - مدل تسلا K80 حاوی یک جفت تراشه GK210 است که در کارت‌های ویدیویی استفاده نمی‌شوند و برای عملکرد بیشتر وظایف محاسباتی با GK110 در یک فایل ثبت دو برابر شده و حافظه مشترک تفاوت دارند. به نظر می رسد که GK210 را می توان یک پردازنده منحصراً "محاسباتی" و GM200 را - یک پردازنده کاملاً "گرافیکی" در نظر گرفت (با درجه خاصی از مرسوم بودن، زیرا هر دو GPU دارای قابلیت های یکسان هستند، فقط تخصص های متفاوت).

بیایید ببینیم در نسل‌های بعدی معماری‌های گرافیکی انویدیا چه اتفاقی می‌افتد، که قبلاً بر اساس فرآیند فنی «نازک‌تر» تولید شده‌اند - شاید حداقل در ابتدا به چنین جدایی در آنها نیاز نباشد. یا برعکس، بلافاصله شاهد یک تقسیم بندی دقیق به مدل های GPU با تخصص های مختلف خواهیم بود (مدل های محاسباتی قابلیت های محاسباتی بیشتری خواهند داشت و مدل های گرافیکی - برای مثال بلوک های TMU و ROP)، اگرچه معماری یکسان باقی می ماند.

ویژگی های طراحی کارت گرافیک

اما به Geforce GTX Titan X برگردیم. این یک کارت گرافیک قدرتمند است که برای علاقه مندان به بازی های رایانه شخصی طراحی شده است، بنابراین باید ظاهر مناسبی نیز داشته باشد - طراحی اصلی و محکم برد و خنک کننده. مانند راه حل های قبلی خط Titan، مدل Geforce GTX Titan X با یک قاب آلومینیومی پوشانده شده است که ظاهر بسیار عالی را به کارت گرافیک می دهد - واقعاً جامد به نظر می رسد.

سیستم خنک کننده نیز بسیار چشمگیر است - طراحی خنک کننده Titan X از محفظه بخار آلیاژ مس استفاده می کند - GM200 GPU را خنک می کند. محفظه تبخیر به یک هیت سینک بزرگ آلیاژ آلومینیومی دو شیار متصل است که گرمای منتقل شده از تراشه ویدئویی را دفع می کند. فن هوای گرم شده را در خارج از کیس رایانه شخصی حذف می کند که تأثیر مثبتی بر رژیم کلی دمای سیستم دارد. این فن حتی در زمان اورکلاک و بارگذاری طولانی مدت بسیار بی صدا است و در نتیجه GTX Titan X با قدرت 250 وات یکی از بی صداترین کارت های گرافیک در کلاس خود است.

برخلاف برد مرجع Geforce GTX 980، محصول جدید فاقد صفحه قابل جابجایی خاصی است که سطح پشتی برد را می پوشاند - این کار برای اطمینان از حداکثر جریان هوا به PCB برای خنک کردن آن انجام می شود. این برد توسط مجموعه ای از یک کانکتور برق کمکی 8 پین و یک کانکتور 6 پین PCI Express تغذیه می شود.

از آنجایی که Geforce GTX Titan X برای علاقه مندانی طراحی شده است که راه حل هایی با حداکثر کارایی را ترجیح می دهند، تمام اجزای کارت گرافیک جدید با در نظر گرفتن این موضوع و حتی با اندکی احتیاط از نظر ویژگی ها و ویژگی ها انتخاب شده اند.

به عنوان مثال برای تامین انرژی پردازنده گرافیکی در Geforce GTX Titan X از سیستم منبع تغذیه 6 فاز با امکان تقویت اضافی استفاده شده است. برای اطمینان از عملکرد حافظه GDDR5، سیستم برق دو فاز دیگری نیز استفاده می شود. سیستم برق 6 + 2 فاز کارت گرافیک، حتی با اورکلاک، توان بیش از اندازه کافی را برای مدل مورد نظر فراهم می کند. بنابراین، برد مرجع Titan X قادر است تا 275 وات برق را به پردازنده گرافیکی تامین کند، به شرطی که حداکثر مقدار توان هدف (هدف قدرت) روی 110٪ تنظیم شود.

همچنین، برای بهبود بیشتر پتانسیل اورکلاک، خنک‌سازی تمام اجزای جدید در مقایسه با کارت گرافیک اصلی Geforce GTX Titan بهبود یافت - برد و خنک‌کننده بازطراحی شده منجر به بهبود قابلیت اورکلاک شد. در نتیجه، تقریباً تمام نمونه‌های Titan X می‌توانند در فرکانس‌های تا ۱.۴ گیگاهرتز یا بیشتر کار کنند - با همان خنک‌کننده هوای مرجع.

طول برد مرجع Geforce GTX Titan X 267 میلی متر است، دارای کانکتورهای خروجی تصویر زیر است: یک Dual-Link DVI، یک HDMI 2.0 و سه DisplayPort. Geforce GTX Titan X از خروجی نمایش تا رزولوشن 5K پشتیبانی می‌کند و یکی دیگر از کارت‌های گرافیکی مجهز به HDMI 2.0 است که رقیب همچنان فاقد آن است - این به شما امکان می‌دهد محصول جدید را به تلویزیون‌های 4K متصل کنید و حداکثر کیفیت تصویر را با نرخ تازه‌سازی بالای 60 ارائه کنید. هرتز

پشتیبانی از توسعه دهندگان بازی

انویدیا همیشه شرکتی بوده است که با سازندگان نرم افزار و به خصوص توسعه دهندگان بازی بسیار نزدیک کار می کند. نگاهی به PhysX - محبوب ترین موتور فیزیک بازی که بیش از 10 سال است در بیش از 500 بازی مورد استفاده قرار گرفته است. استفاده گسترده از PhysX از جمله به این دلیل است که در یکی از محبوب ترین موتورهای بازی ادغام شده است: Unreal Engine 3 و Unreal Engine 4. بنابراین، در کنفرانس توسعه دهندگان بازی 2015 کنفرانس توسعه دهندگان بازی، Nvidia اعلام کرد. دسترسی رایگان به کدهای منبع CPU - بخشی متمرکز از PhysX 3.3.3 برای توسعه دهندگان ++C در نسخه های Windows، Linux، OS X و Android.

توسعه‌دهندگان اکنون می‌توانند کد PhysX موتور را هر طور که می‌خواهند تغییر دهند، و حتی پس از آن می‌توان این تغییرات را در کد اصلی Nvidia PhysX گنجاند. انویدیا با باز کردن منبع PhysX برای عموم، دسترسی به موتور فیزیک خود را به طیف وسیع تری از توسعه دهندگان برنامه های بازی که می توانند از این موتور فیزیک پیشرفته در بازی های خود استفاده کنند، داده است.

انویدیا به ترویج فناوری دیگر خود ادامه می‌دهد، الگوریتم نسبتاً جدید شبیه‌سازی نور جهانی پویا VXGI، که شامل پشتیبانی از شتاب سخت‌افزاری ویژه در کارت‌های ویدیویی با پردازنده‌های گرافیکی Maxwell نسل دوم، مانند Geforce GTX Titan X است.

معرفی VXGI به بازی به توسعه دهندگان این امکان را می دهد که با استفاده از تمام قابلیت های GPU های مدرن و ارائه بالاترین عملکرد، محاسبه بسیار با کیفیتی از روشنایی جهانی پویا را در زمان واقعی ارائه دهند. برای درک اهمیت محاسبه روشنایی جهانی (با در نظر گرفتن نه تنها روشنایی مستقیم از منابع نور، بلکه همچنین بازتاب آن از تمام اشیاء در صحنه)، کافی است به چند تصویر نگاه کنید - با و بدون فعال بودن GI:

واضح است که این مثال مصنوعی است و در واقعیت، طراحان بازی از روش‌های خاصی برای شبیه‌سازی سایه‌زنی سراسری، قرار دادن چراغ‌های اضافی یا استفاده از نورپردازی از پیش محاسبه‌شده استفاده می‌کنند - اما قبل از ظهور VXGI، آنها یا کاملاً پویا نبودند (از قبل برای استاتیک محاسبه شده بودند. هندسه) یا واقع گرایی و/یا عملکرد کافی نداشتند. در بازی های آینده، استفاده از VXGI کاملاً امکان پذیر است و نه تنها در GPU های برتر.

تکنیک VXGI بین توسعه دهندگان بازی بسیار محبوب بوده است. حداقل بسیاری از آنها این روش را در صحنه های آزمایشی امتحان کرده اند، از نتایج بسیار هیجان زده هستند و به فکر گنجاندن آن در بازی های خود هستند. و در اینجا یک صحنه دیگر با محاسبه با کیفیت بالا از روشنایی جهانی است - همچنین نشان می دهد که چقدر مهم است که پرتوهای نور منعکس شده از تمام سطوح صحنه را در نظر بگیرید:

در حالی که توسعه‌دهندگان VXGI را در موتورهای خود پیاده‌سازی نکرده‌اند، می‌توانید از نسخه ویژه موتور Unreal Engine 4 VXGI GitHub استفاده کنید که در اختیار همه توسعه‌دهندگان علاقه‌مند قرار گرفته است - این امکان ادغام سریع VXGI را در بازی آنها فراهم می‌کند (و نه تنها! ) پروژه هایی که از این موتور بازی محبوب استفاده می کنند - با این حال، این به برخی تغییرات نیاز دارد، VXGI را نمی توان به سادگی "فعال کرد".

بیایید یکی دیگر از فناوری های انویدیا را در نظر بگیریم - ضد آلیاسینگ تمام صفحه با استفاده از روش MFAA، که عملکرد عالی و در عین حال کیفیت ضد آلیاسینگ قابل قبولی را ارائه می دهد. قبلاً در مورد این روش نوشته ایم و فقط به طور خلاصه ماهیت و دیدگاه ها را تکرار می کنیم. پشتیبانی از MFAA یکی از ویژگی های کلیدی پردازنده های گرافیکی Maxwell در مقایسه با پردازنده های گرافیکی نسل قبلی است. این نمونه‌ها با استفاده از قابلیت برنامه‌ریزی موقعیت‌ها برای نمونه‌های ضدآلیاسینگ در روش MSAA، هر فریم را طوری تغییر می‌دهند که MFAA تقریباً MSAA کامل است، اما با بار کمتری روی GPU.

در نتیجه، تصویر با فعال کردن MFAA تقریباً شبیه به MSAA است، اما کاهش عملکرد بسیار کمتر است. به عنوان مثال، MFAA 4x سرعتی برابر با MSAA 2x ارائه می دهد و کیفیت ضد آلیاسینگ نزدیک به MSAA 4x است. بنابراین، در آن دسته از بازی‌هایی که عملکرد برای دستیابی به نرخ فریم بالا کافی نیست، استفاده از MFAA کاملاً موجه خواهد بود و می‌تواند کیفیت را بهبود بخشد. در اینجا نمونه ای از عملکرد حاصل از MSAA و MFAA در کارت گرافیک Titan X در مقایسه با یک Titan معمولی (در وضوح 4K) آورده شده است:

روش MFAA anti-aliasing با تمامی بازی‌های DirectX 10 و DirectX 11 با پشتیبانی MSAA سازگار است (به استثنای پروژه‌های کمیاب مانند Dead Rising 3، Dragon Age 2 و Max Payne 3). MFAA را می توان به صورت دستی در کنترل پنل Nvidia فعال کرد. همچنین MFAA در Geforce Experience ادغام شده است و این روش در صورت بهینه سازی با استفاده از Geforce Experience به صورت خودکار برای بازی های مختلف فعال می شود. تنها مشکل این است که در حال حاضر MFAA هنوز با فناوری Nvidia SLI سازگار نیست، که آنها قول می‌دهند در نسخه‌های بعدی درایورهای ویدئویی آن را برطرف کنند.

بازی های مدرن Geforce GTX Titan X

Geforce GTX Titan X با تمام قدرت و قابلیت‌های خود نه تنها با بازی‌های فعلی، بلکه پروژه‌های آینده با پشتیبانی از نسخه آتی DirectX 12 با کیفیت، با فعال کردن ضد آلیاسینگ تمام صفحه و رندر با وضوح بالا - مانند 4K

در رزولوشن‌های بالا و فعال‌سازی anti-aliasing، یک زیرسیستم حافظه قدرتمند اهمیت ویژه‌ای پیدا می‌کند و Geforce GTX Titan X همه چیز را به همراه دارد - یک رابط حافظه 384 بیتی و تراشه‌هایی که با فرکانس موثر 7 گیگاهرتز کار می‌کنند، پهنای باندی را فراهم می‌کنند. 336.5 گیگابایت در ثانیه - اگرچه این یک رکورد نیست، اما بسیار مناسب است.

و همچنین بسیار مهم است که همه داده ها در حافظه ویدئویی قرار گیرند، زیرا وقتی MSAA با وضوح 4K در بسیاری از بازی ها فعال می شود، مقدار حافظه ویدئو به سادگی کافی نیست - بیش از 4 گیگابایت حافظه مورد نیاز است. و Titan X نه تنها 6 گیگابایت، بلکه به اندازه 12 گیگابایت حافظه ویدیویی دارد، زیرا این خط برای آن دسته از علاقه مندان ایجاد شده است که سازش را تحمل نمی کنند. واضح است که با چنین مقدار حافظه داخلی، بازیکن نیازی به فکر کردن به این ندارد که آیا عملکرد بازی در وضوح بالا با فعال کردن چند نمونه‌برداری کاهش می‌یابد - در همه بازی‌ها در هر تنظیماتی، 12 گیگابایت بیشتر خواهد بود. بیش از اندازه کافی

در حال حاضر، مطلقاً در هر بازی، می توانید هر تنظیماتی را تنظیم کنید و هر وضوحی را انتخاب کنید - Titan X در (تقریبا) هر شرایطی نرخ فریم کافی را ارائه می دهد. در اینجا بازی هایی وجود دارد که Nvidia برای نشان دادن عملکرد راه حل خود انتخاب کرده است:

همانطور که می بینید، نرخ فریم 40 فریم در ثانیه یا بیشتر در اکثر "سنگین ترین" بازی های مدرن با فعال بودن ضد aliasing تمام صفحه، از جمله پروژه هایی مانند Far Cry 4 - در این بازی، با تنظیمات Ultra و ضد ارائه شده است. - با نام مستعار رزولوشن 4K، دستیابی به سرعت رندر قابل قبول فقط در تنظیمات Titan X یا چند تراشه امکان پذیر است.

و با انتشار بازی‌های آینده که از DirectX 12 پشتیبانی می‌کنند، می‌توان انتظار افزایش حتی بیشتر مورد نیاز برای عملکرد GPU و حافظه ویدیویی را داشت - بهبود کیفیت رندر "رایگان" ارائه نمی‌شود. ضمناً در آن زمان انویدیا هنوز کارت گرافیک Titan X خود را در آخرین بازی که اخیراً منتشر شده است - نسخه PC Grand Theft Auto V تست نکرده بود. این سری از بازی ها در بین پروژه های مدرن محبوب ترین هستند. که در آن شما به عنوان عناصر جنایتکار مختلف در مناظر شهر لس سانتوس، به طرز مشکوکی شبیه به لس آنجلس واقعی عمل می کنید. نسخه PC بازی GTAV بسیار مورد انتظار بود و سرانجام در اواسط آوریل - یک ماه پس از Titan X - منتشر شد.

حتی نسخه های کنسولی (البته در مورد کنسول های نسل فعلی صحبت می کنیم) بازی Grand Theft Auto V از نظر کیفیت تصویر کاملاً خوب بودند و نسخه PC بازی چندین فرصت دیگر را برای بهبود آن ارائه می دهد: به طور قابل توجهی افزایش فاصله قرعه کشی (اشیاء، افکت ها، سایه ها)، توانایی بازی در 60 FPS یا بیشتر، از جمله وضوح تا 4K. علاوه بر این، آنها وعده ترافیک غنی و متراکم، تعداد زیادی اجسام پویا در صحنه، بهبود اثرات آب و هوا، سایه ها، نور و غیره را می دهند.

استفاده از چند فناوری Nvidia GameWorks کیفیت تصویر در GTAV را بیشتر بهبود بخشیده است. به یاد بیاورید که GameWorks یک پلت فرم ویژه برای توسعه دهندگان بازی و گرافیک است که فناوری های سه بعدی و ابزارهای کمکی طراحی شده برای کارت های ویدئویی Nvidia را در اختیار آنها قرار می دهد. افزودن فناوری‌های GameWorks به بازی‌ها، دستیابی به تقلید با کیفیت بالا از دود، پشم و مو، امواج، و همچنین نور جهانی و جلوه‌های دیگر را نسبتاً آسان می‌کند. GameWorks با ارائه نمونه ها، کتابخانه ها و SDK های آماده برای استفاده در کد بازی، کار را برای توسعه دهندگان بسیار آسان می کند.

Grand Theft Auto V از چند فناوری انویدیا استفاده می کند: ShadowWorks Percentage-Closer Soft Shadows (PCSS) و Temporal Anti-Aliasing (TXAA) که گرافیک از قبل خوب بازی را بهبود می بخشد. PCSS یک تکنیک ویژه رندر سایه است که کیفیت بهتری نسبت به روش های معمولی سایه نرم دارد. PCSS سه مزیت دارد: نرمی لبه های سایه به فاصله بین جسمی که سایه می اندازد و سطحی که روی آن کشیده شده است، همچنین فیلتر بهتری را ارائه می دهد که تعداد مصنوعات را به شکل لبه های ناهموار سایه ها کاهش می دهد. و استفاده از بافر سایه به شما این امکان را می دهد که تقاطع های سایه را از اشیاء مختلف به درستی مدیریت کنید و از ظهور سایه های "دوگانه" جلوگیری کنید.

در نتیجه، وقتی PCSS فعال است، بازی سایه‌های نرم، واقعی و پویا ارائه می‌کند که بسیار بهتر از آنچه در کنسول‌های بازی دیده‌ایم است. و برای بازی مانند Grand Theft Auto V با خورشید درخشان که دائماً در سراسر افق حرکت می کند، کیفیت سایه ها بسیار مهم است، آنها همیشه در معرض دید هستند. از اسکرین شات های زیر می توانید تفاوت بین دو روش با کیفیت مورد استفاده در بازی (الگوریتم AMD در مقابل روش Nvidia) را مشاهده کنید:

به وضوح مشاهده می شود که روش PCSS به شما امکان می دهد لبه های نرم سایه ها را بدست آورید که هر چه فاصله بین جسمی که سایه از آن قرار دارد و سطحی که سایه را دریافت می کند بیشتر محو می شوند. در عین حال گنجاندن PCSS تقریبا هیچ تاثیری بر عملکرد نهایی در بازی ندارد. در حالی که این روش کیفیت سایه و واقع گرایی بهتری را ارائه می دهد، روشن کردن این گزینه برای عملکرد عملا "رایگان" است.

یکی دیگر از موارد مهم اضافه شده به نسخه رایانه شخصی GTAV، روش ضد آلیاسینگ Nvidia TXAA است. Temporal Anti-Aliasing یک الگوریتم جدید ضد aliasing است که به طور خاص برای رسیدگی به مشکلات روش‌های متداول ضد aliasing که در حرکت مشاهده می‌شوند طراحی شده است - جایی که پیکسل‌های فردی سوسو می‌زنند. برای فیلتر کردن پیکسل های روی صفحه با استفاده از این روش، از نمونه ها نه تنها در داخل پیکسل، بلکه در خارج از آن، همچنین همراه با نمونه هایی از فریم های قبلی استفاده می شود که به شما امکان می دهد کیفیت فیلتر "سینه" را دریافت کنید.

مزیت روش نسبت به MSAA به ویژه در مواردی با سطوح شفاف مانند چمن، برگ درختان و شبکه های حصاری قابل توجه است. TXAA همچنین به صاف کردن جلوه های پیکسل به پیکسل کمک می کند. به طور کلی، این روش بسیار با کیفیت است و به کیفیت روش های حرفه ای استفاده شده در گرافیک سه بعدی نزدیک می شود، اما نتیجه بعد از TXAA در مقایسه با MSAA کمی تارتر است که به مذاق همه کاربران خوش نمی آید.

ضربه عملکرد از فعال کردن TXAA به بازی و شرایط بستگی دارد و عمدتاً با سرعت MSAA که در این روش نیز استفاده می شود، مرتبط است. اما در مقایسه با روش‌های ضدآلیاسینگ پس از پردازش خالص مانند FXAA، که حداکثر سرعت را با کیفیت پایین‌تر ارائه می‌کنند، TXAA قصد دارد کیفیت را با جریمه عملکرد اضافی به حداکثر برساند. اما با چنین غنا و جزئیات در جهان، همانطور که در Grand Theft Auto V می بینیم، گنجاندن آنتی آلیاسینگ با کیفیت بسیار مفید خواهد بود.

نسخه رایانه شخصی بازی دارای تنظیمات گرافیکی غنی است که به شما امکان می دهد کیفیت تصویر مورد نیاز را با عملکرد مورد نیاز دریافت کنید. بنابراین، GTAV در رایانه شخصی سرعت و کیفیت رندر قابل قبولی را در تمام راه حل های انویدیا ارائه می دهد، از حدود Geforce GTX 660. خوب، برای لذت کامل از تمام جلوه های گرافیکی بازی، توصیه می شود از چیزی مانند Geforce GTX 970/980 استفاده کنید. یا حتی تایتان x.

برای بررسی تنظیمات، یک تست عملکرد در بازی تعبیه شده است - این بنچمارک شامل پنج صحنه نزدیک به گیم پلی واقعی است که به شما امکان می دهد سرعت رندر بازی را روی رایانه شخصی با تنظیمات سخت افزاری مختلف ارزیابی کنید. اما دارندگان کارت‌های گرافیک Nvidia می‌توانند با بهینه‌سازی بازی برای رایانه شخصی خود با استفاده از Geforce Experience، این کار را آسان‌تر انجام دهند. این نرم افزار تنظیمات بهینه را با حفظ سرعت رندر قابل پخش انتخاب و تنظیم می کند - و همه اینها با کلیک یک دکمه انجام می شود. Geforce Experience بهترین ترکیب از ویژگی ها را برای Geforce GTX 660 با مانیتور FullHD و Titan X با تلویزیون 4K پیدا می کند که بهترین تنظیمات را برای یک سیستم خاص ارائه می دهد.

پشتیبانی کامل از بازی GTAV در بیلد جدید درایورهای Geforce نسخه 350.12 WHQL ظاهر شد که پروفایل بهینه شده ویژه ای برای این اپلیکیشن دارد. این نسخه درایور عملکرد مطلوبی را در بازی ارائه می‌کند، از جمله سایر فناوری‌های Nvidia: 3D Vision، 4K Surround، Dynamic Super Resolution (DSR)، GameStream، G-SYNC (Surround)، Multi Frame Sampled Anti-Aliasing (MFAA)، درصد نزدیک‌تر سایه های نرم (PCSS)، SLI و موارد دیگر.

همچنین، درایور ویژه 350.12 WHQL حاوی پروفایل های به روز شده SLI برای چندین بازی، از جمله نمایه جدید برای Grand Theft Auto V است. علاوه بر پروفایل های SLI، درایور برای هر دو فناوری 3D Vision پروفایل ها را به روز می کند و اضافه می کند و نمایه GTAV نیز بوده است. دارای رتبه "عالی"، که به معنای کیفیت تصویر استریو عالی در این بازی است - دارندگان عینک و مانیتور مناسب باید آن را امتحان کنند!

پشتیبانی از فناوری های واقعیت مجازی

موضوع واقعیت مجازی (Virtual Reality - VR) اکنون یکی از پر سر و صداترین موضوعات در صنعت بازی است. از بسیاری جهات، شرکت Oculus، که سپس توسط فیس بوک خریداری شد، برای احیای علاقه به VR "مقصر" است. آنها تا کنون فقط نمونه های اولیه یا SDK ها را نشان داده اند، اما برنامه هایی برای عرضه نسخه تجاری کلاه ایمنی Oculus Rift در اواخر سال جاری دارند. شرکت های دیگر نیز از قلم نیفتاده اند. به عنوان مثال، شرکت مشهور Valve اعلام کرده است که قصد دارد با HTC همکاری کند تا کلاه واقعیت مجازی خود را نیز تا پایان سال 2015 عرضه کند.

طبیعتاً، سازندگان GPU نیز آینده‌ای را در VR می‌بینند و انویدیا از نزدیک با تامین‌کنندگان نرم‌افزار و راه‌حل‌های سخت‌افزاری برای واقعیت مجازی کار می‌کند تا اطمینان حاصل کند که آنها تا حد امکان راحت با کارت‌های گرافیک Geforce (یا حتی Tegra، چه کسی می‌داند؟) کار می‌کنند. . و اینها فقط شعارهای بازاریابی نیستند، زیرا برای اینکه استفاده از VR راحت باشد، باید چندین مشکل حل شود، از جمله کاهش تأخیر بین عمل بازیکن (حرکت سر) و در نتیجه نمایش این حرکت روی نمایشگر - تأخیر بیش از حد نه تنها تجربه واقعیت مجازی را از بین می برد، بلکه می تواند باعث به اصطلاح بیماری حرکت (بیماری، بیماری حرکت) شود.

برای کاهش این تأخیر، نرم افزار VR Direct انویدیا از قابلیتی به نام ناهمزمان زمان تاب (asynchronous time warp) پشتیبانی می کند. با استفاده از زمان ناهمزمان، صحنه ای که مدتی پیش رندر شده است می تواند بر اساس حرکات سر بازیکن که بعداً توسط حسگرهای کلاه ضبط شده است حرکت کند. این امر تأخیر بین عمل و رندر تصویر را کاهش می دهد، زیرا GPU مجبور نیست کل فریم را قبل از تغییر مجدد محاسبه کند. انویدیا در حال حاضر پشتیبانی درایور را برای توسعه دهندگان برنامه های کاربردی VR ارائه می دهد و آنها می توانند اعوجاج زمان ناهمزمان را در نرم افزار خود اعمال کنند.

علاوه بر تأخیر خروجی، دستیابی به گیم پلی راحت در کلاه واقعیت مجازی بسیار مهم است نه تنها ارائه نرخ فریم بالا، بلکه نمایش فریم برای هر چشم با نرم ترین تغییر ممکن. بر این اساس، پس از محبوبیت نسل آینده کلاه‌های واقعیت مجازی، بسیاری از بازیکنان می‌خواهند آن‌ها را در بازی‌های مدرنی که از نظر قدرت پردازنده گرافیکی بسیار سخت‌گیر هستند، امتحان کنند. و در برخی موارد، باید یک پیکربندی SLI دو تراشه ای از یک جفت کارت گرافیک قدرتمند مانند Geforce GTX Titan X ایجاد کنید.

برای اطمینان از حداکثر راحتی در چنین مواردی، انویدیا فناوری VR SLI را ارائه می‌کند که به توسعه‌دهندگان بازی اجازه می‌دهد یک GPU خاص را از یک جفت به هر چشم اختصاص دهند تا تأخیر را کاهش داده و عملکرد را بهبود بخشد. در این حالت، تصویر برای چشم چپ توسط یک GPU و برای چشم راست - توسط GPU دوم ارائه می شود. این راه حل آشکار تاخیر را کاهش می دهد و برای برنامه های VR ایده آل است.

تا کنون، VR SLI و زمان ناهمزمان در درایورهای عمومی انویدیا در دسترس نیستند، اما این امر به ویژه ضروری نیست، زیرا استفاده از آنها نیازمند تغییراتی در کد اجرایی بازی است. و درایورهای ویدیویی Geforce پیش از انتشار با پشتیبانی از VR SLI و Asynchronous Time Warp برای شرکای انتخابی Nvidia مانند Epic، Crytek، Valve و Oculus در دسترس هستند. خوب، درایور عمومی نزدیکتر به عرضه نهایی محصولات VR برای فروش منتشر می شود.

علاوه بر این، چنین کارت گرافیک قدرتمندی مانند Geforce GTX Titan X در بسیاری از نمایش های واقعیت مجازی در کنفرانس توسعه دهندگان بازی امسال در سال 2015 استفاده شد. در اینجا فقط چند نمونه آورده شده است: "دزد در سایه ها" - توسعه مشترک Nvidia، Epic ، Oculus و WETA Digital، استودیوی جلوه‌های بصری پشت سه‌گانه فیلم هابیت، بازگشت به جزیره دایناسور، راه‌اندازی مجدد X-Isle معروف ۱۴ ساله Crytek: دمو جزیره دایناسور و پورتال Valve، «شبیه‌ساز شغل»، «TheBluVR» است. "و "گالری". به طور کلی، به عرضه کلاه‌های واقعیت مجازی برای فروش بستگی دارد و انویدیا برای این کار آماده خواهد بود.

نتیجه گیری در بخش نظری

از نقطه نظر معماری، پردازنده گرافیکی پیشرفته نسل دوم معماری Maxwell بسیار جالب بود. GM200 مانند برادران خود بهترین معماری های گذشته شرکت را با قابلیت های اضافه شده و تمام پیشرفت های نسل دوم Maxwell به کار می گیرد. بنابراین، از نظر عملکردی، این محصول جدید مطابق با مدل های خط Geforce GTX 900 خوب به نظر می رسد. ضمن افزودن قابلیت - پشتیبانی سخت افزاری برای شتاب نور جهانی VXGI و گرافیک API DirectX 12 را به یاد می آوریم.

کارت گرافیک برتر Geforce GTX Titan X برای گیمرهای فوق العاده علاقه مند طراحی شده است که می خواهند کیفیت و عملکرد نهایی را از جدیدترین بازی های رایانه شخصی، اجرا با بالاترین وضوح، بالاترین کیفیت تنظیمات، ضد تمام صفحه تمام صفحه داشته باشند. aliasing، و همه با نرخ فریم قابل قبول. از یک طرف، تعداد کمی از بازی‌ها به چنین GPU قدرتمندی نیاز دارند و می‌توانید چند کارت گرافیک ارزان‌تر نصب کنید. از سوی دیگر، به دلیل مشکلات راه حل های چند تراشه ای با افزایش تاخیر و نرخ فریم ناهموار، بسیاری از بازیکنان یک GPU قدرتمند را به یک جفت پردازنده کم قدرت ترجیح می دهند. ناگفته نماند که کارت تک تراشه نیز مصرف برق و صدای کمتری را از سیستم خنک کننده ارائه می دهد.

طبیعتا در چنین شرایطی موضوع اصلی Geforce GTX Titan X قیمت راه حل است. اما واقعیت این است که در طاقچه ای فروخته می شود که مفاهیم توجیه قیمت و ارزش برای پول به سادگی مورد نیاز نیست - راه حل هایی با حداکثر کارایی همیشه به طور قابل توجهی بیشتر از موارد نزدیک به آنها هزینه دارند، اما هنوز به همان اندازه مولد نیستند. و Titan X یک کارت گرافیک فوق العاده قدرتمند و گران قیمت برای کسانی است که مایل به پرداخت حداکثر سرعت در برنامه های سه بعدی هستند.

Geforce GTX Titan X به‌عنوان یک کارت گرافیک ممتاز (لوکس، نخبه - هر چه می‌خواهید اسمش را بگذارید) قرار می‌گیرد و هیچ شکایتی در مورد قیمت پیشنهادی وجود ندارد - به خصوص که راه‌حل‌های قبلی این خط (GTX Titan و GTX Titan Black) ) در ابتدا دقیقاً به همان قیمت تمام شد - 999 دلار. این راه حل برای کسانی است که با وجود قیمت، به سریع ترین GPU موجود نیاز دارند. علاوه بر این، برای ثروتمندترین علاقه مندان و دارندگان رکورد در معیارهای سه بعدی، سیستم هایی با سه و حتی چهار کارت گرافیک Titan X در دسترس هستند - اینها به سادگی سریع ترین سیستم های ویدیویی در جهان هستند.

اینها درخواست هایی هستند که Titan X کاملاً توجیه می کند و ارائه می دهد - جدیدترین محصول جدید حتی به تنهایی بالاترین نرخ فریم را در همه برنامه های بازی و تقریباً در همه شرایط (رزولوشن و تنظیمات) و میزان حافظه ویدیویی سریع GDDR5 12 را نشان می دهد. GB به شما امکان می دهد تا چندین سال آینده به کمبود حافظه محلی فکر نکنید - حتی بازی های نسل های آینده با پشتیبانی از DirectX 12 و غیره به سادگی نمی توانند این حافظه را آنقدر مسدود کنند که کافی نباشد.

همانطور که با اولین GTX Titan در سال 2013، GTX Titan X نوار جدیدی را برای عملکرد و عملکرد در بخش گرافیک برتر ایجاد می کند. زمانی GTX Titan به یک محصول نسبتا موفق برای انویدیا تبدیل شد و شکی نیست که GTX Titan X موفقیت نسل قبلی خود را تکرار خواهد کرد. علاوه بر این، مدل مبتنی بر بزرگترین تراشه ویدئویی معماری Maxwell بدون هیچ گونه رزروی به پربازده ترین در بازار تبدیل شده است. از آنجایی که کارت‌های گرافیکی مانند GTX Titan X توسط خود انویدیا تولید می‌شوند و نمونه‌های مرجع را به شرکای خود می‌فروشند، از همان لحظه معرفی آن هیچ مشکلی در دسترس بودن در فروشگاه‌ها وجود نداشته است.

GTX Titan X از هر نظر به بالاترین سطح خود می رسد: قدرتمندترین GPU از خانواده Maxwell، طراحی عالی کارت های گرافیک به سبک مدل های قبلی Titan، و همچنین سیستم خنک کننده عالی - کارآمد و بی صدا. از نظر سرعت رندر سه بعدی، این بهترین کارت گرافیک زمان ما است که در مقایسه با بهترین مدل هایی که قبل از Titan X عرضه شده بودند - مانند Geforce GTX 980 - بیش از یک سوم عملکرد بیشتری ارائه می دهد. و اگر دوتایی را در نظر نگیرید. سیستم های ویدئویی تراشه ای (مانند یک جفت از همان GTX 980 یا یک Radeon R9 295X2 از یک رقیب که مشکلات ذاتی در تنظیمات چند تراشه ای دارد)، سپس Titan X را می توان بهترین راه حل برای علاقه مندان غیر فقیر نامید.

در قسمت بعدی مطالب ما، سرعت رندر کارت گرافیک جدید Nvidia Geforce GTX Titan X را به صورت عملی بررسی می کنیم و سرعت آن را با عملکرد قوی ترین سیستم های ویدیویی AMD و با عملکرد پیشینیان انویدیا مقایسه می کنیم. در مجموعه معمول آزمایشات مصنوعی ما و سپس در بازی ها.

در مارس 2015، یک کارت گرافیک پرچمدار جدید از NVIDIA به عموم ارائه شد. کارت گرافیک بازی Nvidia Titan X تک تراشه است و معماری آن بر اساس الگوریتم پاسکال (برای GPU GP102) است که توسط سازنده ثبت شده است. در زمان ارائه Geforce GTX Titan X، به حق قوی ترین آداپتور ویدیویی بازی در نظر گرفته می شد.

پردازنده گرافیکیاین پردازنده گرافیکی دارای 3584 هسته CUDA با فرکانس پایه 1417 مگاهرتز است. در این حالت فرکانس ساعت با شتاب در سطح 1531 مگاهرتز خواهد بود.

حافظه این پرچمدار با ظرفیت 12 گیگابیت ارائه شد اما بعدا نسخه ای با حجم کاهش 2 برابری عرضه شد. سرعت حافظه به 10 گیگابیت در ثانیه می رسد. پهنای باند در گذرگاه حافظه 384 بیتی است که امکان داشتن پهنای باند حافظه 480 گیگابیت بر ثانیه را فراهم می کند. از تراشه های حافظه GDDR5X استفاده می شود، بنابراین حتی با پیکربندی 6 گیگابایتی، عملکرد بالا خواهد بود.

سایر مشخصات تایتان ایکستعداد ALU ها 3584، ROP 96، و تعداد واحدهای بافت روکش شده 192 است. این کارت همچنین از وضوح تا 7680×4320، مجموعه ای از کانکتورهای استانداردهای جدید DP 1.4، HDMI 2.0b، DL-DVI پشتیبانی می کند. و HDCP نسخه 2.2.

کارت گرافیک با یک اسلات (گذرگاه) PCIe 3.0 کار می کند. برای تامین برق کامل، باید کانکتورهای 8 پین و 6 پین اضافی روی منبع تغذیه داشته باشید. کارت دو اسلات روی مادربرد اشغال می کند (SLI برای 2، 3 و 4 کارت امکان پذیر است).

ارتفاع کارت گرافیک 4.376 اینچ و طول آن 10.5 اینچ است. توصیه می شود از منابع تغذیه با توان 600 وات یا بیشتر استفاده کنید.

نمای کلی کارت گرافیک

تاکید اصلی سازندگان بر بهبود گرافیک برای VR و همچنین پشتیبانی کامل از DirectX 12 بود. عملکرد کارت گرافیک در بازی ها را می توان با اورکلاک کردن عملکرد کارت GTX Titan X 12 Gb کمی افزایش داد.


هدف فناوری پاسکال بازی‌های واقعیت مجازی است. با استفاده از فناوری فوق سریع FinFET، حداکثر صافی هنگام استفاده از کلاه ایمنی به دست می آید. مدل Geforce Titan X Pascal کاملاً با VRWorks سازگار است که جلوه غوطه وری کامل را با توانایی تجربه فیزیک و حس های لمسی بازی می دهد.

در اینجا به جای لوله های حرارتی مسی، از محفظه تبخیر استفاده می شود. حداکثر دما 94 درجه است (از سایت سازنده) اما در آزمایشات میانگین دما 83-85 درجه است.هنگامی که به این دما می رسد، توربین خنک کننده سرعت بیشتری می گیرد. اگر شتاب کافی نباشد، فرکانس ساعت تراشه گرافیکی کاهش می یابد. صدای توربین کاملاً قابل تشخیص است، بنابراین اگر این یک شاخص قابل توجه برای کاربر است، بهتر است از خنک کننده آب استفاده کنید. راه حل هایی برای این مدل از قبل وجود دارد.

بهبود عملکرد معدن

این شرکت بر روی عملکرد بازی تمرکز کرده است. در مقایسه با کارت گرافیک، Geforce GTX Titan X 12 Gb ماینینگ را بهبود نمی بخشد، اما مصرف آن بیشتر است. همه کارت‌های گرافیک سری Titan به دلیل عملکرد دقیق FP32 و INT8 خود متمایز هستند. این به ما این امکان را می دهد که یک سری کارت را به عنوان شتاب دهنده کلاس حرفه ای در نظر بگیریم. با این حال، مدل با تراشه GM200 چنین نیست، زیرا بسیاری از آزمایش‌ها کاهش عملکرد را در محاسبات هش و سایر عملیات نشان می‌دهند. عملکرد استخراج ارزهای دیجیتال تنها 37.45 Mhash/s است.

استفاده از مدل X را برای استخراج ارزهای رمزنگاری شده توصیه نمی کنیم. حتی بهینه سازی انویدیا تایتان ایکس برای عملکرد، نتایج مشابه Radeon Vega را نخواهد داشت (اگر با همان قیمت استفاده شود)، چه رسد به تسلا.

یک کارت جدید از همان سازنده 2.5 برابر عملکرد بیشتری می دهد. در حالت اورکلاک، Titan V رقم 82.07 Mhash / s را ارائه کرد.

نتایج تست در بازی ها

اگر کارت گرافیک Titan X Pascal را با سایرین مقایسه کنیم، آنگاه 20-25٪ بهتر از کارت گرافیک همان سازنده است و همچنین تقریباً دو برابر از رقیب Radeon R9 FuryX که تک تراشه نیز هست عمل می کند.

در تمامی بازی های 4K و UltraHD شاهد یک تصویر صاف هستیم. ما همچنین در آزمایشات با استفاده از حالت SLI به نتایج خوبی دست یافتیم.

مقایسه کارت گرافیک از تولید کنندگان مختلف

قیمت کارت گرافیک Titan X 12 Gb از 1200 دلار شروع می شود و به سازنده و میزان حافظه بستگی دارد.

ما به شما پیشنهاد می کنیم با ویژگی های مقایسه ای کالاهای تولید کنندگان مختلف (* - مشابه) آشنا شوید:

تولید - محصولPalit GeForce GTX TITAN XMSI GeForce GTX TITAN XASUS GeForce GTX TITAN X
لیست ویژگی های اولیه
نوع کارت گرافیکبازی *
نام پردازنده گرافیکیNVIDIA GeForce GTX TITAN X *
کد سازندهNE5XTIX015KB-PG600F *
اسم رمز GPUجی ام 200 *
فرآیند فنی28 نانومتر *
مانیتورهای پشتیبانی شدهچهار *
وضوح GM200 (حداکثر)5120 تا 3200 *
لیست مشخصات
فرکانس GPU1000 مگاهرتز *
حافظه12288 مگابایت *
نوع حافظهGDDR5 *
فرکانس حافظه7000 مگاهرتز7010 مگاهرتز7010 مگاهرتز
عرض گذرگاه حافظه384 بیت *
فرکانس RAMDAC400 مگاهرتز *
پشتیبانی از حالت CrossFire /SLIممکن است *
پشتیبانی از چهار SLIممکن است* *
لیست مشخصات بر اساس اتصال
اتصال دهنده هاپشتیبانی از HDC، HDMI، DisplayPort x3 *
نسخه HDMI2.0 *
بلوک ریاضی
تعداد پردازنده های جهانی3072 *
نسخه شیدر5.0 *
تعداد بلوک های بافت192 *
تعداد بلوک های شطرنجی سازی96 *
ویژگی های اضافی
ابعاد267×112 میلی متر280×111 میلی متر267×111 میلی متر
تعداد اسلات های اشغال شده2 *
قیمت74300 r.75000 r.75400 r.

بر اساس جدول مقایسه، مشاهده می شود که تولید کنندگان مختلف استاندارد را رعایت می کنند. تفاوت در ویژگی ها ناچیز است: فرکانس متفاوت حافظه ویدیویی و اندازه آداپتورها.

اکنون این مدل از هیچ سازنده ای در فروش وجود ندارد. در ژانویه 2018، جهان معرفی شد که چندین بار در عملکرد در بازی ها و استخراج ارزهای دیجیتال از همتایان خود بهتر است.