для чего нужны видеокарты titan
Для чего нужны видеокарты titan
Независимые исследования утверждают, что NVIDIA сейчас контролирует более 80% рынка дискретных видеокарт, а собственные квартальные отчёты компании указывают на рост средней стоимости видеокарт данной марки и выручки от их реализации. Грубо говоря, NVIDIA стала продавать больше дорогих видеокарт, и основатель компании склонен объяснять это не близким к монопольному положением на рынке, а ростом популярности компьютерных игр. В целом же, дискретные графические решения нужны всё меньшему количеству ПК, непритязательные пользователи всё чаще отдают предпочтение интегрированной графике.
реклама
Интервью Джеффа Фишера (Jeff Fisher) из NVIDIA японскому сайту 4Gamer.net позволяет в очередной раз понять политику производителя и стратегию поведения, хотя по степени экспрессии вице-президент NVIDIA по продуктам GeForce явно уступает основателю компании и своему непосредственному руководителю. Во-первых, руководство NVIDIA осознаёт, что спрос на дорогие игровые видеокарты растёт, и современные игровые консоли им особой конкуренции не составляют.
Во-вторых, Джефф Фишер признаёт, что рынок недорогих видеокарт, которые в случае с продукцией NVIDIA ещё пользуются спросом со стороны корпоративных потребителей, скоро стабилизируется на своём исторически минимальном уровне. Полностью интегрированная в центральные процессоры графика не сможет вытеснить дискретные графические решения окончательно. Во всяком случае, NVIDIA обещает предлагать недорогие видеокарты в будущем, как и сейчас. Единственное, что может произойти – это сократится их ассортимент.
NVIDIA обещает, что ноутбуки с операционной системой Windows 10 и поддержкой технологии Optimus, позволяющей динамически переключаться с интегрированной графики на дискретную, позволят работать с технологией виртуальной реальности. Во всяком случае, для работы с Oculus VR их уровня производительности будет хватать.
NVIDIA GTX TITAN — возвращение Kepler’а
Прошло немногим меньше года с тех пор, как NVIDIA представила миру видеоадаптер NVIDIA GTX 680. По сей день она являлась неоспоримым лидером по производительности. Новинка принесла с собой не только заметное увеличение производительности относительно предыдущего поколения (GTX 580), но и явила миру архитектуру Kepler, а также множество новых фич.
И вот спустя год, компания NVIDIA показывает нам новую видеокарту. Вопреки ожиданиям, называется новинка не GTX 780, и не относится к какой либо линейке вообще. Именуется новинка очень просто — NVIDIA GTX TITAN. Вероятно, название должно вызывать у покупателей ассоциации с титанической мощью. Вполне возможно, что так оно и будет. Ответ на это мы узнаем, проведя тестирование. А для начала я предлагаю вспомнить, с чего все начиналось и что такое Kepler.
Архитектура Kepler
На базе архитектуры Kepler построен GPU NVIDIA GK104, который является сердцем видеокарты NVIDIA GTX 680.
Kepler является развитием архитектуры Fermi, на которой работали видеокарты GTХ 580 и младше. Главное отличие на тот момент заключалось в уменьшении техпроцесса с 40 до 28 нм. Конечно же, на этом изменения не закончились. На схеме мы видим четыре кластера обработки графики (Graphics Processing Clusters), в каждом из которых «живёт» по два SMX (Next Generation Streaming Multiprocessors), они же потоковые процессоры. В общей сложности у нас получается восемь SMX. Каждый SMX несёт в себе 192 CUDA-ядра. Таким образом, общее количество ядер достигало отметки в 1536 единиц. По сравнению с предыдущим поколением, это дало трёхкратное увеличение мощности.
Как я и говорил чуть выше, GTX 680 принесла с собой не только новый GPU, но и новые технологии. Среди них был PCI-E, выросший до версии 3.0. Это позволило увеличить полосу пропускания до 8 GT/s (Гигатранзакций в секунду). На тот момент это не принесло существенного увеличения производительности, и, устанавливая видеокарту в материнскую плату с разъёмом PCI-E 2.0, пользователь практически не терял производительности — а если и терял, то это были считанные проценты, которые ни на что не влияют, кроме количества «попугаев» в бенчмарках. Однако то, что тогда было практически бесполезным, теперь придётся очень кстати. Если новинка действительно заметно мощнее своего предшественника, то увеличенная пропускная способность интерфейса PCI-E очень даже пригодится.
Также нам показали технологию NVIDIA GPU Boost, которая автоматически увеличивает тактовую частоту видеопроцессора, основываясь на показаниях датчиков. Если видеокарта не работала на пределе, не перешагивала через порог TDP, то она самостоятельно увеличивала тактовую частоту, что обеспечивало прирост производительности без вмешательства пользователя. Изначально технология вызвала множество критики и недовольств в свой адрес, особенно у профессиональных оверклокеров. Однако на сегодняшний день все уже привыкли к её существованию и лично мне она даже нравится. Видеокарта сама определяет безопасный потолок, до которого можно увеличивать частоту, не боясь зависаний и перезагрузок в самый интересный момент — это здорово.
Помимо этого, с выходом видеокарты NVIDIA GTX 680 появилась возможность подключать до четырёх мониторов к одной видеокарте. Раньше пришлось бы использовать две видеокарты. Эта возможность пригодится вам, если вы любите поиграть, не отрываясь от работы (на верхний дисплей можно вытащить необходимые вам окна), или просто любите активно поработать.
Самая быстрая одночиповая видеокарта. Тестирование нового флагмана NVIDIA — GeForce GTX TITAN

Год назад, тестируя новое поколения GeForce 600, мы предположили, что чип GK104 на GTX 680 — далеко не все, на что способна архитектура Kepler. И, похоже, были правы. Восемнадцатого февраля NVIDIA представила свой настоящий флагман — кристалл GK110. Карта на его основе вышла настолько мощной, что впервые в истории компании получила не цифробуквенное обозначение, а имя собственное — GeForce GTX TITAN, в честь самого быстрого суперкомпьютера по версии TOP500 list.
Родословная
С именитым собратом новинку роднит не только имя, но и, как ни странно, техническая часть. Лидер вычислительных систем набран 18 668 картами NVIDIA Tesla K20X, которые и легли в основу нашего героя.
Установленный на него чип GK110 построен по уже знакомой нам архитектуре Kepler. Кристалл разделен на несколько крупных кластеров под названием GPC. В каждый входит по одному растеризатору и по паре SMX-наборов. Последние — 192 CUDA-ядра, 16 текстурников, 32 блока специальных операций и один движок тесселяции. В прошлом флагмане (GTX 680) насчитывалось восемь таких SMX, в GK110 — четырнадцать, то есть на 75% больше. В итоге количество CUDA-ядер увеличилось с 1536 до 2688 единиц, а TMU — со 128 до 224. Чтобы собрать такую махину, пришлось разместить на камне 7,1 млрд транзисторов против 3,54 млрд у GTX 680. При этом работают они на 836 МГц. Конечно, это не 1006 МГц у GK104, но, учитывая разницу в вычислительных блоках, цифра могла быть и меньше.
Впечатляет в GTX TITAN и объем видеопамяти. Ее для новинки выделили в три раза больше, чем для GK104, — 6 ГБ GDDR5 на скорости в 6 ГГц. Шину же увеличили с 256 до 384 бит, что дало почти 50%-ный прирост к пропускной способности. Зачем так много? Действительно, для конфигураций с одним монитором 6 ГБ — избыточная емкость, но для запуска игр на трех дисплея с разрешением 5760х1080 — самое то.
Технологии
Поскольку новинка основана на архитектуре 600-серии GeForce, все присущие ей технологии никуда не делись. Переделали лишь несколько опций. Так, нашумевшая функция автоматического разгона GPU Boost подросла до второй версии. Как и Intel с запуском Sandy Bridge, NVIDIA отказалась от повышения частот в зависимости от энергопотребления. Как показала практика, зачастую кристалл упирался в этот показатель и не мог развить наивысшую для него скорость, да и время работы оставляло желать лучшего. С GPU Boost 2.0 ориентиром для увеличения производительности стала текущая температура: пока она не поднимется до 80 градусов Цельсия, видеокарта будет функционировать как минимум на 876 МГц.
К сожалению, как и раньше, аппаратный оверклокинг отключить нельзя, зато можно повлиять на его поведение. Помимо разгонной частоты отныне позволяется менять пороговую температуру и вольтаж, устанавливая значения, к которым будет стремиться GPU. Играя этими параметрами, можно как затормозить, так и ускорить GK110. Интересно, что официально подобные эксперименты NVIDIA все еще не поддерживает: настройки доступны только в сторонних программах типа EVGA Precision.
С GPU Boost 2.0 у NVIDIA появилась еще одна интересная функция — разгон монитора при помощи нового V-Sync. Если до сегодняшнего дня синхронизация не позволяла счетчику fps подниматься выше 60 кадров, то теперь эту планку можно задать вручную, выставив, к примеру, 80 изображений в секунду. Конечно, вряд ли эта технология понадобится простым игрокам, но вот заядлым киберспортсменам может пригодиться, от них мы не раз слышали, что 60 fps — слишком мало для динамичных игр.
Сделала NVIDIA подарок и тем, кто использует видеокарту не только для развлечений, но и для ускорения вычислений общего назначения (к примеру, математические пакеты). Нарочно для них количество ядер двойной точности увеличили с 8 до 64 штук на один SMX-набор. Включаются эти блоки через панель управления NVIDIA, в опциях CUDA, и работают на чуть меньшей скорости, чем основные ядра.
Внешний вид
Внешне GTX TITAN напоминает прошлогоднюю GTX 690 — тот же алюминиевый корпус, плексигласовое стекло, светящееся зеленым название серии на боку и штамповка с именем платы у переднего края. Единственное заметное отличие — вентилятор теперь цилиндрический и размещен не посередине, а рядом с питающими разъемами PCIe. Последних нужно две штуки, на 6 и 8 pin; вместе с PCIe x16 они обеспечивают необходимые карте 250 Вт.
Пассивную часть системы охлаждения составляют испарительная камера и большой алюминиевый радиатор. Интересно, что, несмотря на возросшую мощь GPU и появление шумной вертушки, GTX TITAN сохранила тихий нрав своих предшественников: даже под нагрузкой карту почти не слышно. Спасибо за это надо сказать хитрому алгоритму управления вентилятором. Низкие обороты сохраняются, пока плата держится в пределах 80 градусов Цельсия, и только после пересечения этой отметки крыльчатка начинает крутиться сильнее. О холодном характере новичка говорит и задняя панель. На выхлоп горячего воздуха отведена всего половинка отсека: оставшаяся площадь отдана под видеовыходы. GTX TITAN получил два DVI и по полноразмерному DisplayPort и HDMI.
Тестирование
В продаже GTX TITAN должен появиться лишь 4 марта, но нам удалось достать один из трех привезенных в нашу страну экземпляров. Помогли в этом деле официальное представительство NVIDIA и магазин Meijin, предоставивший нам мощную тестовую платформу на базе материнской платы ASUS Rampage IV Formula с процессором Intel Core i7-3790X Extreme Edition, четырьмя планками DDR3-1666 МГц по 8 ГБ каждая и установленным SSD Intel 520 на 480 ГБ. Работало все это на операционной системе Windows 7 Ultimate 64-bit.
В конкуренты флагману записали видеокарты GTX 680 и GTX 690. К сожалению, сравнить новинку с референсной Radeon HD 7970 мы не успели. Впрочем, потеря невелика, результаты топового продукта AMD примерно на 5—10% ниже, чем у GTX 680: можете вычесть из столбиков NVIDIA и представить себе итоговое соотношение.
В список синтетических тестов вошли 3DMark 11, Unigine Heaven 3.0 и Unigine Valley. Пакет игр составили Aliens vs. Predator, Batman: Arkham City, DiRT2, Just Cause 2, Max Payne 3 и новейший Crysis 3. Все это прогоняли на максимальных настройках с разными уровнями сглаживания (MSAA) и в двух разрешениях: 1680х1050 и 1920х1080.
Crysis 3 оказался невероятно красивой и, как показали наши тесты, требовательной игрой. Сколь ни удивительно, встроенного бенчмарка Crytek не написали, так что тестировать проект пришлось по старинке: при помощи FRAPS. Тем, кто захочет повторить наши подвиги и сравнить свою систему с GTX TITAN, расскажем, что для этого нужно.
В качестве тестовой сцены мы выбрали самое начало второго уровня игры — Welcome to the Jungle. Тестируемый промежуток — контрольная точка с подрывом мин, пробежкой до поднятия на мост и скриптовым роликом общения с Психом. Отрывок хорош тем, что демонстрирует все основные возможности CryEngine 3 и его легко воспроизвести.
Результаты получились следующими. В гонке одночиповых решений GTX TITAN — безусловно, новый король графики. Еще по итогам синтетики стало понятно, что GTX 680 безнадежно отстает: 27% на погрешность не спишешь. Игры это только подтвердили. Почти во всех проектах преимущество GK110 составляло от 20 до 33%. Конечно, это не плюс 75 теоретических процентов, но прирост более чем внушительный. Особенно хорошо GTX TITAN показала себя в тяжелых бенчмарках — Crysis 3 и Max Payne 3. При максимальных настройках GTX 680 не осилила ни один из них. Новичок ниже 30 fps не опускался.
А вот догнать двойную GTX 690 свежему флагману не удалось. Две GTX 680, размещенных на одном куске текстолита, оказались заметно быстрее абсолютно во всех тестах, кроме Crysis 3. Впрочем, последний, похоже, просто не смог использовать все возможности SLI: слишком маленький прирост по сравнению с одиночным GK104. Возможно, с патчами или обновлением драйверов скорость подрастет.
В итоге
Пропеть дифирамбы NVIDIA мешает одна вещь — цена. В то время как за более производительный (и шумный) GTX 690 сейчас хотят 31 000 рублей, а за GTX 680 просят 15 000 рублей, за GTX TITAN придется выложить от 34 999 рублей! Именно во столько NVIDIA оценивает быстрейшую одночиповую видеокарту на нашей планете. Честно признаемся, очень хочется написать по этому поводу пару гневных абзацев, но не будем.
Как ни крути, GeForce GTX TITAN — не только самая быстрая, но еще и самая технологически совершенная плата в мире. При всей своей изначальной мощи она в пике потребляет каких-то 250 Вт, почти не греется, не шумит и отлично гонится. По мнению NVIDIA, новинку можно установить даже в SFF-корпус (чуть больше Xbox 360). Кто готов предложить нечто лучшее? Да никто, аналогичных продуктов на рынке нет и в ближайшее время не предвидится. А значит, NVIDIA можно смело поздравить с очередной победой.
| Технические характеристики | |||
| Характеристика | NVIDIA GeForce GTX TITAN | NVIDIA GeForce GTX 680 | NVIDIA GeForce GTX 690 |
| Ядро | GK110 | GK104 | 2x GK104 |
| Количество транзисторов | 7,1 млрд | 3,54 млрд | 2x 3,54 млрд |
| Техпроцесс | 28 нм | 28 нм | 28 нм |
| Количество потоковых процессоров | 2688 шт. | 1536 шт. | 2х 1536 шт. |
| Частота графического ядра | 837—876 МГц | 1006—1058 МГц | 915—1015 МГц |
| Тип, объем памяти | GDDR5, 6 ГБ | GDDR5, 2 ГБ | GDRR5, 4 ГБ |
| Частота памяти | 6008 МГц | 6008 МГц | 6008 МГц |
| Шина данных | 384 бит | 256 бит | 2х 256 бит |
| Количество текстурных блоков | 224 шт. | 128 шт. | 2х 128 шт. |
| Длина платы | 267 мм | 254 мм | 280 мм |
| Энергопотребление | 250 Вт | 195 Вт | 300 Вт |
| Интерфейс | PCIe 3.0 x16 | PCIe 3.0 x16 | PCIe 3.0 x16 |
| Цена на февраль 2013 года | 34 999 рублей | 15 000 рублей | 31 000 рублей |
| Синтетические тесты | ||||
| 3DMark 11 (Performance) | ||||
| Модель видеокарты | Graphics | Physics | Score | % |
| NVIDIA GeForce GTX TITAN | 10 346 | 13 206 | 12 725 | 100% |
| NVIDIA GeForce GTX 680 | 9 699 | 12 346 | 9812 | 77% |
| NVIDIA GeForce GTX 690 | 16 783 | 12 197 | 14 882 | 117% |
| Unigine Heaven Benchmark 3.0 | ||||
| Модель видеокарты | FPS | Scores | % | |
| NVIDIA GeForce GTX TITAN | 65,6 | 1652 | 100% | |
| NVIDIA GeForce GTX 680 | 46,7 | 1176 | 71% | |
| NVIDIA GeForce GTX 690 | 80,3 | 2024 | 123% | |
| Unigine Valley 1.0 | ||||
| Модель видеокарты | FPS | Scores | % | |
| NVIDIA GeForce GTX TITAN | 62,9 | 2632 | 100% | |
| NVIDIA GeForce GTX 680 | 41,5 | 1737 | 66% | |
| NVIDIA GeForce GTX 690 | 72,9 | 3050 | 116% | |
| Игровые тесты (кадров в секунду) | |||
| Aliens vs. Predator (DX11) | |||
| Настройки | NVIDIA GeForce GTX TITAN | NVDIA GeForce GTX 680 | NVDIA GeForce GTX 690 |
| VeryHigh, 1680×1050, AF 16x, AA 2x | 116,5 | 81,3 | 145,6 |
| VeryHigh, 1680×1050, AF 16x, AA 4x | 97,8 | 64,6 | 119,1 |
| VeryHigh, 1920×1080, AF 16x, AA 2x | 103,1 | 72,3 | 130,4 |
| VeryHigh, 1920×1080, AF 16x, AA 4x | 87,9 | 58,4 | 107,4 |
| % | 100% | 68% | 124% |
| Just Cause 2 (DX11) | |||
| Настройки | NVIDIA GeForce GTX TITAN | NVDIA GeForce GTX 680 | NVDIA GeForce GTX 690 |
| High, 1680×1050, AF 16x, AA 4x | 118,1 | 93,4 | 151,2 |
| High, 1680×1050, AF 16x, AA 8x | 117,8 | 89 | 147,6 |
| High, 1920×1080, AF 16x, AA 4x | 114,4 | 81,3 | 144,7 |
| High, 1920×1080, AF 16x, AA 8x | 109,3 | 88,8 | 139,7 |
| % | 100% | 77% | 127% |
| Batman: Arkham City (DX11) | |||
| Настройки | NVIDIA GeForce GTX TITAN | NVDIA GeForce GTX 680 | NVDIA GeForce GTX 690 |
| Ultra, 1680×1050, AF 16x, AA 4x | 145 | 89 | 150 |
| Ultra, 1680×1050, AF 16x, AA 8x | 128 | 84 | 130 |
| Ultra, 1680×1050, AF 16x, PhysX | 70 | 75 | 74 |
| Ultra, 1920×1080, AF 16x, AA 4x | 138 | 57 | 147 |
| Ultra, 1920×1080, AF 16x, AA 8x | 115 | 56 | 127 |
| Ultra, 1920×1080, AF 16x, PhysX | 72 | 55 | 74 |
| % | 100% | 62% | 105% |
| Max Payne 3 (DX11) | |||
| Настройки | NVIDIA GeForce GTX TITAN | NVDIA GeForce GTX 680 | NVDIA GeForce GTX 690 |
| Very High, 1680×1050, AF 16x, AA 4x | 76,3 | 52,3 | 92,9 |
| Very High, 1680×1050, AF 16x, AA 8x | 45,5 | 30,6 | 58,3 |
| Very High, 1920×1080, AF 16x, AA 4x | 66,5 | 46 | 81,9 |
| Very High, 1920×1080, AF 16x, AA 8x | 40,4 | 26,5 | 48,4 |
| % | 100% | 68% | 123% |
| DiRT 2 | |||
| Настройки | NVIDIA GeForce GTX TITAN | NVDIA GeForce GTX 680 | NVDIA GeForce GTX 690 |
| Ultra, 1680×1050, AF 16x, AA 4x | 185,2 | 146,5 | 196,6 |
| Ultra, 1680×1050, AF 16x, AA 8x | 146,2 | 130 | 192,7 |
| Ultra, 1920×1080, AF 16x, AA 4x | 164,8 | 136,3 | 194,3 |
| Ultra, 1920×1080, AF 16x, AA 8x | 137,2 | 108,1 | 184,6 |
| % | 100% | 82% | 121% |
| Crysis 3 | |||
| Настройки | NVIDIA GeForce GTX TITAN | NVDIA GeForce GTX 680 | NVDIA GeForce GTX 690 |
| Max, 1680×1050, AF 16x | 64,5 | 50,4 | 58 |
| Max, 1680×1050, AF 16x, AA 4x | 51,4 | 36,9 | 45,3 |
| Max, 1680×1050, AF 16x, AA 8x | 40,8 | 28,9 | 35,9 |
| Max, 1920×1080, AF 16x | 58,1 | 45,7 | 52,1 |
| Max, 1920×1080, AF 16x, AA 4x | 45,5 | 33 | 42 |
| Max, 1920×1080, AF 16x, AA 8x | 35,8 | 25,2 | 32,1 |
| % | 100% | 74% | 90% |
| Соотношение цена/производительность | ||
| Модель видеокарты | Производительность | Цена |
| NVIDIA GeForce GTX TITAN | 100% | 100% |
| NVDIA GeForce GTX 680 | 72% | 43% |
| NVDIA GeForce GTX 690 | 116% | 88% |
Многие сейчас задаются вопросом, к какой серии причислить GTX TITAN — GeForce 600 или GeForce 700. NVIDIA, судя по всему, считает, что ни к одной из них. Об этом говорят как название, так и цена. Однако у нас на этот счет другое мнение.
Приписать новинку к новой серии невозможно. Для этого нам должны были представить по крайней мере измененную архитектуру и новые возможности. А их в GTX TITAN нет. Но вот возглавить 600-ю линейку флагман может без вопросов. Мало того, мы думаем, что сделать это он мог и год назад.
Будем честны, GTX 680 ну никак не тянул на топовую видеокарту. Тому было много прямых и косвенных свидетельств. Самые явные — низкое энергопотребление (всего 195 Вт) и маркировка хх104, которую до этого использовали только для среднего ценового диапазона. В списке неосновных улик значится затянутый выход младших представителей GeForce 600. На выпуск GK106 (GTX 660) ушло почти полгода, хотя раньше на это требовалось не больше трех месяцев.
На этом фоне GTX TITAN выглядит как настоящий лидер 600-й серии: нормальное TDP в 250 Вт, «правильное» имя чипа и внушительная производительность. Почему же тогда новинку не взяли официально в семью? Как нам кажется — чтобы, во-первых, подчеркнуть уникальность решения и заработать на нем больше денег, а во-вторых, не называть столь мощную карту банальным GTX 685.






