Новая статья: Итоги 2019 года: игровые видеокарты- Новости ИТ - Сервис
 
Главная страница


комплексные ИТ-решения

ВАШИ ИДЕИ
СТАНУТ РЕАЛЬНОСТЬЮ!

  
   


Самый полный
спектр ИТ-услуг
  Решения в области
Информационных технологий
 
 
 

 

 Главная  /  Новости  /  новости IT-рынка  /  Новая статья: Итоги 2019 года: игровые видеокарты

Новости

Новая статья: Итоги 2019 года: игровые видеокарты
09.01.2020, 21:00:42 
 
p>Производители графических процессоров провели этот год на редкость плодотворно. Во всей истории противоборства NVIDIA и графического подразделения AMD (а до того — самостоятельной компании ATI) нужно еще поискать период, когда на рынок выходило так много дискретных игровых видеокарт. Соперники представили в совокупности дюжину устройств самой разной производительности и цены. Однако если проанализировать развернувшуюся картину с не количественной, а с качественной точки зрения, то подлинными инновациями можно назвать лишь два явления — пришествие графических процессоров AMD Navi на основе прорывной архитектуры RDNA и дебют младших чипов NVIDIA Turing в серии GeForce 16. В остальном NVIDIA была занята по большей части контрмерами к выпадам соперника, которые в конечном счете привели к полной реформе каталога GeForce 16 и GeForce 20, а также к отставке некоторых позиций, не просуществовавших на рынке и 12 месяцев. Хочется проводить 2019-й год в прошлое с благодарностью за интересные технические новинки, но у нас — людей, которым по долгу службы пришлось тесно познакомиться с каждой, — останутся в памяти не только они, но и еще немало откровенно постных, а иной раз попросту нелепых и непривлекательных моделей.

Давайте вспомним, как развивались события хронологическом порядке. Начать как раз придется с одного из поводов для разочарования, но, надо отдать должное AMD, отнюдь не скуки. Пускай назвать Radeon VII удачной игровой видеокартой язык не повернется, чисто технического шарма (как и сырой производительности в неграфических расчетах) ей не занимать.

#AMD Radeon VII

За последнюю пятилетку в соревновании NVIDIA и AMD явно определились позиции лидера и догоняющего. Ситуация, в которой флагманские ускорители под марками GeForce и Radeon могли соперничать на равных, ушла в историю вместе с GeForce GTX 980 Ti и Radeon R9 Fury X, и с тех пор AMD ни разу не представился шанс восстановить статус-кво. Слабость архитектуры Graphics Core Next, которая присутствует на потребительском рынке уже восемь лет, стала болезненно заметной после того, как конкурент выпустил в продажу устройства на чипах Turing. Старшие модели GeForce RTX 20 теперь безраздельно властвуют на рынке высокопроизводительных дискретных видеокарт, а функции трассировки лучей на уровне кремния оказали немалое влияние на курс развития всей индустрии развлекательных и профессиональных 3D-приложений.

AMD Radeon VII

Однако в столь незавидном положении AMD сохранила за собой важное преимущество: именно «красным» в очередной удалось первыми освоить новую технологическую норму. Благодаря фотолитографии 7 нм FinFET компания начала производить обновленную версию флагманского чипа Vega для серверных плат, а потом, за неимением лучших вариантов, решила испытать Vega 20 и на потребительском рынке — под маркой Radeon VII. Передовой техпроцесс, высокие тактовые частоты и удвоенная пропускная способность оперативной памяти сделали из этой видеокарты один из лучших ускорителей расчетов общего назначения. Но вот для того, чтобы удачно выступить в игровой категории, AMD не смогла обеспечить ни привлекательную цену, ни быстродействие, превосходящее возможности хотя бы GeForce RTX 2080, не говоря уже об RTX 2080 Ti. Кроме того, Radeon VII подвело конструктивное исполнение с довольно шумной системой охлаждения, а выпускать оригинальные варианты карты партнерам AMD не разрешили. Как выяснилось уже через полгода, Radeon VII был для AMD лишь временным решением на пути к действительно массовым устройствам архитектуры RDNA. Тем не менее эта видеокарта сохраняет большую ценность в качестве превосходного ускорителя задач GP-GPU с щедрым объемом оперативной памяти в 16 Гбайт и скоростью вычислений двойной точности, которую иначе просто невозможно получить за такие деньги. В профессиональных приложениях для обработки цифрового контента $699, отданные за Radeon VII, окупятся сторицей.

А если взять Radeon Pro Vega II Duo для рабочих станций Apple Mac Pro на базе двух полностью функциональных кристаллов Vega 20, то это попросту самая высокопроизводительная видеокарта в данный момент, ведь у NVIDIA не было «двухголовых» ускорителей со времен GeForce GTX TITAN Z. Жаль только, что AMD не собирается выпустить нечто подобное для PC со стандартным одинарным разъемом PCI Express, да и вообще эта история — совсем не про игры. Radeon VII стал лебединой песней не только для архитектуры GCN в секторе потребительских дискретных GPU, но и для функции CrossFire. Новые видеокарты Radeon 5000-й серии уже нельзя объединить в тандем, если только игра или рабочее приложение не может самостоятельно распараллеливать нагрузку без помощи драйвера. Впрочем, кто знает, что произойдет в будущем, ведь облачные игровые сервисы (как например, Google Stadia, которая как раз-таки базируется на чипах Vega) представляют собой ничто иное, как изощренную реализацию mGPU в большом масштабе.

AMD Radeon Pro Vega II Duo

Кстати, на выставке CES в первых числах января нам удалось задать AMD давно волнующий вопрос: жив Radeon VII или мертв? В отличие от не столь ответственных коллег по IT-журналистике, мы всегда стояли на такой позиции, что пока нет официальной информации от производителя о прекращении жизненного цикла модели, а сами видеокарты наличествуют в прайс-листах, то никакой речи о преждевременной кончине  Radeon VII быть не может. Теперь уже высокопоставленные сотрудники AMD подтвердили, что Radeon VII по-прежнему является частью актуальной продуктовой линейки, и пусть компания не обязательно заказывает новые партии ускорителя впрок, как это делают с массовыми геймерскими продуктами, она всегда готова отгрузить на рынок необходимое количество устройств, пока на них есть спрос.

#Видеокарты NVIDIA серии GeForce 16

NVIDIA сделала титульной функцией графических процессоров Turing трассировку лучей в реальном времени при помощи выделенных аппаратных блоков, и она уже эффектно проявила себя в ряде игр, где DXR используется для формирования комплексных эффектов отражений, теней и глобального освещения. В то же время компании рано или поздно пришлось бы заменить не только старшие модели GeForce 10, но и всю серию целиком новыми устройствами на базе GPU, выпущенных по технологии 12 нм. Слабейшим из них аппаратная трассировка лучей вовсе ни к чему — общей производительности массива ALU для плавной игры и так не хватит, ведь специализированные RT-блоки, вопреки распространенному заблуждению, принимают на себя лишь часть общей вычислительной нагрузки, связанную с навигацией в геометрических структурах BVH, а повторяющиеся при каждом отражении луча шейдерные операции по-прежнему ложатся на универсальные CUDA-ядра. Во всяком случае для того, чтобы лицезреть эффекты DXR, обработка BVH на аппаратном уровне не требуется, ведь с определенного момента драйверы NVIDIA позволяют сделать это даже на старых GPU начиная с 6-гигабайтной версии GeForce GTX 1060. Но только без претензий на комфортную частоту смены кадров. В бенчмарках современных игр с трассировкой (Battlefield V, Metro Exodus, Shadow of the Tomb Raider) какую-никакую производительность показал только GeForce GTX 1080 Ti и, с натяжкой, GTX 1080, а в перспективных будущих проектах (таких как Atomic Heart) уже нет места старому железу.

В каталоге ускорителей на базе кремния Turing водораздел между продуктами с целиком аппаратной и софтверной трассировкой лучей проходит ниже GeForce RTX 2060, а устройства дешевле $300 NVIDIA заключила в отдельную серию GeForce 16. Чтобы сформировать костяк нового модельного ряда (а затем дополнить его версиями SUPER, но об этом позже), компании хватило двух компактных графических процессоров — TU116 и TU117. Оба чипа структурно отличаются от «полноценного» кремния Turing — от TU106 до TU102 — только отсутствием RT-блоков, а также тензорных ядер для обработки данных нейросетями (inference). В остальном младшие «Тьюринги» полностью копируют логику старших, включая все оптимизации шейдерных расчетов и развитую иерархию кеш-памяти. NVIDIA даже зашла настолько далеко, чтобы взамен утраченных тензорных ядер внедрить широкий массив специализированных 16-битных ALU — опять-таки для машинного обучения, но заодно для усеченных шейдерных расчетов, которые с успехом применяются в ряде графических движков.

На основе TU116 поначалу вышли только два устройства — GeForce GTX 1660 и GTX 1660 Ti. Различаются они набором активных вычислительных блоков графического процессора и типом микросхем оперативной памяти: Ti достался полностью функциональный GPU и 6 Гбайт GDDR6, а «простому» GTX 1660 — частично урезанная версия чипа и такой же объем сравнительно медленной памяти GDDR5.

В ту пору, когда GeForce GTX 1660 и GTX 1660 Ti появились на магазинных полках по рекомендованным ценам $229 и $279, AMD в бюджетной и средней ценовой категории располагала графическими процессорами Polaris и Vega. О GPU архитектуры RDNA еще не было никакой речи, да и сейчас с GeForce GTX 1660 и GTX 1660 Ti ни одна «красная» видеокарта не конкурирует напрямую. Доступные предложения NVIDIA выбили почву из-под не слишком популярного Radeon RX 590, а GTX 1660 Ti почти догнал по быстродействию Radeon RX Vega 56. И все это — при вдвое меньшей потребляемой мощности. Как следствие наглядного устаревания, карточки AMD стремительно упали в ценах, а если рассматривать российский рынок, то с тех времен изрядно подешевели и новинки NVIDIA. Так или иначе, поклонники обеих компаний, а главное — экономные геймеры, остались полностью довольны плодами локальной ценовой войны.

Графический процессор NVIDIA TU117

А вот самый младший представитель серии GeForce 16 — GTX 1650 — не впечатляет ни техническими характеристиками (даже для своей стоимости в $149), ни ценовым позиционированием. NVIDIA не использует в дискретных ускорителях полностью функциональный чип TU117, а урезанная версия в составе GeForce GTX 1650 по своим основным параметрам слишком похожа на старый GTX 1050 Ti, чтобы полностью оправдать притязания на статус устройства нового поколения. Вдобавок к этому платы с TU117 укомплектованы неповоротливыми чипами GDDR5, а главное, объем оперативной памяти в 4 Гбайт уже не красит даже бюджетную видеокарту. GeForce GTX 1650 прервал позитивную тенденцию на рост соотношения производительности и цены дискретных ускорителей NVIDIA, а подешевевший к тому времени Radeon RX 570 был и остается лучшим выбором для самых бережливых геймеров. Забегая вперед, скажем, что даже появление GTX 1650 SUPER и Radeon RX 5500 XT не сделали эту поистине народную видеокарту AMD менее привлекательной. А в пользу GTX 1650 говорит только энергопотребление в пределах 75 Вт и, следовательно, компактный дизайн без необходимости в разъеме дополнительного питания.

NVIDIA GeForce RTX SUPER

Львиная доля видеокарт, увидевших свет в 2019 году, пришлась на устройства с претенциозным словом SUPER в названии, с помощью которых NVIDIA повысила удельный FPS на доллар стоимости (в ряде случаев чрезвычайно сильно) и, по сути, целиком переработала свой модельный каталог в соответствии с новыми рыночными обстоятельствами. Но годом раньше, когда в продаже только появились первые образцы серии GeForce 20, индустрия высокопроизводительных дискретных GPU подпала под единоличный контроль «зеленых», которые ощутили возможность без оглядки на конкурента диктовать стоимость предложений в средне-высокой и высшей категории быстродействия. Такое положение вещей всегда играет против потребителя — в данном случае видеокарты на старших чипах Turing и близко не дали такой прибавки быстродействия на доллар, какая в прошлом сопутствовала смене архитектуры GPU и производственной нормы. В качестве компенсации NVIDIA внедрила новые, пока что эксклюзивные функции рендеринга — трассировку лучей в реальном времени и масштабирование экрана при помощи нейросети (DLSS), вот только далеко не все геймеры по доброй воле согласны уступить ценные FPS ради передовых технологий, которыми дают воспользоваться считаные единицы современных игр.

К счастью, «красные» ускорители семейства Radeon RX 5700 со временем восстановили живую конкуренцию среди производителей графических процессоров, а Radeon RX 5500 XT затем распространил ее в бюджетный сектор. Соперник отреагировал на действия AMD ревизией каталога GeForce 20, которая в конечном счете не без изменений ни одну из четырех первоначальных моделей, представленных NVIDIA летом-осенью 2018 года. GeForce RTX 2060, 2070 и 2080 обзавелись приставкой SUPER и более щедрыми спецификациями, и только GeForce RTX 2080 Ti остался в неизменном виде (хотя и флагманскую видеокарту, если верить слухам, в конечном счете могут обновить). При этом план NVIDIA подразумевал полную замену GeForce RTX 2070 и RTX 2080 их SUPER-модификациями, а GeForce RTX 2060 сохранил роль ускорителя начального уровня с аппаратной поддержкой трассировки лучей. Тем не менее оригинальный RTX 2070 в определенный момент пришлось вернуть на конвейер, да и остатки RTX 2080 все еще не полностью распроданы. Надо ли говорить, какую мешанину NVIDIA устроила в прайс-листах, смущая тех покупателей, которые редко читают 3DNews…

С точки зрения технических характеристик и функциональности феномен SUPER не представляет собой ничего принципиально нового: в основе каталога GeForce 20 по-прежнему лежат три старших чипа архитектуры Turing — TU106, TU104 и TU102. Производитель всего лишь разблокировал часть спящих вычислительных блоков там, где их недоставало, а в иных случаях просто выписал устройству графический процессор следующего, более высокого эшелона.

Так, для GeForce RTX 2080 приставка SUPER указывает на полностью активный чип TU104 вместо частично урезанного ядра RTX 2080. В свою очередь, для того чтобы превратить GeForce RTX 2060 в RTX 2060 SUPER, пришлось задействовать не только больше шейдерных ALU, но и расширить канал связи с оперативной памятью со 192 до 256 бит. Попутно NVIDIA исправила и главный недостаток оригинального RTX 2060 — скромный для такой производительности объем RAM в 6 Гбайт — теперь ее стало 8 Гбайт. Что касается GeForce RTX 2070 SUPER, то эта видеокарта фактически заменила собой оригинальный RTX 2080: благодаря тому, что GeForce RTX 2080 SUPER тоже сделал шаг на одну ступень выше и получил полностью функциональный чип TU104, кристаллы второго сорта с частично дефективными или намеренно отрезанными блоками теперь идут на SUPER-версию GeForce RTX 2070.

По рекомендованным розничным ценам ускорители под маркой SUPER, которые встали на замену первопроходцев 20-й серии GeForce, позиционируются NVIDIA как условно бесплатный апгрейд характеристик. Так, GeForce RTX 2070 SUPER и RTX 2080 SUPER вышли на рынок под старыми ценниками с отметками $499 и $699 соответственно. К тому же на этот раз компания не разграничивает видеокарты Founders Edition собственного производства и партнерские аналоги: отныне они полностью эквивалентны и по характеристикам, и по рекомендованным ценам. Лишь на RTX 2060 SUPER щедрость NVIDIA уже не распространяется: коль скоро оригинальный RTX 2060 остался в строю, SUPER-версию справедливо оценили на $50 дороже ($399 против $349).

Как бы то ни было, перестановки в модельном ряду NVIDIA происходят вовсе не из альтруизма. Спецификации и стоимость GeForce RTX 2060 SUPER ориентированы на прямую конфронтацию с 399-долларовым Radeon RX 5700 XT. В свою очередь, базовая версия Radeon RX 5700 продается за минимальную сумму $349, совпадающую с рекомендациями для GeForce RTX 2060. А GeForce RTX 2080 SUPER появился на свет просто в результате эффекта домино: если RTX 2070 SUPER трудно отличить от оригинального RTX 2080, то последнему волей-неволей тоже пришлось искать адекватную изменившимся реалиям замену.

NVIDIA GeForce RTX 2060 SUPER и GeForce RTX 2070 SUPER

#Видеокарты AMD Radeon RX 5700 (XT) на базе архитектуры RDNA

С тех пор как Advanced Micro Devices и ATi превратились в объединенную компанию, центральные процессоры AMD и видеокарты Radeon как будто сели на качели. За всю декаду у геймеров ни разу не было возможности собрать компьютер на «красных» чипах без компромисса в быстродействии того или иного ключевого компонента — либо процессор отставал, либо видеокарта не дотягивала. Вот и сейчас CPU архитектуры Zen триумфально шествуют по рынку серверов, рабочих станций и десктопов, а графический департамент AMD, напротив, утратил инициативу в сфере высокопроизводительных графических процессоров после Radeon R9 Fury X на чипе Fiji. В то время многие обозреватели железа вынесли «Фурии» обвинительный вердикт всего лишь из-за нескольких процентов быстродействия, отданных в пользу GeForce GTX 980 Ti. Но знали бы они, какая пропасть впоследствии разверзнется между лучшими продуктами NVIDIA и AMD…

Видеокарты Radeon зашли в тупик по вине архитектуры Graphics Core Next, которая в первые годы своего существования на рынке била рекорды производительности, а чипы AMD практически не уступали по энергоэффективности кремнию Kepler от NVIDIA. Однако миграция на архитектуру Maxwell, затем на Pascal и наконец на Turing позволила «зеленым» радикально увеличить показатели быстродействие в 3D-рендеринге, оставаясь в границах прежнего резерва мощности. В то же время богатырский потенциал быстродействия, которым отличаются чипы GCN, целиком могут раскрыть только расчеты общего назначения. Что неудивительно, ведь приложения GP-GPU имели в умах проектировщиков архитектуры GCN не менее высокий приоритет, чем 3D-рендеринг вообще и игры в частности. Чтобы сохранить конкурентные позиции в той или иной ценовой нише потребительского рынка, AMD из года в год принуждала кремний GCN работать в невыгодной зоне кривой тактовых частот и напряжения питания. Как следствие, даже крупнейшие графические процессоры AMD с транзисторным бюджетом выше десяти миллиардов элементов устранились от конкуренции с продуктами NVIDIA, да и в нижних категориях производительности «зеленым» проще обеспечить ускорителю такие характеристики, чтобы оправдать, как правило, более высокую розничную стоимость.

К счастью, нам больше не придется повторять эту историю, которая в конечном счете привела рынок игровых видеокарт на грань монополизации и позволила NVIDIA безнаказанно заламывать отпускные цены. AMD набралась сил порвать с Graphics Core Next (по крайней мере в потребительских устройства) и привела к коммерческому внедрению принципиально новую архитектуру RDNA. В данной статье было бы неуместно анализировать устройство чипов Navi — это мы уже скрупулезно сделали в обзоре Radeon RX 5700 (XT). Достаточно сказать, что за счет новой логики соотношение производительности на ватт, количество транзисторов и единицу площади у Navi скакнуло на 16-18 % по сравнению с показателями Vega 20 на плате Radeon VII. Тем не менее графические чипы NVIDIA семейства Turing по-прежнему лидируют в оценках энергоэффективности, даже несмотря на то, что отстают на один шаг технологической нормы.

Что касается первенцев архитектуры RDNA — геймерских видеокарт Radeon RX 5700 и RX 5700 XT, — то чип Navi 10 настолько эффективно конвертирует проектные терафлопсы вычислительной мощности в производительность задач 3D-рендеринга, что старшая модель вплотную подступает к результатам Radeon VII, невзирая на громадную разницу в потребляемой мощности (225 против 300 Вт) и цене ($399 вместо $699). В свою очередь, Radeon RX 5700 в играх оказался приблизительным аналогом Radeon RX Vega 64, а преимущество Navi по энергоэффективности выражено еще ярче (185 и 295 Вт соответственно) в силу не только архитектуры, но и разницы техпроцессов. А вот успехи новинок в вычислениях общего назначения пока оставляют желать лучшего. Для профессиональных приложений определяющее значение имеет количество шейдерных ALU, которых полно в чипах GCN, а разработчики Navi потратили значительную долю транзисторного бюджета на развитую управляющую логику. Не зря AMD и дальше будет эксплуатировать продукты на основе GCN в ускорителях для серверов и рабочих станций.

Radeon RX 5700 и Radeon RX 5700 XT

Благодаря логике RDNA и чипам Navi AMD сумела вытащить свои графические процессоры из ямы низкой энергоэффективности и построить надежную стартовую площадку, чтобы в будущем атаковать верхние эшелоны продуктов конкурента. Если дело и вправду дойдет до самых высокопроизводительных видеокарт, исход борьбы решит в первую очередь технологическое лидерство «красной» или «зеленой» команды — как в старые добрые времена. А вот для того, чтобы застолбить преимущество в ценовой категории пониже (которой принадлежат Radeon RX 5700 и RX 5700 XT), обеим фирмам нужно соблюсти тонкий баланс между быстродействием, функциями рендеринга, потребляемой мощностью и — самое главное — ценами устройств. Кто же из соперничающих производителей лучше всего справился с этой задачей?

Как показали наши тесты, отдать пальму первенства NVIDIA или AMD в этом случае совсем непросто. По сравнению с RTX 2060 SUPER базовая версия Radeon RX 5700 оказалась слабее в игровых бенчмарках на 5-6 % среднего FPS, зато устройство AMD дешевле сразу на $50. Radeon RX 5700 XT и RTX 2060 SUPER равны по минимальной розничной цене, но в этой дуэли уже «красные» лидируют с отрывом 6-8 %. Как ни крути, NVIDIA не до конца умерила свои аппетиты в средне-высокой категории быстродействия, ведь AMD по-прежнему охотно продает игровые FPS за меньшие деньги. Наконец, производительность обновленного RTX 2070 на 8-10 % выше, чем у Radeon RX 5700 XT, однако за нее уже придется доплатить еще $100.

В сторону GeForce RTX 2060 SUPER и RTX 2070 SUPER чаши весов склоняет функция трассировки лучей в реальном времени, которой лишены чипы Navi первой волны, но будущее (да и настоящее) видеокарт такого уровня быстродействия в играх с DXR — вопрос дискуссионный. Если взять за образец проекты с такой мощной технической компонентой, как Metro Exodus и Control, младшие «Тьюринги» могут рассчитывать на адекватную производительность только при разрешении 1080p, да и то с компромиссами в детализации трассированных эффектов. С другой стороны, полностью сбрасывать со счетов отсутствие у Navi каких бы то ни было инновационных функций 3D-рендеринга все-таки не стоит, ведь другие, более легковесные имплементации DXR (как в Battlefield V и Shadowof the Tomb Raider) RTX 2060 и RTX 2060 SUPER вполне по силам — особенно в тех случаях, когда DLSS не подкачала. Кстати, на этот счет мы в свое время провели отдельное исследование и выяснили, что DLSS — штука капризная: иные игры научились безупречно масштабировать экран при помощи нейросети (Shadow of the Tomb Raider, Control), но в то же время есть образчики посредственного или просто отвратительного качества (как в Battlefield V).


Источник: 3DNews

 
 
Новости:    Предыдущая Следующая   
 Архив новостей

Разделы новостей:

Подписаться на новости:

 

Поиск в новостях: