Проверка временем: 8800 Ultra SLI

8800 Ultra x2
Введение
В прошлой заметке мы разобрались с поведением GeForce 9800 GTX+ и Radeon HD 4850 в старых и не очень играх на современной системе. Как оказалось, даже 512-мегабайтные карточки еще способны позволить вам поиграть в любимые тайтлы, пускай и на низких настройках графики. Пару дней назад в лаборатории overclockers.ru был опубликован всеобъемлющий материал об эволюции производительности видеокарт Nvidia от моего коллеги mishgane. Хотя акцент в той статье сделан именно на 8800 Ultra, это совсем не значит, что в исследовании легендарной видеокарты можно ставить точку. В частности, в стороне остался волнующий вопрос о производительности и масштабируемости SLI-связки из этих карт. Изучению потенциала GeForce 8800 Ultra SLI в современных реалиях и будет посвящен сегодняшний второй по счету выпуск “Проверки временем”.
Если взглянуть на технические характеристики 8800 Ultra и протестированной в прошлый раз 9800 GTX+, то обновленный флагман 9-й серии может похвастаться лишь более высокими частотами ядра/памяти и большим числом транзисторов. Впрочем, благодаря тонкому 55-нм техпроцессу их удалось разместить на чипе меньшей площади. На стороне “ультры”, в первую очередь, больший объем памяти (768 МБ против 512 МБ) и почти на треть большая пропускная способность: 103,7 ГБ/сек против 70,5 ГБ/сек. Также Ultra имеет 24 блока растровых операций, тогда как у GTX+ из всего 16. Но достаточно ли простой математики для досрочного присуждения победы? Не стоит торопиться, ведь 126 МГц разницы в частотах ядра это довольно много, к тому же 754 млн. транзисторов находятся в чипе G92b не просто так, и новая модель наверняка получила различные аппаратные и программные оптимизации.

Однако у 8800 Ultra в этом обзоре есть напарник, готовый придти на помощь и разгромить требовательные до ресурсов игры! Но это в теории,… а что же будет на практике? Тестирование покажет.

Но сначала подробнее рассмотрим сегодняшних участниц.

Nvidia GeForce 8800 Ultra

8800 Ultra

Выход GeForce 8800 Ultra стал тем редким случаем, когда новинка выпускается не в ответ на решение конкурента или для упредительного удара по нему, а для замены собственного же флагмана и, соответственно, повышения цены. Тут, конечно, можно привести в сравнение пример с появлением первого GTX Titan, но он был нужен Nvidia для завоевания лидерства в условиях жесткой конкуренции с Radeon HD 7970 Ghz Edition, а в случае с 8800 Ultra конкуренции с AMD в топ-сегменте не было.

Релиз 8800 Ultra состоялся 2 мая 2007 года и заставил геймеров и энтузиастов с ужасом содрогнуться от стоимости новинки, составившей $829. Даже по сегодняшним меркам такая цена кажется очень высокой, а для 2007 года она и вовсе выглядела заоблачной.

Изначально планировалось установить частоту ядра “ультры” на отметке в 650 МГц, но в итоге ее решили снизить до 612 МГц, ибо даже обновленная система охлаждения с трудом справлялась с горячим нравом чипа G80. Сам чип, к слову, получил обновленную ревизию A3 и снизил энергопотребление на 2 Вт по сравнению с A2. Разгонный потенциал, напротив, возрос, так что 8800 Ultra стала желанным приобретением для оверклокеров. Еще одной особенностью “ультры”, отличавшей ее от 8800 GTX, стала более быстрая и дорогая память GDDR3 от Samsung со временем выборки 0,8нс и номинальным напряжением 1,8 В. Снижение напряжения памяти также позволило немного поубавить TDP (до 193 Вт).

Модернизированная система охлаждения получила вынесенный за пределы печатной платы вентилятор, который теперь мог забирать воздух с обеих сторон. Кроме того, такая конструкция придала 8800 Ultra уникальный и запоминающийся внешний вид. Кожух был продлен и теперь закрывал всю печатную плату, а вот сам радиатор практически не изменился и остался слабым местом всей СО.

8800 Ultra cooling

К сожалению, ошибки технологического процесса производства видеокарт линейки GeForce 8000 не были учтены в новой модели. Речь тут, конечно же, идет о применении недостаточно пластичного бессвинцового припоя, из-за которого чипы при большом количестве циклов нагрева-охлаждения “отваливались” от подложки. Высокие рабочие температуры старших моделей усугубляли процесс, так что до наших дней дожило не так много видеокарт с индексом 8800, и с каждым днем их становится все меньше. Имея в своем распоряжении суммарно шесть видеокарт на чипах G80, три их них пришлось подвергнуть процедуре “прожарки” для восстановления BGA-контакта чипа с текстолитом.



Описание тестового стенда
Изменений в аппаратной и программной конфигурации тестового стенда со времени прошлого обзора не произошло. Единственный момент – кулер True Spirit 140 вернулся обратно на AMD-платформу, а его место на Maximus VI Gene заняла обновленная модель True Spirit 140 Power.
  • CPU: Core i7-4770K @ 4.3 GHz (Haswell);
  • Cooler: Thermalright True Spirit 140;
  • MB: ASUS Maximus VI Gene (Z87);
  • RAM: 2x4 GB DDR3 Samsung DH0 (1600 MHz CL8);
  • HDD: Seagate Barracuda 7200.11 1.5 TB;
  • PSU: OCZ ZT750 (750W);
  • Case: открытый стенд собственного изготовления;
  • ОS: Windows 7 Pro x64;
  • Drivers: ATI Catalyst 13.9, Nvidia ForceWare 342.01 (декабрь 2016) и 310.90 (январь 2013).

Maximus VI Gene

Тестовые приложения и методика
Набор тестовых приложений так же не изменился, благодаря чему результаты 8800 Ultra можно напрямую сравнить с HD 4850 и 9800 GTX+, что и будет сделано на новых графиках. Напомню, что игры тестового набора выбирались из такого принципа, чтобы чреди них были как проекты периода выхода видеокарт (2007-2009гг.), так и более современные игры, выпущенные уже во время царствования на десктопах DirectX 11 (2011г. и далее).

Первая категория:
  • Assassin's Creed II – ноябрь 2009г.
  • CoD Modern Warfare 2 – ноябрь 2009г.
  • Crysis DX10 – ноябрь 2007г.
  • Unreal Tournament 3 – октябрь 2007г.
  • S.T.A.L.K.E.R.: Чистое небо – август 2008г.

Вторая категория:
  • Age of Wonders III – март 2014г.
  • Battlefield 3 – октябрь 2011г.
  • Borderlands: The Pre-Sequel – октябрь 2014г.
  • Far Cry 3 – ноябрь 2012г.
  • The Elder Scrolls V: Skyrim – ноябрь 2011г.
  • Shadow Warrior – сентябрь 2013г.
  • Grim Dawn – февраль 2016г.

Во всех играх были выключены AA, AF и вертикальная синхронизация. Также Vsync был принудительно отключен в драйверах. Настройки графики для каждой игры выбирались так, чтобы испытуемые карты могли обеспечить хотя бы приемлемый уровень FPS. Пресеты отображены в скобках после названия игр на графиках. В S.T.A.L.K.E.R.: Чистое небо использовалось динамическое освещение только для объектов, в Borderlands: The Pre-Sequel было выставлено низкое качество физики PhysX.

Тестирование проводилось в двух разрешениях: 1280x1024 и 1920x1080.

Результаты

Assassin’s Creed II
Assassin’s Creed II продемонстрировал неприятное падение FPS на 8800 Ultra при переходе к Full HD. На 9800 GTX+ тоже наблюдалось падение, но не такое сильное. Чтобы стабилизировать ситуацию пришлось звать на помощь вторую карту, и SLI-тандем смог вернуть производительность в зону комфорта. В игре используется принудительное ограничение кадров, так что 62 – это ее максимум.

Что касается Unreal Tournament 3, то эта игра оказалась настолько простым испытанием для всех тестируемых карт, что ее нет смысла даже выносить на графики. Как и в Assassin’s Creed II, там работает ограничитель на отметке 60 к/с (62 по показаниям Fraps).

Call of Duty: MW2
Call of Duty: MW2 неожиданно нанесла удар по “ультре”. В этой игре флагманская 8800 значительно уступила и 9800 GTX+, и HD 4850. Причины такого поведения непонятны, однако на помощь пришел режим SLI, где даже в разрешении Full HD частота кадров на Ultra смогла перешагнуть за сотню. Масштабируемость связки составила 33% и 46% по минимальному и среднему FPS соответственно. Конечно, можно включить VSync и даже на одной карте наслаждаться 60 FPS в 1920x1080 при максимальном качестве графики, но на то он и бенчмарк, чтобы показать абсолютные значения.

Crysis
Результаты 8800 Ultra в Crysis расположились между HD 4850 и 9800 GTX+. При добавлении второй карты становится ясно, какая конфигурация требовалась геймерам в 2007 году, чтобы насладиться игрой в Full HD при высоком качестве графики. Конечно, у них не было Core i7, но все же будем считать полученные результаты заслугой видеокарт. Масштабируемость SLI в Full HD составила 66% и 73% по минимальному и среднему FPS соответственно, что является хорошим показателем.

S.T.A.L.K.E.R.: Чистое Небо
В S.T.A.L.K.E.R.: Чистое Небо 9800 GTX+ и 8800 Ultra вновь оказались практически равны, разве что в 1280x1024 первая чуть-чуть вырвалась вперед. SLI в игре заработал без проблем и показал масштабируемость 32% по минимальному и 61% по среднему FPS в Full HD. Не очень много, но когда средний FPS зашкаливает далеко за сотню, это уже не так важно.

Перейдем ко второй партии игр.

Age of Wonders 3
Если во всех старых играх технология SLI успешно работала и прибавляла заветные кадры, то Age of Wonders стала первой протестированной игрой, где вторая карта оказалась бесполезна. Более того, поскольку у Core i7-4770K линии PCI-E делятся поровну между двумя картами, каждая их них работала в режиме x8, что в данном случае повлияло на производительность. В Full HD SLI-связка обеспечивает на 2 к/с меньше, чем одиночная карта, установленная в слот x16. Если же говорить о производительности 8800 Ultra в общем, то старый флагман уступил около 4 к/с представителю 9000-й серии.

Battlefield 3
Изначально Battlefield 3 отказался работать со SLI-связкой на драйверах 342.01 – игра просто вылетала с ошибкой сразу после запуска. Решил проблему переход на более раннюю версию 310.90. Одиночная Ultra здесь расположилась между HD 4850 и 9800 GTX+, а SLI-связка показала неплохую масштабируемость в 57/72% в Full HD, что даже обеспечило больше 60 к/с по среднему значению! Можно с уверенностью заявить, что две 8800 Ultra позволят вам с комфортом провести время на поле боя при среднем качестве графики.

Borderlands: The Pre-Sequel
В Borderlands: The Pre-Sequel между 8800 Ultra и 9800 GTX+ установился паритет по среднему FPS. А вот SLI-связка в этой игре снова не заработала. Расхождение результатов двух карт и одной находится в пределах погрешности. Можно сказать, что снижение количества линий PCI-E с 16 до 8 не повлияло на производительность.

Far Cry 3
Одиночная 8800 Ultra откровенно не блистает в Far Cry 3, оказываясь медленнее конкурентов, однако SLI раскрывает ее потенциал. Прирост от добавления второй карты в Full HD составляет 55/72% по минимальному/среднему FPS, само же среднее число кадров в Full HD перешагивает отметку в 60.

TES V: Skyrim
Skyrim помог 8800 Ultra частично реабилитироваться после поражений перед 9800 GTX+. Хотя по среднему FPS более новая карта все же впереди, но зато на Ultra не наблюдалось таких же сильных просадок кадров. Скорее всего, дело тут в большем объеме памяти, ведь в игре используется официальный набор текстур высокого разрешения. А вот SLI проявил себя во всей красе! Добавлением второй карты FPS в Full HD удалось увеличить на 89%!

Shadow Warrior
Shadow Warrior со средними настройками графики благоволит только Radeon. Ultra отстала от 9800 GTX+ в разрешении 1280x1024, но примерно выровнялась с ней в Full HD. Технология SLI вновь оказалась бесполезна, а снижение числа линий PCI-E отразилось только на частоте кадров в 1280x1024, да и то минимально. Как и Battlefield 3, эта игра оказалась капризной до драйверов и отказалась запускаться на версии 342.01. Пришлось устанавливать 310.90 четырехлетней давности, на них все заработало.

Grim Dawn
В Grim Dawn все испытуемые показали примерно одинаковые результаты. SLI здесь не работает, а от отсутствия восьми линий PCI-E больше всего пострадал средний FPS в разрешении Full HD – тут разница между режимами x16 и x8 достигла четырех к/с.

Бенчмарки 3DMark
3DMark Vantage Performance
Radeon HD 4850: 9345
GeForce 9800 GTX+: 8445
GeForce 8800 Ultra: 9139
8800 Ultra SLI: 16082

3DMark Cloud Gate
Radeon HD 4850: 8445
GeForce 9800 GTX+: 10038
GeForce 8800 Ultra: 9335
8800 Ultra SLI: 14603

Среди “зеленых” карт Vantage отдает предпочтение 8800 Ultra, хотя выгоднее всех тут выступает Radeon. Более современный Cloud Gate однозначным лидером определил 9800 GTX+, следом за ней идет Ultra, а вот HD 4850 безнадежно отстала от видеокарт GeForce.

Выводы и заключение
8800 Ultra pcb

Вопреки большей пропускной способности памяти и наличию 24 блоков ROP GeForce 8800 Ultra все же не смогла превзойти 9800 GTX+. Только в Skyrim 768 МБ быстрой памяти позволили ей показать лучший результат, в остальных же случаях “ультре” удавалось лишь обеспечить паритет, да и то не всегда. Большая частота ядра и внесенные в него оптимизации сделали свое дело и помогли GeForce 9800 GTX+ обойти предшественника. Конечно, нельзя исключать влияния на результат т.н. “драйверной магии”, впрочем, это материал для отдельного исследования.

SLI-тандем продемонстрировал прирост производительности в среднем на 50-70%. В старых играх проблем с работоспособностью технологии не возникло, а вот многие более новые проекты прохладно отнеслись к появлению в системе второй карты. Но тут ничего не поделаешь. Если SLI в игре не работает, то остается только принять это как факт.

Наконец, главный вопрос: можно ли рекомендовать GeForce 8800 Ultra к использованию в наши дни? Пускай по производительности Ultra не сильно отличается от 9800 GTX+, а две такие карты и вовсе обеспечат вам вполне комфортное времяпровождение в Crysis, Battlefield 3 или Skyrim, но проблема тут кроется в другом,… и речь совсем не о глюках драйверов определенных версий. Года три назад я сам использовал 8800 Ultra в качестве основной видеокарты в системе на s1366. Она позволяла вполне комфортно играть в Borderlands 2 и прочие менее требовательные игры до тех пор, пока у нее не отвалился чип. Видеокарты линейки 8800 печально известны своей высокой смертностью, а особенно сильно проблема “отвала” затронула именно модели GTX и Ultra, построенные на 90-нм чипе G80. Жесткая эксплуатация почти десятилетней карты может привести к ее быстрому выходу из строя, особенно если вы собираетесь объединить две или три таких в SLI. Во время тестирования даже при внешнем обдуве мощным 24-ваттным 120-мм серверным вентилятором температура карт на рабочем столе составляла около 65°, тогда как в играх легко доходила до 90° и выше. Все же, если вы являетесь счастливым обладателем этой, без сомнения, легендарной карты, лучше поберегите ее.

В следующем материале мы ненадолго оставим в покое унифицированные шейдерные архитектуры и заглянем еще дальше в прошлое, во времена фиксированного графического конвейера. А на сегодня это все, спасибо за внимание. Напоминаю, что все тестируемые видеокарты можно найти на сайте коллекции http://vccollection.ru/
17 комментариев
Вот бы еще 3-way SLI посмотреть.

«Наконец, главный вопрос: можно ли рекомендовать GeForce 8800 Ultra к использованию в наши дни?»
Категорически нельзя. А то чип может отвалиться рано или поздно. )

«температура карт на рабочем столе составляла около 65°, тогда как в играх легко доходила до 90° и выше»
Это получается мои 58/87 градусов еще ничего были (на 100% оборотах). Мда...
Для 3-way нужна другая платформа. Что-то на 2011-3. Если даже найти маму под 1150 с тремя PCI-E, то третьей карте достанется всего 4 линии, а это ерунда получится, а не тест.

Подозреваю, что во многом виновник температур — термоинтерфейс между крышкой и кристаллом. Скальпить ультры я не решился. Обороты стояли авто, во время бенча включал доп. обдув.
Я к такому же выводу пришел. Скальпировать — да, нет смысла.
Обновил графики. Спасибо mishgane.
а вот HD 4850 безнадежно отстала от видеокарт GeForce
Как так HD4850 отстала, у нее отставание только в паре тестов, а в некоторых она даже лучше выступает (AC,CoD,AoW,SW,FC3). И да, как так получается что HD4850 в скайрим хватает 512МБ, а 9800GTX+ нет или 4850 имеет 1ГБ?
А если цитировать всю фразу целиком, а не вырывать из контекста, то получим:
Более современный Cloud Gate однозначным лидером определил 9800 GTX+, следом за ней идет Ultra, а вот HD 4850 безнадежно отстала от видеокарт GeForce.

Речь только об одном бенчмарке, а не всех тестовых приложениях в целом.
извиняюсь, не заметил.
Хочу оставить комментарий касающийся не конкретной этой статьи, а сайта автора ибо там такой возможности нет. Сайт на мой взгляд отличный, понастальгировал вдоволь читая инфу о ретро картах. Но почему на странице о GeForce 6800 Ultra неверная инфа о том что она была быстрее x800xt, ведь все было с точностью наоборот(естественно я сверил свою инфу прежде чем писать это). X800 обходил ее везде кроме пары старых игр одна из которых Q3, в тяжелых режимах так вообще разгромно. Насколько я помню в то время стоял выбор или взять более медленную 6800 но с поддержкой перспективных шейдеров 3.0, или быструю х800 без такой перспективы. А x850xt который вышел чуть позже и якобы догнал 6800 — это x800 переведенный на pci-e и с незначительно повышенными частотами. Вообщем инфу лучше проверять если не уверен, я все это помню как вчера, а зайдет человек неосведомленный и будет введен в заблуждение.
Типа DOOM3 и все игры на ее движке (Quake4, Prey и т.п.) это старые игры?

X850XT были и на AGP, и частотами там дело не ограничилось, был новый, чуть улучшенный GPU. Что я прекрасно помню, так это то, что X800XT в наличии светился редко, зато можно было свободно взять 6800 GT, разогнать до Ультры (что я в свое время и сделал) и потешаться над владельцами кастратов X800 Pro с их 12 конвеерами за те же деньги. Инфа для проверки как-то не говорит о том, что X800 XT был везде быстрее:
https://www.overclockers.ru/lab/15810/Doom_III_novoe_ispytanie_dlya_videokart.html
https://3dnews.ru/173042/page-8.html

http://www.modlabs.net/page/ati-radeon-x800-xt-platinum-edition-sapphire-radeon-x800-xt-platinum-edition
http://fcenter.ru/online/hardarticles/videos/9188#0
поэтому приведу компетентное мнение на этот счет из последней ссылки: «Старшая модель, RADEON X800 XT, превзошла GeForce 6800 Ultra там, где этого и следовало ожидать, то есть, в большинстве современных игр как с высокой геометрической сложностью, так и широко использующих сложные пиксельные шейдеры. При включении полноэкранного сглаживания и анизотропной фильтрации соотношение результатов игровых тестов изменяются в пользу новых графических процессоров от ATI – они используют эффективную технологию HyperZ HD, снижающую нагрузку на шину памяти, и высокопроизводительный метод анизотропной фильтрации.
NVIDIA на это отвечает прекрасными результатами в тех играх, где важна высокая скорость текстурирования и заполнения сцены. Помимо этого, в арсенале NVIDIA GeForce 6800 Ultra есть возможность записывать за такт по 32 значения при расчете буфера шаблонов и Z-буфера, а это значит, что там, где используются динамические тени, построенные с использованием буферов шаблонов (stencil buffers), можно ожидать появления преимущества графических процессоров от NVIDIA.» А вообще, у меня есть как 6800 Ultra, так и X800 XT, как-нибудь столкну их лбами.
Что касается самого предмета спора (записи на сайте H_Rush): «По производительности 6800 Ultra превосходила конкурента в лице Radeon x800 XT, а также обеспечивала поддержку DirectX 9.0c и пиксельных шейдеров версии 3.0, чем видеокарта от ATI похвастаться не могла. Однако вышедшая позднее x850 XT сравнялась с “ультрой”.»

то я согласен, что формулировка неудачная. Нужно было написать где именно 6800 Ультра быстрее, а где быстрее радеон, чтобы не было как раз таких вот недоразумений.
Quake 4 и Prey вышли в конце 2005 и 2006 году соответственно, там уже другое поколение видюх конкурировало. В описании ведь речь о временах когда даже x850xt еще не было. Да и собственно кроме Дума искусственно тормозившего Радики других новых игр где 6800 лидировала на тот момент нет. X800Pro бесспорно была слабее 6800GT, но речь шла о топах, а эти карты к ним не относятся. Что касается лидерства x800 выводы в стать с Фцентра данной вами подтверждают это, я же перед написанием поста ориентировался на статью с ixbt когда сверял свои воспоминания, ссылка ниже, в выводах там тоже все сказано.

http://www.ixbt.com/video2/r420-p1.shtml

З.Ы. Что мне запомнилось в Х800ХТ РЕ, так это то что там легко делался вольтмод обычным карандашом. При этом чип был настолько холодным что охлаждения хватало(темболее альтернатив в то время практически не было). С вольтмодом карта гналась почти +100мгц, до 610 или 615, не помню уже, много времени прошло, помню что совсем чуть чуть не хватало до +100.
«кроме Дума искусственно тормозившего Радики» ага, а халфа искуственно тормозила жирафов, там даже логотип АТИ есть, знаем, знаем )
Спасибо. x850 и 6800U обязательно станут участниками одного из следующих выпусков. У меня нет возможности сразу же комплексно тестировать карты по мере их добавления, поэтому приходится предварительно ориентироваться на старые тесты ixbt, anandtech и др.
Понятно, что в современных условиях результаты будут иными. Скажутся и мощные процессоры, и новые драйверы, так что заранее предугадать исход не берусь. Тест все покажет.
Если у вас есть иные результаты сравнения, актуальные на тот период времени, пишите в ЛС или на почту, я обновлю описание в соответствии с новыми данными.
Будем ждать. Главное не забыть отключить шейдеры 3.0 в новых играх для 6800 серии, иначе условия тестирования будут не равные.
X850XT и 6800U брать не честно. Тогда уже и 7800 GTX надо добавлять. Либо брать именно X800XT.
GeForce 6800 Ultra — 14 апреля 2004, Radeon X800 XT PE — Май 2004,
Radeon X850 XT PE — 2005, GeForce 7800 GTX — 22 июня 2005. Точных дат нет в википедии для АТИ.
Кстати любопытно будет сравнить разные версии драйверов (на момент релиза, последние и 2-3 промежуточных), предположу что в отдельных тестах разница может быть 5% или даже до 10% на разных дровах. К сожалению, из АТИ у меня есть только X800XT@PE и 9800XT, поэтому полноценное сводное тестирование сделать нет возможности. А неполноценное делать не интересно. Нужны радеоны 7500, 8500, 9700 про, X850 XT, X1800XT, X1950XTX.
x850xt pe — 1 декабря 2004, по обзорам в интернете видно. Да собственно она и не интереса, это таже самая x800xt с нативной поддержкой PCI-E, по мне так обычная x800 куда интересней ИМХО
Радик x1800xt сам ищу, но не обычный. Была версия от Асуса с приставкой ТОР(Asus EAX1800XT TOP), там еще внешний блок питания к ней шел. Вот такую красавицу хочу в коллекцию, весьма редкий экземпляр.
У меня вроде была 128МБ 9500 перепаянная в 9700, правда БИОС вроде не перешит. Если сильно надо могу прогнать тесты, если будет время.
Тройка 8800Ultra в SLi после ребоулинга и скальпирования с на фуллкавером + самодельный бекплейт.

Вангую, что даже с разгоном до 750МГц в играх выше 60..65С не будет.
И это будет оргазм.

И да:
Смешно читать без разгона
Только зарегистрированные и авторизованные пользователи могут оставлять комментарии.