Двуглавый против всех.

Всех приветствую я, сегодня появился еще один повод написать очередную заметку. Кто внимательно читал, наверняка вспомнит фотографию, где была изображена Radeon HD 3870 x2, тогда я сетовал и на малые габариты корпуса (но там же и уточнил, что «запихнуть» все же можно), и на недостаточную мощность имевшегося на тот момент блока питания (тот самый ACCORD ACC-400W-12 из прошлой записи с заявленными 252 ваттами по 12В линии, что тянул одиночную Radeon HD 6790). И если 150-ваттную Radeon HD 6790 на данный блок питания повесить я все же решился, то 200-ваттную Radeon HD 3870 x2 уже не рискнул. Пока не купил его:


Блок питания Zalman ZM500-LE, обзор которого вы можете прочитать здесь. После блока питания ACCORD, разница, конечно, ощущается. Начать хотя бы с того, что ACCORD продается вообще без упаковки, у блока питания Zalman присутствует полноценная упаковка, сам блок питания внутри дополнительно упакован в пупырчатый пакетик, а в комплект помимо всего прочего доложили еще и четыре стяжки, о которых в обзоре почему-то упомянуть забыли. Весит он раза в полтора-два больше, материалы лучше, металл не гнется, а внутреннее убранство настолько же насыщенней, насколько больше он и весит. ACCORD по сравнению с ним, мягко говоря, пустой. Ну и мощность, 444 ватта по 12В линии против 252 ватт, а потому можно смело вешать на него 200-ваттную видеокарту с хорошим запасом.

Ну а теперь главное — Radeon HD 3870 x2, двухчиповый флагман второго поколения видеокарт с унифицированной шейдерной архитектурой от ATI/AMD. Карта появилась, насколько я помню, в 2008 году, и что интересно, стоила она дешевле одиночной Geforce 8800 Ultra. Интересна она и в сравнении с Radeon HD 6790, ибо по характеристикам достаточно близка к ней.



Важно! Прежде чем листать страницу вниз и смотреть на графики, стоит кое-что учесть. К сожалению, не во всех играх удалось получить объективные результаты. В некоторых играх, похоже, видеокарта работала как одиночная, то есть с нагрузкой на одно GPU из двух, в каких-то могли бы просто ошибки. Например, в Devil May Cry 4 при работе под DirectX 9 результаты оказались значительно ниже, чем при работе под DirectX 10, аналогичная ситуация была и в Resident Evil 5. При этом в Resident Evil 6 и Lost Planet 2 несмотря на DirectX 9, результаты оказались весьма полноценными, соответствующими ее теоретическому уровню. А потому, ни о какой объективности речи не идет. Я покажу то, что получилось. В качестве ориентира в привычные графики добавил версию DirectX и загрузку видеокарты в процентах, которая дает понять, работает ли карта как двухчиповая, либо как одночиповая. С другими картами никаких проблем и разницы не было, поэтому для них это не актуально и соответствующие поправки отсутствуют.

Конфигурация неизменна и выглядит следующим образом:

  • Core 2 Duo E7500
  • Gigabyte GA-G31M-ES2L
  • 2Gb DDR2 PC6400 (2x1Gb)
  • 250Gb Seagate ST3250620AS, 7200rpm, SATA-II, 16Mb
  • Windows 7 32-bit







В Lost Planet 2 никаких вопросов не возникает, карта демонстрирует практически равные с Radeon HD 6790 результаты.



Resident Evil 5 поддерживает как DirectX 9, так и DirectX 10, и в этой игре наглядно видно, что Radeon HD 3870 x2 под разными API демонстрирует разные результаты, подбираясь вплотную к Radeon HD 6790 в случае с DirectX 10.



А вот и первые вопросы. Наглядно видно и очевидно, что результат не соответствует ожиданиям. Игра не предоставляет выбора API, работает под DirectX 9, а загрузку видеокарты для нее я посмотреть забыл (она была первой в тесте, еще до того, как у меня начали возникать вопросы к результатам). Однако очевидно, что результат близкой к результату Geforce 9600 GT — это результат одночиповой Radeon HD 3870, но уж никак не двухчиповой.



Здесь опять вопросы. Результат в целом достаточно адекватный, но почему-то загрузка карты в среднем не превышала 60%. Можно было бы подумать о том, что она упирается в процессор, но почему тогда Radeon HD 6790 показал лучший результат с тем же процессором? Не понятно.









В Devil May Cry 4 ситуация аналогична Resident Evil 5, Radeon HD 3870 x2 показывает низкие результаты под API DirectX 9 и практически дышит в затылок Radeon HD 6790 под API DirectX 10. К сожалению, загрузку видеокарты под DirectX 9 я посмотреть, опять же, забыл, поэтому не могу сказать, то ли видеокарта просто работает как одночиповый вариант, то ли это связано с чем-то еще. В случае с DirectX 10 вопросов нет.



Resident Evil 6, несмотря на API DirectX 9, работает корректно и результат Radeon HD 3870 x2 близок к результату Radeon HD 6790. Такая же ситуация была и в случае с Lost Planet 2. Интересная закономерность получается. Resident Evil 5, Resident Evil 6, Lost Planet 2 и Devil May Cry 4 — игры одного издателя — Capcom. Но две из них работают на движке MT Framework 1.0 (Devil May Cry 4, Resident Evil 5), а две другие на MT Framework 2.0 (Lost Planet 2, Resident Evil 6). Из чего можно сделать вывод, что во второй версии движка они доработали поддержку двухчиповых видеокарт (возможно SLI и CrossFire).





Здесь, думаю, комментировать нечего. Работал лишь один GPU из двух, показывая результаты одиночной карты, идентичные результатам Geforce 9600 GT. Alan Wake относительно современная игра, странно, что так получилась. А Crysis и вовсе обязан работать на любых Hi-End решениях, ибо это по сути есть ходячий бенчмарк, который должен уметь выжимать все в любых условиях. Но почему-то у меня этих результатов не получилось. Процессор при этом местами был загружен даже менее чем наполовину.



Но эти две, ладно хоть, запустились и работали, а вот Battlefield 3 вообще изображал что-то ненормальное. При первом запуске на настройках, с которыми я проходил тесты с прошлыми картами (Ultra quality, 1280x720), игра просто повесила мне компьютер. Повторно запустив игру, я снизил настройки до Medium и мне удалось загрузить уровень, но тут начались какие-то конвульсии, частота кадров прыгала, загрузка карты прыгала, не достигая при этом даже 50% значения, никакой зависимости нет, я могу просто смотреть в одну точку и все это будет продолжаться. Через раз игра просто висла, никакие смены настроек ничего не решали.



Очень обидно, ведь на эти игры, как представители технологичности и современности, я и хотел посмотреть. Что примечательно, даже с такими конвульсиями и загрузкой видеокарты не достигавшей даже 50% значения, игра выдавала больше 20 кадров. А значит в случае адекватной работоспособности можно было бы ожидать как минимум стабильных 35+ кадров на максимальных настройках.



Сама видеокарта мне в целом понравилась. В случае, если проблем с программным обеспечением нет, она демонстрирует приличные результаты, хорошую плавную картинку. И похвастаться не жалко, как ни крути, а двухчиповый флагман, да и выглядит очень солидно. Кстати прогревалась карта не более чем до 80 градусов. Это явно меньше, чем 90 градусов у Radeon HD 6790. Что касается проблем, то я подозреваю, что есть методы их решений, и хотя бы в половине случаев можно добиться адекватной работы. Жаль, что времени на это у меня не было, выходные заканчиваются.



Что касается блока питания Zalman, то вопросов к нему у меня не возникло. Работает тихо, а выдуваемый воздух после целого дня мучений видеокарты от холодного прогрелся до чуть-чуть тепленького.

Напоследок хотелось бы спросить, у кого есть опыт работы с двухчиповыми картами, делитесь своим опытом, мнением, впечатлением. Кто с какими проблемами сталкивался и как их решал.
9 комментариев
по блоку питания- если там честные 444 ватта, то на него можно смело вешать какую угодно видеокарту с одним ядром, хоть печ 480, хоть амд 290х- его хватит. При условии что карту разгонять не будете и процессор. ну и если карта не страдает паразитическими утечками, и не жрет по 400 ватт- как я описал в соседней статье.



А по поводу двух чиповых карт- для игра уж не очень они годны. Во первых что напрягает это значительный шум, большое выделение тепла, зачастую нехватка видеопамяти ( по опыту 3870х2 и 4870х2 и 5970), проблема в ряде игр где прироста нет, либо же он едва заметен, либо вообще отрицательный.

Чем хороши 2х чиповые карты- это майнить на них хорошо- у них получается не высокая удельная цена одного мнсек, экономия разъемов на материнской плате, нет никаких потерь скорости.
Я думаю амд вполне могла бы выпустить АМд 290х4 с предустановленным водоблоком и компоновкой как у Geforce 9800GX2- где две печатные платы, у каждой из которых свое ядро и каждая крепится к единому радиатору. Тут же можно было бы сделалть также, только на каждой плате 2 ядра, и вместо радиатора водоблок в 2 слота. Общее потребление всех 4х видеоядер в составе карты- 900 ватт. Я бы такую купил
1) насче БП ( обзор тут http://ru.gecid.com/power/zalman_zm500-le/?s=all) то что выклал автор бред. Там 2 сборки по 20А итого 240Вт по 12в все что больше перегруз ( кто не варит сходи в радиомагазин спросибо эти сборки шотки)
2) 3870 свободно обходит 9600GT ну это был народный выбор (привет всем любителям жирафов с отвалом чипа)
3) пора бы проц уже помощнее постаить...
1) То что выложил я — обзор с сайта, на котором мы находимся. Давать ссылки на сторонние сайты, по крайней мере в записи, считаю не совсем правильным. В комментариях — пожалуйста, могу еще одну ссылку подкинуть - http://article.techlabs.by/print/36_35461.html#4
Во всех обзорах блок «тянет» игровую видеокарту с квадом, показывает КПД выше 80% и хорошую стабилизацию. Думаю это главное, что нужно от бюджетного блока питания.
Две виртуальные линии по 20А. Если все подключать так, как положено, то все нормально.
2) Не 3870, а 3870 х2.
3) Не нашел пока подходящий квад. Ну а в целом, E7500 вполне ровесник данным картам в данных играх.
Зиончик поставьте.
автору респект, провел замечательную эксгумацию! с удовольствием поностальгировал.
помню я 3870. говно видюха (своей 4870 был доволен). а в статье говно аж двумя слоями намазано. фтопку!
Ухты, неужели на подобной древности ещё где-то работает кросс? Отличная статья, отличный выбор «конкурентов»(хотя цену неплохо бы указать, хотя бы на момент выхода) и тестового ПО. НО! Не стОило тестировать в 1080Р и, тем более, включать АА. А если уж включаешь — неплохо бы указывать загрузку видеопамяти. А по поводу Кризиса и Баттлы 3 — с драйверами и настройками не пробовал играцца?.. И Кризисе на подобном железе при любом разрешении включение АА — нонсенс, хотя хозяин, как говорится, барин. Но за статью в любом случае спасибо
Ну я как-то ограничился стандартными пресетами и особенно их нигде не менял. В драйверах ничего вразумительного не нашел, в настройках тоже ничего нет, менять пробовал. А загрузка видеопамяти не превышала 500МБ для одночиповых и порядка 800МБ для 3870 х2.
Ну, на Радеоновские дрова я особливо никогда не рассчитывал, а тут вдруг древнючая карта — и рабочий кросс. Обидно, что в Кривисе и АВ не запахал, потому и спросил, игрался ли с версиями, мож АА отключал, В-синк или мож даже на форум напейсать... Понимаю, что времени мало, но всё же :-)
Только зарегистрированные и авторизованные пользователи могут оставлять комментарии.