Библиотека Интернет Индустрии I2R.ru |
|||
|
Сравнительный тест видеокарт на процессорах GeForce4Выражаем искреннюю благодарность компаниям, предоставившим видеокарты для тестирования: «Elst», «Dragon», «Alliance Group». Отдельная благодарность компании «IPLabs» за содействие при создании материала. Немедленную покупку одной из старших моделей GeForce4 крайне сложно обосновать одними лишь практическими соображениями, таблицами и графиками. Успокаивает лишь тот факт, что похожая история была со всеми предыдущими GeForce’ами. И разве виновата nvidia в том, что возможности ее видеокарт растут быстрее, чем потребности игровых движков? Внутренней структуре графических процессоров GeForce4 было уделено достаточно места в предыдущих публикациях. На этот раз объектом нашего пристального внимания будут конечные продукты — самые «бронебойные» видеокарты в истории игровых 3D-ускорителей. Как мы тестировали В то же время остается принципиальным вопрос, напрямую связанный с новым чипсетом. А именно: насколько полезен сам по себе переход с прежней 266-мегагерцовой памяти PC2100 на PC2700 (частота новой памяти — 333 МГц — вынесена в название чипсета)? Его мы между делом изучим, благо нам удалось найти парочку DDR333 PC2700-модулей; к тому же в тестах с самыми-самыми видеокартами разница в платформах обещает быть особенно заметной. Все тесты запускались в операционной системе Windows XP Professional (русская версия). OpenGL-графику «рисовали» игры Return to Castle Wolfenstein v1.3 (демо Checkpoint), Serious Sam: The Second Encounter (демо Valley of the Jaguar) и Quake 3: Arena v1.17 (demo001). В DirectX трудился пакет 3DMark 2001 SE и следующие его игровые тесты: Game1 (Car Chase), Game2 (Dragothic), Game3 (Lobby aka Max Payne), Game4 (Nature — речка со всеми вытекающими отсюда шейдерами), а также синтетические тесты на скорость заполнения сцены (fill rate), эффективность работы T&L-блока (High Polygon Count) и исполнения вершинных и пиксельных шейдеров (Vertex, Pixel и Advanced Pixel Shaders). Кроме обычных настроек качества по схеме «все-на-максимум», дополнительно отключалось сжатие текстур и использовались только 32-битные текстуры. Поскольку высокие результаты в традиционных игровых тестах для столь мощных видеокарт в известной степени предопределены, имеет смысл сместить акцент в сторону пиксельных шейдеров. К сожалению, ни одна из ныне существующих игр, даже с формальной поддержкой шейдеров, реально в них не нуждается — качество графики визуально остается на неизменном уровне, что с включенными, что с выключенными шейдерами. Между тем «чисто шейдерные» движки уже начинают появляться, поэтому один из них — Codecreatures от компании Codecult — мы и предложили «подвигать» нашим сегодняшним гостям. Собственно игрового сюжета в этой бенчмарке нет (Codecult не пишет игры, а только программирует на заказ).
Итак, что мы видим? Пока только динамический ландшафт, максимально приближенный к натуральному, на прорисовку которого уходит вся мощь GPU и компьютера в целом. С одной стороны — выглядит эффектно, не зацикленный на поисках недостатков взгляд легко может перепутать ЭТО с видеозаписью. С другой — нам очень грустно, поскольку даже самые мощные видеокарты едва вытягивают тест без задержек, и откуда разработчики планируют черпать ресурсы для прорисовки игровых персонажей (а им ведь тоже придется выглядеть соответствующим антуражу образом) — решительно не ясно. Словом, пока задано лишь направление развития, а ко времени (очевидно — не скорому) появления коммерческих «шейдерных» игр проблемы роста, надо полагать, будут решены. Причем есть надежда, что дело не ограничится одним только наращиванием мощности видеокарт, шейдерные игровые движки тоже обязаны пойти навстречу. К чему, спрашивается, бросаться в другую крайность и моделировать каждую травинку в отдельности? Платформа Фирменные платы на 333-м чипсете (и GA-7VRXP в особенности) просто ломятся от интегрированных опций и новых интерфейсов (сложно сказать, введены ли они для оправдания немалой цены самих плат либо, напротив, это из-за них цена получилась столь внушительной). Вот неполный список периферии, напаянной на нашей плате: четыре порта USB версии 1.1 и столько же USB 2.0, дополнительный IDE RAID-контроллер с поддержкой ATA133 фирмы Promise, встроенный аудиочип Сreative CT5880, контроллер локальной сети 10/100 Мбит/с от Realtek и даже контроллер считывателя флэш-карт (Memory Stick). Как обычно, Gigabyte ставит на свои платы две микросхемы CMOS для повышения их живучести на случай неудачной перепрошивки BIOS пользователем.
Именно по этой причине стоит, пожалуй, подождать с покупкой DDR333-памяти до тех пор, пока не выйдут гарантированно функционирующие на таких частотах модули (а для этого, возможно, придется прибегнуть к новой BGA-упаковке чипов, и такие модули уже появляются). В итоге основной платформой для теста видеокарт стала плата на KT333-чипсете с памятью PC2100, безупречно отработавшей во всех задачах. Что касается сравнения разных типов памяти, то, как вы видите по результатам тестов, чудес особых нет: на ходовом разрешении 1024х768 почти все игры, кроме Quake 3, после перехода с PC2100 на PC2700 прибавили всего несколько fps. Для сравнения приведены тесты на плате ABIT KT7A с чипсетом KT133A и простой SDRAM PC133. Здесь разница между устаревшей SDRAM и любой версией DDR видна невооруженным глазом. Минимальную зависимость от типа памяти продемонстрировали шейдерные тесты, для которых все пока определяется мощностью видеокарты.
А вот от мощности этой видеокарты никакие шейдеры не зависят, по причине их отсутствия в MX-версиях GeForce4. Между тем плата не относится к бюджетной категории (что подтверждается ценой) и попала она в тест высокопроизводительных карт отнюдь не случайно. Что и говорить, плата интересная: очень быстрые память и процессор, вдобавок неплохо поддающиеся разгону (без дополнительного охлаждения удалось получить стабильные 330 МГц на процессоре и 637 МГц на памяти), сочетаются с полным отсутствием архитектурных излишеств. О строении GeForce4 MX достаточно слов сказано в предыдущем номере, а MX460 — старшая модель младшей линейки, отличающаяся от MX420 и 440 только частотами процессора и памяти. Покупатели данного продукта имеют все шансы обзавестись самым мощным и просто последним из «классических» 3D-ускорителей. Следующие выпуски даже бюджетных видеокарт, не говоря уж о дорогих, едва ли будут обходиться без тех же шейдеров. Вполне можно себе представить в качестве покупателя MX460 и этакого реалиста, не желающего тратиться на то, что не сможет полноценно работать здесь и сейчас, и вместе с тем собирающегося играть в максимально комфортных условиях в современные игры. Претензий к качеству плоской графики в отношении этой карты нет, хотя у всех флагманов на GeForce4 Ti оно показалось нам чуть более привлекательным (не исключено, что здесь не обошлось без маркетинга, ибо самые дорогие карты просто обязаны быть лучше во всем, а на оптимизацию их конструкции по определению уходит больше времени). Аббревиатура «SE» (Second Edition) в названии карты намекает на некие усовершенствования по сравнению с «первой редакцией». Мы видим их в многообразии видеовыходов: распаяны разъемы под обычный монитор и цифровую ЖК-панель (DVI), в дополнение к ТВ-выходу реализован видеовход на микросхеме от Philips, заботливо покрытой радиатором (!) — редчайший случай, таким же, как и на чипах памяти. В увесистом комплекте поставки есть большинство кабелей, что могут потребоваться для видеоработ; нет только переходника c DVI на аналоговый монитор — его придется докупать при подключении к этой карте двух обычных мониторов. Радиаторы на модулях памяти, конечно, способствуют успешному разгону, но штатное крепление на теплопроводящем клее не есть идеальный «тепловой интерфейс» (на некоторых чипах радиаторы едва держались, то есть соприкасались лишь в нескольких точках). Поэтому у любителей выжать максимум есть очевидный резерв для улучшения теплоотвода. Придется повозиться и отклеить все радиаторы (снять их можно только «откручиванием», иначе можно повредить чипы), убрать клей и посадить их на «правильную» термопасту. Этот метод справедлив для всех видеокарт SUMA с подобными радиаторами.
У нас были образцы обеих плат, на штатных частотах показавшие идентичные результаты (иное было бы странно), зато резко разнящиеся в разгоне. Плата без радиаторов выдержала 310 МГц на GPU и 675 на памяти. Кажется, куда больше, верно? Но элитная версия платы легко подняла планку до 320 МГц на процессоре и 688 МГц на памяти! В обоих случаях никакие добавочные вентиляторы не использовались (разумеется, этот пример ни в коей мере не означает, что с разогнанной платой можно работать в таком режиме сколь угодно долго — оверклокинг, не компенсированный хотя бы лучшим охлаждением, сокращает жизнь платы).
Включение анизотропной фильтрации и полноэкранного сглаживания притормаживает GeForce4 Ti заметно слабее, чем Radeon 8500 (с прежними моделями GeForce тем паче нет никакого сравнения). Плюс нужно еще учесть более честную и красивую реализацию анизотропии в ускорителях от nvidia.
По всей вероятности, эта «народная модель» из ряда GeForce4 Ti появится в свободной продаже не раньше, чем будут распроданы запасы плат на GeForce3. А пока nvidia всячески избегает давать такие платы даже для испытаний. Ну и не беда, благо затормозить плату еще проще, чем разогнать. Что мы и сделали с предыдущей картой — SUMA GeForce4 Ti4400. Официальные частоты 4200-го чипсета — 225/500 МГц — установились на ней без проблем. Что же тесты? И на этот раз преимущество перед Radeon 8500 сохранилось, хоть и стало местами минимальным. Есть подозрение, что частоты для Ti4200 выбирались не без учета производительности конкурента — так, чтобы, с одной стороны, надежно его опережать, а с другой — создать максимальный отрыв от Ti4400, дабы отбить как можно меньше потенциальных покупателей у старших моделей. Как водится, в итоговом рейтинге привлекательности не последнюю роль будет играть разгоняемость настоящих Ti4200-карт, хотя сомнений, что nvidia позаботится о том, чтобы максимально осложнить жизнь оверклокерам, у нас нет ни малейших.
Зато уж тем, кому не хватает даже скоростей 4400-й модели, палки в колеса никто ставить не собирается. Нате, пожалуйста, покупайте 4600-го монстра, можете даже разогнать его, если мало покажется (в нашем случае до 320 МГц на процессоре и 733 МГц (!) на памяти). Комплектация платы аналогична «утяжеленной» версии Ti4400: есть радиаторы на чипах и полный комплект видеоразъемов. ПО в коробки к своим платам фирма SUMA кладет очень экономно, но 4600-й, помимо драйверов, все-таки достался демо-диск Experience. Сложно пытаться выявить какие-то недостатки в условиях, когда конкуренция «в абсолютном классе» если и может быть, то только между этой и аналогичными платами от других сборщиков на том же чипсете. А значит — спор пойдет больше о вкусах, ибо скорости у них примерно равны из-за тотального следования эталонному дизайну, предписанному самой nvidia. Итого: налицо самая мощная видеокарта, достойная медали «Наш выбор» на срок от нескольких месяцев до полугода — то есть до выпуска чего-нибудь еще более убойного.
Тем не менее — для достоверного определения лучшей из лучших — просто-таки необходимо привлечь альтернативную плату. А кто же еще способен на побитие рекордов, как не дорогущий ASUS? Уважаемая компания выпустила собственную версию линейки четвертых GeForce одной из последних, а значит, можно предположить, имела дополнительное время для оптимизации BIOS и отжима всех возможных соков из нового чипсета. Сказать, что карта не получилась, было бы глупостью: 8460Ultra идет вровень со «скромным» изделием от Supermicro со товарищи, местами чуть обгоняя и на столь же ничтожную величину отставая. Поэтому, исходя только из скоростных характеристик, можно было бы наградить «нашвыбором» обе платы. Но. Но наш ASUS все же дороже, а по комплектации видеоразъемами объективно проигрывает конкуренту. Кроме того, у платы нет радиаторов на чипах памяти. Тем не менее разгон удался в тех же пределах, следовательно (теоретически!) — самостоятельно наклеив радиаторы, можно попытаться разогнать еще. Попробуете? |
|
2000-2008 г. Все авторские права соблюдены. |
|