Добавить в Избранное Сделать стартовой

GamesWorld : патчи файлы трейнеры софт прохождения коды nodvd

Объявление

Приветствуем вас на нашем форуме

У нас вы можете - заказать аватар баннер ; Скачать java игры софт для PC. Скачать патчи , трейнеры , моды и многое другое .

Что бы быстрее найти то что вы хотели, юзайте поиск.Для правильного отображения всех элементов форума используйте интернет браузер Opera

Информация о пользователе

Привет, Гость! Войдите или зарегистрируйтесь.



Тесты

Сообщений 1 страница 20 из 25

1

:writing:

Первые тесты 9800 GTX 3-Way SLI: три карты пока ничем не лучше двух

ATI Radeon HD 3870 X2 ставит мировой рекорд производительности в тесте 3DMark 06

Процессор Intel QX9650 семейства Penryn

7 видеокарт на базе NVIDIA GeForce 8800 GT/GTS

Intel Atom против VIA Isaiah: первые тесты

Первые тесты AMD Radeon HD 4870, сравнение с GeForce 9800 GX2

Экспресс тест: ATI Mobility Radeon HD 3470

GeForce 9600 GT, в качестве оппонентов Zotac GeForce 8800 GT AMP! и ECS N8800GTS-640MX.

Сравнительное тестирование GeForce 9600GT, GeForce 8800GS и Radeon HD3850

Оперативная память: весна 2008 года

0

2

Первые тесты 9800 GTX 3-Way SLI: три карты пока ничем не лучше двух

В распоряжении источника оказалось три платы 9800 GTX и две 9800 GX2, а также тестовая система и достаточное количество пиццы и газировки, в результате чего на свет появились результаты одной из первых попыток оценить производительность последней новинки NVIDIA.

http://images.netbynet.ru/direct/03d3d11c51be343405925b6559275a0a.jpg

Конфигурация тестовой системы включала процессор Intel Core 2 Quad QX9650, установленный в плату EVGA 780i SLI и работающий на частоте 4,4 ГГц, 2 X 2 ГБ памяти OCZ Reaper X PC6400 DDR-2 4-4-3-12 и винчестер Western Digital Raptor (150 ГБ, 10000 об/мин, SATA). Охлаждение было возложено на водоблок Swiftech Apogee GTX Block (CPU) и помпу MCP655-B. Питание взял на себя БП Zalman мощностью 1000 Вт. Все тесты были выполнены под управлением 64-битной ОС Windows Vista Home Premium. Использовались драйверы Forceware 174.53 и 174.40.

В тесте FutureMark 3DMark06 был заметен эффект перехода от одной платы 9800 GTX к двум. При разрешении 1920 x 1200 пикселей выигрыш составил примерно 80%. В то же время, добавление третьей карты почти не возымело действия.

http://images.netbynet.ru/direct/c91419e62327d6852d0e9aa37a177c79.gif

В игре Crysis, обеспечивающей серьезную нагрузку даже для самой производительной графической подсистемы, результаты повышались после добавления, как второй, так и третьей карты, но и в этом случае выигрыш от 3-Way SLI был менее заметным, чем выигрыш при переходе от одной карты к двум. Тесты в других играх продемонстрировали похожий результат.

http://images.netbynet.ru/direct/953f1c655c0688c9a39a47bf93f2e868.gif

Очевидно, что NVIDIA уже оптимизировала драйверы для конфигурации SLI с двумя адаптерами, но еще не успела сделать это для конфигурации SLI с тремя адаптерами. Так что выигрыш от установки третьей карты не так велик, как от установки второй.

Адаптеры GX2 продолжают быть оправданным выбором для тех, кто хочет заполучить многопроцессорную графическую подсистему, не приобретая системную плату с поддержкой SLI. При покупке новой системы, отмечает источник, может оказаться разумным выбор системной платы на чипсете 780i и пары 9800 GTX.

Источник: TweakTown

0

3

ATI Radeon HD 3870 X2 ставит мировой рекорд производительности в тесте 3DMark 06

Компьютерным энтузиастам, известным под никами Elmor и Kinc (последний — не кто иной, как Маркус Халтин, член редколлегии сайта NordicHardware), удалось установить новый мировой рекорд производительности графической подсистемы.

Чтобы достичь рекордного показателя в тесте Futuremark 3DMark 06, равного 32601, понадобилось две карты ASUS EAH3870X2 TOP (в общей сложности — четыре графических процессора AMD RV670), установленных в системную плату ASUS P5E64 WS Pro вместе с процессором Intel Core 2 Extreme QX9650.

http://images.netbynet.ru/direct/7afbbe24545f65e904e61aae70d2fe75.jpg

Процессор работал на частоте 5719 МГц, а частоты компонентов видеоадаптеров — ядер и памяти — соответственно составили 990 и 1125 (эффективная — 2250) МГц. Работоспособность рекордной системы обеспечивала комбинированная система охлаждения: охлаждение процессора было возложено на установку с жидким азотом, а видеоадаптеры охлаждались воздухом.

http://images.netbynet.ru/direct/6b67a645dea251a9f877d46e50649023.jpg

На момент установления рекорда, записать результат в официальную таблицу было невозможно, поскольку он был получен с использованием процессора степпинга C1, но сейчас справедливость восторжествовала, в чем можно убедиться, перейдя по ссылке на результаты теста.

Чуть менее года назад, также используя ускоритель AMD (ATI Radeon HD 2900 XT), Маркус Халтин установил мировой рекорд производительности для одиночной карты расширения, набрав в тесте Futuremark 3DMark 05 значение 30092.

Источник: NordicHardware

0

4

Процессор Intel QX9650 семейства Penryn

Разгон

Прежде всего нужно отметить, что мы тестируем экстремальную версию процессора (т.е. Extreme Edition), у которой множитель разблокирован. Это дает нам возможность подойти к предельной частоте конкретного экземпляра с помощью обычного увеличения множителя. Так мы и поступили, и достигли частоты 4 ГГц.

http://images.netbynet.ru/direct/bbb9b7296adb8523961bb9a3a3707d5f.gif

Правда, для стабильной работы на такой частоте, напряжение питания пришлось увеличить до 1,45 В. Первоначально данная частота нас несколько разочаровала - честно говоря, мы ожидали большего от 45 нм техпроцесса. Но с другой стороны - перед нами 4-ядерный процессор, а значит его потенциал разгона будет меньше, чем у 2-ядерного (это хорошо видно на примере Kentsfield). Следовательно, серийные 2-ядерные процессоры Wolfdale должны легко брать частоту 4 ГГц. А если учесть то, что Intel наверняка один-два раза обновит степпинг, то можно ожидать и более высоких частот.

Что касается тепловыделения, то благодаря более "тонкому" техпроцессу, компании Intel удалось снизить реальное тепловыделение на четверть под нагрузкой, и почти на половину в состоянии покоя. Причем отметим, что в состоянии покоя работают все, уже известные технологии энергосбережения, такие как Enhanced Halt State (C1E) и Enhanced Intel SpeedStep, и никаких новинок в этой области Intel не представила. Они собственно и не нужны, поскольку Intel не изменила требования к системе охлаждения, которая должна справляться с типичным уровнем тепловыделения процессора (TDP) = 130-136 Вт. Иными словами, Intel создает себе изрядный запас в плане тепловыделения процессоров, и при необходимости может выпустить модели с большими частотами (например 3,33 ГГц и 3,6 ГГц).

Производительность

В тестовой системе было использовано следующее оборудование:

http://images.netbynet.ru/direct/949b071ebe9e0ef2f6286301368d17fe.jpg

Первоначально мы сравним производительность процессора Core 2 Extreme QX9650 на ядре Yorkfield с процессором Core 2 Extreme QX6700 на ядре Kentsfield. Но к сожалению, процессор QX6700 сейчас трудится на видео-стенде, и поэтому мы решили использовать разные платформы. Если QX6700 тестировался с памятью DDR2, то QX9650 мы уже протестируем с памятью DDR3, и тем самым увидим, какую пользу принесет этот вид памяти, с учетом того, что частота FSB повысилась с 266 МГц (Kentsfield) до 333 МГц (Yorkfield). Понятно, что данное сравнение будет оценочное и покажет общий рост производительности high-end системы за год. К тому же, мы можем спрогнозировать, что наибольший прирост мы получим в таких приложениях как WinRAR и Quake4 (т.е. того ПО, скорость которого зависит от пропускной способности памяти).

http://images.netbynet.ru/direct/b33cdf5a9320181738bde9070e0f975a.gif

http://images.netbynet.ru/direct/66f61e7a7fddaea85f4fa85839380bea.gif

http://images.netbynet.ru/direct/70f9a91dc44315397402a40c351b7a02.gif

http://images.netbynet.ru/direct/9f45303ced7f4fbfab1af16f3fa6512b.gif

http://images.netbynet.ru/direct/58f6e8834186e8cd4fa6b6daf1d8e736.gif

http://images.netbynet.ru/direct/254fb0b1401b45cf77a9840327f9b730.gif

Только посмотрите на рост производительности в Quake4: одно ядро из четырех у процессора Yorkfield на частоте 3,0 ГГц обеспечивает такую же скорость, как все четыре ядра процессора Kentsfield разогнанного до 3,45 ГГц. Невероятно? Вовсе нет: просто Kentsfield упирается малую пропускную способность DDR2, а если этот же Kentsfield поставить на плату с DDR3, да еще и увеличить FSB до 333 МГц, то мы получим практически такую же производительность как и Yorkfield.

Однако количество программных приложений с такой явной зависимостью от ПСП крайне мало. С другой стороны, если пользователь нашел где-то $1000 на процессор, то он с легкостью может найти там же и $500 за комплект памяти DDR3. Что касается 2-ядерных процессоров, то это уже другая ценовая категория, и мы не советуем приобретать DDR3 для систем с такими процессорами.

Теперь переходим к стандартному набору тестов, на единой платформе.

http://images.netbynet.ru/direct/d72cc9a00348596d93e633ca48e02b99.gif

http://images.netbynet.ru/direct/762422d65fd1f591596416d0d0725ae9.gif

Перед нами исключительно синтетические приложения, которые демонстрируют теоретическую производительность.

Теперь тесты игровых приложений.

http://images.netbynet.ru/direct/7622ce0197646a1d94bddcd217c5f8db.gif

http://images.netbynet.ru/direct/4d90519db6e1c4295961ee4be025a844.gif

http://images.netbynet.ru/direct/2a556cb946048a486b618f6ed1f888a7.gif

http://images.netbynet.ru/direct/32545ab5680c50ab8f44f9cf10404c62.gif

http://images.netbynet.ru/direct/5623b450f57e47cb47ea36fe9654343c.gif

http://images.netbynet.ru/direct/d9ae8dee6c8778127ae0102e2972c70d.gif

http://images.netbynet.ru/direct/6c25b812606fd26300d459635b5e2519.gif

http://images.netbynet.ru/direct/e7c79d435287527e2a836631c48b8bfb.gif

http://images.netbynet.ru/direct/16e78be489509f2ee453312612aaaa63.gif

кбс. больше - лучше

http://images.netbynet.ru/direct/70cae9851f5868ff47b9761992909847.gif

http://images.netbynet.ru/direct/987ff09df859c15e4007033a8400cf25.gif

http://images.netbynet.ru/direct/cfe520c8b242ef6d932ecda002e8c572.gif

http://images.netbynet.ru/direct/3553acae6740a6ff601f118ceccded66.gif

http://images.netbynet.ru/direct/50f8dd30cdefb2c4429859db1df8c2db.gif

Выводы

Самое главное: семейство процессоров Penryn является эволюционным развитием семейства Core, причем благодаря 45 нм техпроцессу практически все характеристики улучшены (кроме скорости доступа к кешу L2). Иными словами, процессоры Yorkfield и Wolfdale лучше своих предшественников (Kentsfield и Conroe соответственно), и естественно будут пользоваться успехом. Слагаемые успеха просты: модифицированное ядро Conroe + поддержка инструкций SSE4.1, более "тонкий" 45 нм техпроцесс (лучше разгон, меньше тепловыделение) и увеличенный объем кеш памяти второго уровня (до 6/12 Мб).

И главный вопрос - когда эти процессоры можно будет купить? Если не брать в расчет версию Extreme Edition, то купить двух и четырехъядерные процессоры семейства Penryn, предположительно, можно будет в начале 2008 года.

Источник: www3dnews.ru

0

5

7 видеокарт на базе NVIDIA GeForce 8800 GT/GTS

производства

ASUS, Gainward, Galaxy, Gigabyte, Leadtek, MSI и Palit

СОДЕРЖАНИЕ

1. Введение
2. Особенности видеокарт
3. Конфигурации стенда, список тестовых инструментов
4. Результаты тестов
5. Выводы

Ссылка : iXBT

5. Выводы

Результаты тестирования ярко показали, что большинство рассмотренных карт 8800 GT мало отличаются друг от друга по скорости, однако наиболее разогнанные изделия показали очень хорошие результаты в CRYSIS, в этаком современном эталоне измерения потенциала трехмерных ускорителей. В ряде тестов указанные платы демонстрировали даже обход по скорости более дорогого 8800 GTX. Понятно, что все 8800 GT сильно обходят в производительности конкурента от AMD в лице RADEON HD 3870.

ASUS GeForce 8800 GT TOP 512MB PCI-E - станадартная эталонная карта, работающая на повышенных частотах. Поэтому все минусы, присущие референс-кулеру, есть и в данном случае: шум и не очень высокая эффективность охлаждения. Подчеркну особо для поклонников этой компании и марки, что видеокарта произведена не ASUS, а по заказу NVIDIA на стороннем заводе, как и все референс-карты. Имеется бонус - современная игра и кожаный кошелек для дисков.

Gainward Bliss GeForce 8800 GT Golgen Sample 1024MB PCI-E - нестандартное решение. Мало того, что увеличен объем памяти в 2 раза, так и повышены частоты. Тесты ярко показали, что тот же CRYSIS на увеличение объема памяти отреагировал весьма положительно, хотя в общем случае пока 1 гигабайт не требуется. Вот как раз промежуточное решение в 768 мегабайт, что было у 8800 GTX, сейчас достаточно для топовых продуктов. Но время идет, игры все более требовательнее к ресурсам, а NVIDIA отказалась от архитектуры, связанной с 384 битной шиной и 768 мегабайтами памяти, поэтому остается только 1 гигабайт. Наверно вскоре это станет стандартом для топовых ускорителей. В целом продукт от Gainward оставил очень положительное впечатление.

MSI GeForce 8800 GTS OC 512MB PCI-E - стандартный эталонный ускоритель. Как и в случае с ASUS, здесь компания MSI не производиля самостоятельно эту видеокарту, а лишь купила уже готовое изделие у NVIDIA, поэтому перед нами референс-карта. Кулер тихий, однако нагрев весьма велик. Впрочем, воздух выводится за пределы системного блока, поэтому волноваться нечего. Данный продукт - самый быстрый из всех современных ускорителей, и наверно не найдется такого, кто сможет его обогнать в условиях, когда поставки 8800 Ultra/GTX уже свернуты.

Galaxy GeForce 8800 GT 512MB PCI-E - интересный продукт. Однако в нем найдется и много минусов, и плюсов. Плюс - понятно, что оверклокерская карта, я специально привел в таблицах и диаграммах тесты этой же карты на увеличенных частотах при условии переключения джамперами на карте на повыщенное питание ядра. К условному плюсу можно отнести комплектацию таких карт кулерами от Zalman (согласно сайту Galaxy и заверениям менеджера компании в ошибочной установке такого шумного и неправильного кулера на данный экземпляр). Кулер реально очень шумный. К минусам относится очень близкое расположение гнезд внешнего питания на карте, а разработчики почему-то не учти, что у многих блоков питания такие «хвосты» имеют некоторое утолщение перед самим разъемом, и потому два разъема просто не встанут в такие гнезда. Придется использовать переходники. Ну н основной минус: мы не смогли продемонстрировать читателю истинные показатели нагрева карты при разгоне с использованием «правильного» штатного кулера.

Palit GeForce 8800 GT Sonic 512MB PCI-E - ускоритель не эталонный, разводка традиционно для Palit переработана. К плюсам можно отнести эффективную и правильную систему охлаждения. Ну а то, что она двухслотовая, этот факт давно уже мало кого волнует. Ускоритель работает на повышенных частотах, однако наверно следовало бы их еще чуть поднять, тогда продукт вообще бы стал очень интересным и выгодным. Впрочем, и так он хорош. А вот свистопляску с одной и той же упаковкой, на которую лепят многочисленные наклейки, пора бы заканчивать, негоже для бренда «жмотиться» на выпуск нормальных коробок под каждый тип видеокарт.

Gigabyte GeForce 8800 GT Zalman Edition 512MB PCI-E - данный продукт произведен самой компанией Gigabyte, хоть и является копией эталонного дизайна. Установка эффективной и тихой системы охлаждения от Zalman позволила хорошо поднять частоты работы карты и при этом нет проблем с перегревом. Поскольку упаковки и комплекта у нас не было, окончательную оценку продукту дать не могу.

Leadtek GeForce 8800 GT ZL 512MB PCI-E - перед нами снова референс-карта, однако оснащенная эффективным и тихим кулером от Zalman. Частоты повыщены, вместе с тем продукт получил самый низкий нагрев среди остальных рассмотренных сегодня карт. Это очень положительный момент.

Выбор, как обычно, за нашими читателями. Мы даем лишь информацию о том или ином продукте, но не даем прямых указаний по выбору того или иного изделия.

И еще один момент, который мы будем повторять из обзора в обзор. Придя к решению о самостоятельном выборе трехмерного ускорителя, то бишь видеокарты в своем компьютере, пользователь должен осознавать, что он меняет одну из основных составляющих работы его системного блока, которая может потребовать дополнительной настройки для более лучшего быстродействия или включения ряда качественных функций. Это не конечный потребительский продукт, а комплектующее звено. И поэтому пользователь должен понимать, что для получения наибольшей отдачи от новой видеокарты ему придется познать некоторые азы трехмерной графики. Да и графики в целом. Если он не хочет этим заниматься, то не стоит приступать к самостоятельному апгрейду в этом плане: лучше приобретать готовые системные блоки с уже настроенным ПО (а также он будет обеспечен технической поддержкой со стороны компании-сборщика такого системника), либо приставки для игр, где ничего настраивать не надо, все включено что надо уже в самой игре.

Источник : iXBT

0

6

Intel Atom против VIA Isaiah: первые тесты

Сегодня немецкий сайт eeepcnews.de опубликовал первые сравнительные тесты процессоров Intel Atom и VIA Isaiah. Оба процессора работали на частоте 1,6ГГц, и, как известно, являются прямыми конкурентами на рынке портативных субноутбуков и MID (Mobile Internet Device). Одной из таких платформ является VN, первые продукты на которой появятся в первом квартале 2009 года. Для сравнения в тестах так же приняли участие Intel Celeron M и VIA C7.

В качестве тестового пакета был выбран CrystalMark 2004R3. Прежде всего, из диаграммы видно, что слухи о двукратном превосходстве VIA Isaiah над С7 не так сильно преувеличены, новичок показал себя более чем достойно.

http://www.3dnews.ru/_imgdata/img/2008/04/20/80236.jpg

Если процессор VIA Isaiah покажет себя хорошо и в других тестах, то у него будет реальный шанс подвинуть процессоры Intel на рынке недорогих мобильных компьютеров. Но не будем забывать, что у Intel есть главный козырь - более современный техпроцесс, благодаря которому компания сможет изменять цену в большем диапазоне. Заметим также, что процессоры VIA Isaiah имеют обратную совместимость с C7, что тоже, в свою очередь, благоприятно скажется на темпах их внедрения.

Анатолий Демидко

0

7

Первые тесты AMD Radeon HD 4870, сравнение с GeForce 9800 GX2

Турецкий ресурс Donanimhaber уже не раз оказывался первоисточником информации, впоследствии подтверждавшейся.

Вполне возможно, что правдивыми могут оказаться и результаты тестов ускорителя AMD ATI Radeon HD 4870, оснащенного 512 МБ видеопамяти. По словам источника, ему удалось протестировать ускоритель, чей графический процессор функционировал на частоте 800 МГц, а память GDDR5 — на частоте 3,4 ГГц. В тестах ему противостоял GeForce 9800 GX2, на сегодня являющийся флагманским акселератором в линейке продуктов NVIDIA.

Тестовая система выглядела так:
Процессор: Intel Core 2 Extreme QX9650, 3 ГГц
Системная плата: ASUS P5E3 Deluxe
ОЗУ: 2 х 1 ГБ OCZ DDR3 1333 МГц, тайминги 9-9-9-26
Жёсткий диск: Western Digital 250 ГБ, 16 МБ кэш, SATA2, 7200 об./мин

Итоговые результаты в 3DMark06 и Crysis выглядят следующим образом:

http://images.netbynet.ru/direct/ef164e93d591a3bd9431e0e7843a11aa.jpg

http://images.netbynet.ru/direct/994eeae750717bf7c589927bde8c325d.jpg

http://images.netbynet.ru/direct/b7c56466d365ec68d9f236221d3fdda2.jpg

Трудно сказать, являются ли приведенные цифры реальным показателем, на который способно следующее поколение графических карт AMD, но если это действительно так, то результат однопроцессорного ускорителя впечатляет и вселяет надежды в поклонников продукции компании. Учитывая, что первые Radeon HD 4000 могут появиться уже в текущем месяце, можно надеяться, что информация очень недалека от истины.

Источник: Donanimhaber, ixbt

0

8

Экспресс тест: ATI Mobility Radeon HD 3470

Сегодня в наших руках оказался ноутбук ASUS F3SL (T237SCCFWW), представляющий интерес, прежде всего, в плане графической подсистемы, основной на новейшем чипе M82 - ATI Mobility Radeon HD 3470. Основное отличие новинки от карты ATI Mobility Radeon HD 2400 заключается в более тонком техпроцессе, который выполнен по нормам 55 нм.

Утилита GPU-Z не совсем верно отображает некоторые технические характеристики графического адаптера Mobility Radeon HD 3470. Так, при ее запуске пользователь не получит информацию касающуюся техпроцесса и пропускной способности графической памяти. Хотя так или иначе, отчетливо видно, что перед нами все та же видеокарта Mobility Radeon HD 2400, получившая небольшие косметические улучшения.

http://www.3dnews.ru/_imgdata/img/2008/05/08/81894.jpg

http://www.3dnews.ru/_imgdata/img/2008/05/08/81893.jpg

Графическое ядро теперь работает на частоте 500 МГц, в то время как у HD 2400 этот показатель равен 450 МГц. Локальная графическая память может быть как стандарта GDDR2, так и GDDR3. Установленная карта HD 3470 в ноутбуке ASUS F3SL оснащается памятью стандарта GDDR2, объемом 256 Мб работающей на частоте 400 МГц (800 МГц DDR) и имеющей 64-битную шину. И прежде чем перейти к тестам, необходимо сделать небольшое уточнение, касающееся используемой логики, на которой основан тестируемый ноутбук. Дело в том, что на вкладке «Mainboard» программы CPU-Z, отчетливо видно, на каком наборе системной логике построен ноутбук.

http://www.3dnews.ru/_imgdata/img/2008/05/08/81895.jpg

Перед нами связка южного моста SiS M671MX, дополненного южным мостом SiS 968, соединенные при помощи шины SiS MuTIOL. Наличие такой не самой быстрой логики негативно скажется на быстродействии системы в целом и может несколько исказить истинную производительность Mobility Radeon HD 3470.

http://www.3dnews.ru/_imgdata/img/2008/05/08/81899.gif

Уровень производительности остался практически на прежнем уровне по сравнению с Mobility Radeon HD 2400. Лишь дополнительные 50 МГц, которые получило графическое ядро HD 3470, дают о себе знать в виде небольшого прироста в игровых приложениях. В любом случае следует помнить, что основное предназначение видеокарты Mobility Radeon HD 3470 – это аппаратное ускорение HD-контента.

Александр Шеметов

Источник : 3dnews

0

9

GeForce 9600 GT

Вступление

Началось все довольно прозаично - с обновления линейки среднего уровня графических чипсетов NVIDIA. Впрочем, несмотря на тот же "порядковый номер" видеокарты, что и у флагманской линейки, адаптер на базе нового GPU, получившего индекс G92, все же позиционируется разработчиком именно как middle-end решение.

Прежде всего, G92 производится по новому 65-нм техпроцессу, что позволило поднять частоты до 600-650 МГц по чипу (стандартные для G80 равны 575 МГц) и при этом уменьшить энергопотребление. Кроме частоты увеличилось и количество унифицированных процессоров - до 112 штук против 96-ти у GeForce 8800 GTS 640/320 MB (GeForce 8600 вспоминать вообще нет смысла). Сравнение со 128-ю процессорами в чипе GeForce 8800 GTX/Ultra было бы некорректно, поскольку это топовые видеокарты, которые по цене отличаются от 8800 GT 512 Мб очень уж сильно, хотя по быстродействию новый middle-end иногда дотягивает и до флагмана компании.

Дальше NVIDIA отказалась от экспериментов с 320- и 384-битной шиной памяти, на данный момент 256 бит вполне достаточно для процессора такой мощности, а на цену конечного продукта этот параметр влияет очень заметно. Осталось добавить, что стандартной частотой памяти для GeForce 8800 GT 512 Мб считается 1800 МГц (эффективная), а в качестве интерфейса используется PCI Express 2.0, который, как мы уже знаем, раскрывается во всей красе при использовании "тандемов" видеокарт (в случае с NVIDIA - режим SLI).

Но после представления дорогих (относительно) видеокарт среднего уровня на базе G92 образовалась пустота между GeForce 8800 GT и GeForce 8600 GTS, которую необходимо было чем-то заполнить. И для этих целей как раз подходит новый графический процессор G94, изначально предназначенный для middle-end-акселераторов ценой до 200 долларов, в которую уже неплохо вписываются ATI Radeon 3870/3850.

NVIDIA GeForce 9600 GT

Итак, что же собой представляет GeForce 9600 GT на базе G94, представленный 21 февраля сего года? Первое, что обращает на себя внимание - новая серия линейки GeForce. Как мы помним, NVIDIA сперва представляла чипсет high-end класса, а уже позже - более доступные решения. В данном случае серия GeForce 9xxx начала свой отсчет именно с решения среднего уровня, причем, с весьма заманчивой ценой. Следом уже идет внешний вид графического процессора - кристалл развернут на 45°.

Ну и наконец, технические характеристики, которые не сильно отличаются от таковых известного нам G92. Фактически, G94 можно назвать производным от старшего GPU: тот же 65-нм техпроцесс, благодаря чему удалось поднять частоту ядра до 650 МГц; архитектура, позаимствовавшая все самое лучшее из G80 и G84; 256-битный интерфейс памяти; поддержка шины PCI Express 2.0; новый видеопроцессор PureVideo HD, отвечающий за обработку видео высокой четкости.

Существенным отличием является уменьшенное количество потоковых процессоров, а значит, и транзисторов - в G94 стрим-процессоров всего 64 (в G92 - 112), причем функционируют они на частоте 1625 МГц, транзисторов - около 505 млн. Также сократилось количество текстурных блоков до 32 (в G92 их 56), но из-за архитектурных особенностей они не смогут работать быстрее 32 TMU в G80. Скорее, скорость работы TMU в новом чипе можно приравнять к 16 текстурникам флагмана компании, но только условно. Число ROP осталось неизменным по сравнению с G92 - все те же 16 штук. Как видим по характеристикам, новое доступное решение среднего класса имеет вдвое большее количество функциональных блоков и шину памяти в отличие от GeForce 8600 GTS, который, вскоре, должен спустится до уровня "кому за 100, но нет еще 150", долларов, естественно. Теперь относительно памяти. Как и GeForce 8800 GT, новые акселераторы поддерживают 512 МБ GDDR3 частотой 1800 МГц, что с 256-битной шиной дает возможность перекачки данных до 57,6 ГБ в секунду - ранее невиданная скорость для подобных решений.

Дизайн PCB эталонных карт на базе GeForce 9600 GT немного упрощен по сравнению с GeForce 8800 GT, но разводка памяти осталась прежней. Силовая обвязка также немного сбросила в весе - заявленное энергопотребление составляет всего 95 Вт, но, несмотря на поддержку PCI-E 2.0, карты оснащаются дополнительным разъемом питания. Референсная система охлаждения представляет собой все тот же однослотовый кулер, накрывающий плату целиком, с вентилятором большого диаметра, как на СО второй ревизии от GeForce 8800 GT. Монтажные отверстия совместимы с таковыми на GeForce 7900, так что, заменить в случае необходимости систему охлаждения на альтернативную не составит труда.

Стоит также отметить поддержку новым GPU интерфейсов HDMI и DisplayPort, причем последний реализован в самом чипе, в отличие от G92. Сами порты могут быть выполнены либо на картах специального дизайна, либо посредством переходника, подключаемого к одному из двух Dual Link DVI. Для передачи звука транзитом, на картах предусмотрен специальный разъем.


Тестовая конфигурация

Для тестов использовалась система на базе материнской платы ECS P35T-A (чипсет Intel P35), процессора Core 2 Extreme QX6700 и двух планок DDR2-800 по 1 ГБ производства Hynix. Все это добро управлялось операционной системой Windows Vista Enterprise со всеми обновлениями на текущий момент. В качестве оппонентов были выбраны Zotac GeForce 8800 GT AMP! (рабочие частоты 700/1675/2000 МГц) и ECS N8800GTS-640MX с референсными характеристиками.

Как видите на снимке сверху, GeForce 9600 GT и GeForce 8800 GT идентичны по размерам, как и системы охлаждения.

В качестве бенчмарков были взяты следующие программы:
3Dmark'06. Традиционный тестовый пакет, без которого, как без рук. Тестирование проводилось в двух режимах: 1280х1024 без дополнительных опций и в 1600х1200 с 8х антиалиасингом и 16х анизотропией, максимум того, что позволяет 3Dmark'06;

Gears of War. Игра от Epic, создателей движка Unreal Engine 3, и, собственно, на этом движке и основана. Обильное использование постэффектов, бамп-мэппинг и повсеместное использование карт смещения для отрисовки персонажей. В общем, именно такими будут ближайшие шутеры, портированные с Xbox 360, а их готовится к выходу немало. Настройки - полный максимум при разрешении 1280х1024, только вертикальная синхронизация отключена;

Lost Planet: Extreme Conditions. Хотя сама игра и не оправдала всех ожиданий, буйство погодных эффектов и тени от DirectX 10 вызывают уважение. Настройки, как и в предыдущем случае, максимальные, разрешение 1280х768 (широкоформатное);

Supreme Commander. Для бенчмарка важно то, что в SC на свободно масштабируемой карте, размером до 80х80 км, умещается несколько тысяч юнитов, не шибко обделенных полигонами. Все это приправлено реалистичными тенями и десятками различных взрывов (благо, взрывать в этой игре есть что). В разрешении 1280х1024 и восьмикратным сглаживанием SC способен заставить "задуматься" любую видеокарту. Изрядная нагрузка ложится и на процессор, но у нас с этим более-менее в порядке;

Crysis. Без комментариев, пожалуй. Единственный "чистый" DirectX 10 шутер на РС в комментариях действительно не нуждается. Настройки High.

Просто "из интереса" была проведена проверка производительности встроенным средством Windows Vista, но она всем картам выдала 5.9 балла, так что говорить тут не о чем.

Результаты

http://www.overclockers.com.ua/video/geforce-9600gt-preview/06.png

http://www.overclockers.com.ua/video/geforce-9600gt-preview/07.png

http://www.overclockers.com.ua/video/geforce-9600gt-preview/08.png

http://www.overclockers.com.ua/video/geforce-9600gt-preview/09.png

http://www.overclockers.com.ua/video/geforce-9600gt-preview/10.png

Любопытные результаты, включи в тестирование GeForce 8600 GTS - было б с чего посмеяться. А тут, как видите, просто говорить не о чем - производительный DirectX 10 по разумной цене (будем надеяться, что ажиотаж не взвинтит цены до небес). Конечно, не стоит забывать, что "гвоздь программы" имеет заводской разгон, как и представитель GeForce 8800 GT. Да и тестирование является предварительным. Но даже с такими показателями уже становится интересно кто выйдет победителем в на рынке middle-end решений.

Выводы

Ясно, что неутешительным итог будет, прежде всего, для предыдущего поколения видеокарт NVIDIA. Когда есть GeForce 8800 GT 512 Мб, который и дешевле (по крайней мере, так было задумано) и быстрее GeForce 8800 GTS 640 Мб, то думать тут нечего - выбор очевиден. Но тут, как черт из табакерки, появляется GeForce 9600 GT, который вроде бы должен быть видеокартой "среднего класса", но при этом он вплотную приближается к "элите". Да, до GeForce 8800 Ultra новичок не дотянет даже при хорошем разгоне, но ведь эта видеокарта почти в три раза дешевле и гораздо экономичнее (а значит - и тише)! Вопрос "а не собрать ли у себя SLI" становится еще более актуальным.

GeForce 8600 GTS/GT забыт, как страшный сон, у нас теперь новый middle-end с ценой до $200, который позволит насладиться игровым процессом без каких-либо тормозов при более агрессивных настройках. Собственно, как это и было во времена GeForce 7600.

Не можем не отметить бренд Zotac. Продукция компании понравилась практически всем - и качеством, и комплектацией, и удобством установки драйверов, и внешним видом. При этом - ничего заведомо лишнего, но все необходимое на месте. В общем, если цена на Zotac 9600 GT AMP! не будет сильно превышать стоимости аналогичных предложений, то данная карта станет отличным выбором для требовательного пользователя.

Авторы: Bateau, Qntality

Источник : overclockers.com.ua

0

10

Сравнительное тестирование GeForce 9600GT, GeForce 8800GS и Radeon HD3850

В недавнем тестировании GeForce 9600GT мы увидели, что это довольно удачная модель, которая может иногда тягаться даже с более дорогой GeForce 8800GT. В каких играх и почему проявляются преимущества G94, мы тоже попытаемся выяснить в данном тестировании. А заодно "убьем еще одного зайца" и сравним одинаковые модели видеокарт с разным объемом видеопамяти.

Список тестируемых видеокарт следующий:

XpertVision Radeon HD3850 256MB;

ASUS Radeon HD3850 512MB;

XpertVision GeForce 8800GS 384MB;

XpertVision GeForce 8800GS 768MB;

XpertVision GeForce 9600GT 512MB.

Тестовый стенд:

Процессор: Core 2 Duo E4400 2 ГГц (разогнанный до 3,2 ГГц, 320 МГц FSB);

Кулер: Thermalright Ultra-120 eXtreme;

Материнская плата: Gigabyte P35-S3;

Память: 2х1GB GOODRAM PC6400 (800 МГц при таймингах 5-4-4-12);

Жесткий диск: 320GB Hitachi T7K250;

Блок питания: CoolerMaster eXtreme Power 500-PCAP;

Операционная система: Windows XP SP2, Windows Vista Ultimate 32x;

Драйвера GeForce 8800GS: ForceWare 169.32;

Драйвера GeForce 9600GT: ForceWare 174.53;

Драйвера видеокарт Radeon: Catalyst 8.3.

3DMark 2006

http://www.overclockers.com.ua/video/geforce-8800gs-9600gt-ati-hd3850/41.gif

S.T.A.L.K.E.R.

http://www.overclockers.com.ua/video/geforce-8800gs-9600gt-ati-hd3850/43.gif

Bioshock DX10

http://www.overclockers.com.ua/video/geforce-8800gs-9600gt-ati-hd3850/45.gif

TimeShift

http://www.overclockers.com.ua/video/geforce-8800gs-9600gt-ati-hd3850/47.gif

Conflict Denied Ops

http://www.overclockers.com.ua/video/geforce-8800gs-9600gt-ati-hd3850/49.gif

Legend: Hand of God

http://www.overclockers.com.ua/video/geforce-8800gs-9600gt-ati-hd3850/51.gif

Call of Duty 4

http://www.overclockers.com.ua/video/geforce-8800gs-9600gt-ati-hd3850/53.gif

http://www.overclockers.com.ua/video/geforce-8800gs-9600gt-ati-hd3850/55.gif

Call of Juares DX10

http://www.overclockers.com.ua/video/geforce-8800gs-9600gt-ati-hd3850/57.gif

World in Conflict DX10

http://www.overclockers.com.ua/video/geforce-8800gs-9600gt-ati-hd3850/59.gif

Crysis

http://www.overclockers.com.ua/video/geforce-8800gs-9600gt-ati-hd3850/61.gif

http://www.overclockers.com.ua/video/geforce-8800gs-9600gt-ati-hd3850/62.gif

Драйверы ForceWare 174.53 на GeForce 8800GS Sonic 768MB

По результатам тестов можно выделить двух лидеров - GeForce 8800GS Sonic 768MB и GeForce 9600GT 512MB. Вторая модель частенько обгоняет всех в тяжелых режимах, да и в простых иногда занимает место лидера. Естественно возникает резонный вопрос, а как же ей это удается при меньшем количестве вычислительных блоков? Это рождает подозрение о хорошей оптимизации драйверов под новую 9-ю серию. Не случайно же NVIDIA выпускает отдельные драйвера для этой и старой 8-й серии, при том что почти никаких конструктивных различий в архитектуре G92 и G94 нет.

Мы попытались проверить и этот вариант. С этой целью на видеокарту GeForce 8800GS Sonic были принудительно установлены драйвера ForceWare 174.53. Для этого необходимо вначале запустить инсталлятор драйверов, чтобы он распаковал соответствующие файлы в C:\NVIDIA\. После этого, через диспетчер устройств обновляем драйвера. Отказываемся от автоматического поиска, указываем, что сами выберем необходимый драйвер и выбираем соответствующую папку. Инсталлятор скажет, что драйвера несовместимы, все равно продолжаем установку. Перезагружаемся, и вот у нас уже не GeForce 8800GS, а нестандартная GeForce 9600GT с объемом памяти 768MB и шиной 192 бит, как ее определяет GPU-Z.

С этими драйверами были проведены тесты в некоторых из уже использовавшихся игр, в частности отобраны были самые ресурсоемкие и те, где GeForce 9600GT оказывалась быстрее GeForce 8800GS Sonic.

Во всех играх, кроме Legend: Hand of God, результаты GeForce 8800GS увеличились. Причем самый большой прирост 6,7-9,6% в игре World in Conflict, в которой GeForce 9600GT демонстрировала значительно более высокие результаты в тяжелых режимах. Небольшой прирост в TimeShift. В Call of Juares результат выше без MSAA, но со сглаживанием падает. В Crysis драйверы тоже помогают выиграть еще 3,6%. Как видно, драйверы действительно дают прирост, соответственно и своим преимуществом GeForce 9600GT немного обязан этому факту. Но опять же, даже с драйверами ForceWare 174.53 в тех тестах, где GeForce 8800GS отставала от новичка, разрыв стал меньше, но не исчез полностью, лишь в некоторых режимах результаты видеокарт сравнялись. А вот то, что в игре Legend: Hand of God наблюдается огромное падение производительности, наводит на мысли, что за желанием максимально поднять результаты новых видеокарт в "бенчмарковых" играх, программисты NVIDIA забыли о других. Ведь в Crysis или World in Conflict тестируют все. А видели ли вы тесты под Legend: Hand of God? Чистой воды маркетинг: необходимо всеми способами вытянуть новую видеокарту, чтобы она не сильно уступала предшественникам или даже обгоняла их, вот драйверы и «вылизываются» под самые популярные и раскрученные игры. Но это вовсе не уменьшает достоинств 9600GT, а лишь показывает, что там, где карта оказывается быстрее, это преимущество частично проявляется за счет драйверов. И наоборот, в некоторых играх она может отставать по той же причине ( Legend: Hand of God). Но это все же единичный случай, ведь в TimeShift, GeForce 8800GS все так же оказывается быстрее, а то что драйвера повышают в этой игре результат доказывает, что в этом приложении 9600GT лишь отстает еще больше.

Итоги

В большинстве рассмотренных игр видеокарты Radeon HD3850 демонстрируют более низкие результаты на фоне GeForce 8800GS и GeForce 9600GT.
А версия с 256 МБ памяти так вообще постоянно плетется в хвосте.
Но оправданием этой модели может служить цена.
На данный момент это самая дешевая видеокарта с шиной 256 бит.
Конкретную модель XpertVision Radeon HD3850 256MB можно рекомендовать к покупке только в случае, если вы не планируете разгон и играете без сглаживания.
Тогда эта карта еще сможет удовлетворить вашим запросам.

ASUS Radeon HD3850 512MB намного привлекательнее.
Во первых, больший объем памяти изначально дает прирост в самых последних играх, во вторых, у этой карты отличный разгонный потенциал.
С разгоном ASUS Radeon HD3850 512MB иногда догоняет соперников.
Но опять же, в тех играх, где видеокарта не в состоянии соперничать с GeForce, разгон не сильно помогает (яркий пример – Call of Duty 4).
А в тех приложениях где эта карта занимает первое место ее преимущество минимально.
И падение производительности при активации фильтрации и сглаживания у Radeon HD3850 больше, чем на GeForce 8800GS и GeForce 9600GT.
Но если же вы настроены на покупку Radeon HD3850, то рассмотренная нами модель от ASUS станет лучшим выбором.

XpertVision GeForce 8800GS 384MB при своей цене демонстрирует неплохие результаты в тестах
. На фоне Radeon HD3850 эта видеокарта показывает более сбалансированную производительность. И без использования сглаживания почти не уступает лидерам тестирования.
Но, к сожалению, обороты вентилятора не регулируются, а вытерпеть постоянный гул кулера человеку с нормальным слухом и психикой долго не удастся.
Да и разгон не очень высокий. Шина 192 бит для этой карты узкое место, ведь сам чип довольно мощный.
Но установленные микросхемы памяти гонятся слабо, и значительно увеличить пропускную способность не удастся.

Модель XpertVision GeForce 8800GS Sonic 768MB наравне с GeForce 9600GT 512MB лидеры тестирования.
Но на стороне GeForce 8800GS высокие результаты во всех тестах. А вот GeForce 9600GT частенько оказывается медленнее в более старых играх.
Но при активации сглаживания и фильтрации, у этой карты наблюдается минимальное падение производительности, и в таких режимах видеокарта часто обгоняет все остальные.
Если бы на GeForce 8800GS 768MB была распаяна более быстрая память, то с разгоном можно было бы компенсировать отставание в тяжелых режимах от GeForce 9600GT, и данная видеокарта стала бы безоговорочным лидером.
Если же не брать во внимание производительность со сглаживанием, то обе GeForce 8800GS Sonic предпочтительнее.
Существенный плюс данной видеокарты - это эффективная и абсолютно тихая (на оборотах по умолчанию) система охлаждения.
Правда, насладиться тишиной мешает спикер, но о том как с ним поступить, писалось выше.

Как мы выяснили, производительность GeForce 9600GT 512MB частично "натянута" за счет хорошо оптимизированных драйверов, но это никак не объясняет довольно высокие результаты этой видеокарты в тестах со сглаживанием и фильтрацией. Это объясняется большим количеством блоков ROP по сравнению с GeForce 8800GS, да в придачу они еще и работают быстрее.
И большая пропускная способность 256-битной шины памяти тоже благотворно сказывается на производительности в таких режимах.
Недостаток вычислительных блоков частично компенсируется более высокими частотами графического чипа.
Меньшее количество транзисторов в кристалле обуславливает более низкое энергопотребление и невысокое тепловыделение в сравнении с GeForce 8800GT и GeForce 8800GS.
Если же говорить о разгоне данной видеокарты, то отметим, что разгон памяти влияет на результат слабо.
Производительность в основном возрастает с разгоном графического чипа.
В целом, GeForce 9600GT вышла удачной моделью. Компания NVIDIA подобрала эффективное сочетание вычислительных блоков, которое дает вполне пристойную производительность.
При этом техпроцесс уже налажен, и производство G94 при меньшем размере кристалла значительно проще и дешевле.
Так что это выгодно и производителю и пользователям, которые получают удачную модель в соотношении цена/производительность.

И на последок, пару слов скажем о качестве изображения на видеокартах Radeon и GeForce.
Да, действительно, изображение на этих видеокартах отличается, но не всегда в лучшую сторону по отношению к Radeon.
Из рассмотренных игр разница наиболее сильно заметна в играх S.T.A.L.K.E.R. и TimeShift.
Причем в первой игре на Radeon цветовая гамма меняется даже при включении фильтрации (с которой игра виснет на Catalyst 8.3), и не в лучшую сторону.
На GeForce картинка более мягкая и реалистичная, естественная дымка и туман.
Все же более резкие и насыщенные цвета не совсем соответствуют атмосфере игры.
Игра TimeShift при хорошей графике все-таки не отличается реализмом.
Люди и объекты как из пластика сделаны. И более сочная картинка на Radeon, по субъективному мнению, красивее.
В остальных же играх если и есть разница, то она минимальна и не заметна.
И эти небольшие различия всегда легко компенсируются настройками гаммы в игре или в мониторе.

Автор: wolfsanek

Источник : overclockers.com.ua

0

11

Оперативная память: весна 2008 года

Если кто-то из читателей следит за динамикой цен на модули DDR3, то он наверняка заметил серьезное падение цен на данный вид памяти. В частности, гигабайтный модуль уже сейчас продается по цене чуть меньше 3000 руб. Однако для большинства пользователей эта информация совершенно неинтересна: цены на DDR2 значительно ниже. Фактически, стоимость DDR2 уже почти достигла своего дна: цены на модули PC6400 объемом 1 Гб начинаются от ~500 руб., на модули 2 Гб - от ~1100 руб.

Конечно, модули, предназначенные для оверклокеров, стоят дороже, но ненамного, поскольку даже самая качественная память DDR2 проигрывает обычной DDR3 (исходя из потребностей оверклокеров). Особенно это касается систем на чипсетах Intel, в которых частота памяти "привязана" к FSB.

В сегодняшнем обзоре мы протестируем набор из двух гигабайтных модулей DDR2-800 AD8200X001GU производства компании A-Data. Данные модули относятся к оверклокерской серии Vitesta Extreme Edition. Начнем с упаковки, которая представляет собой большую красивую коробку:

Несмотря на внушительные размеры, внутри находятся всего два модуля памяти.

А вот и сами модули:

http://www.3dnews.ru/_imgdata/img/2008/04/11/79494.jpg

Согласно наклейке, штатная частота = 800 МГц, объем модуля = 1 Гб, тайминги 4-4-4-12, а рабочее напряжение находится в диапазоне от 1,9 В до 2,1 В. Учитывая наличие металлических радиаторов, незначительное повышение Vmem (штатное Vmem для DDR2 = 1,8 В) вполне допустимо.

Переходим к тестированию, и посмотрим на информацию SPD:

http://www.3dnews.ru/_imgdata/img/2008/04/11/79482.jpg

Согласно SPD, низкие тайминги 4-4-4-12 допустимы только для частоты DDR2-533. Впрочем, как показывают все предыдущие тесты модулей памяти, информация SPD не всегда соответствует реальным характеристикам. В действительности, модули A-Data заработали на частоте 500 МГц (что эквивалентно DDR2-1000 МГц), с низкими таймингами.

http://www.3dnews.ru/_imgdata/img/2008/04/11/79477.jpg

А если не устанавливать тайминги вручную, а положится на SPD и BIOS материнской платы (кстати, мы использовали плату Gigabyte EP35-DS4 на чипсете P35), то максимальная стабильная частота для данных модулей равна DDR2-1224 МГц, с таймингами 5-8-8-28.

http://www.3dnews.ru/_imgdata/img/2008/04/11/79481.jpg

Это очень хороший, но не наивысший результат. А самый лучший результат, зафиксированный в нашем тест-лабе, принадлежит оверклокерским модулям GoodRAM GP1066D264L5/2GDC, которые заработали на частоте DDR2-1280 МГц, с таймингами 5-6-6-18, при том же самом напряжении 2,1 В.

Чтобы данный обзор не был кратким, мы добавили в него тесты модулей Corsair CM2X1024-6400C4, характеристики которых совершенно аналогичны характеристикам модулей A-Data.

http://www.3dnews.ru/_imgdata/img/2008/04/11/79492.jpg

В частности, совпадает штатная частота (DDR2-800), рабочее напряжение (2,1 В), а также тайминги (4-4-4-12). Теперь посмотрим на SPD:

http://www.3dnews.ru/_imgdata/img/2008/04/11/79493.jpg

Согласно этой информации, модули Corsair должны быть лучше, поскольку способны работать на низких таймингах на частоте DDR2-800. Но как обстоят дела в реальности? А в действительности модули оказались хуже, как при работе с низкими таймингами (макс. частота DDR2-936):

http://www.3dnews.ru/_imgdata/img/2008/04/11/79488.jpg

так и со штатными (макс. частота DDR2-1008):

http://www.3dnews.ru/_imgdata/img/2008/04/11/79491.jpg

Итак, сведем все результаты в одну таблицу, и подведем итоги:

http://www.3dnews.ru/_imgdata/img/2008/04/11/79483.gif

Конфигурация тестового стенда:

http://images.netbynet.ru/direct/f47dbe8012e35b289f0bcff50b81be9d.jpg

Подводя итоги, отметим следующее. Модули A-Data AD8200X001GU со штатными настройками показали один из самых лучших результатов (DDR2-1224). Но если пользователь самостоятельно установит низкие тайминги (4-4-4-12), то в этом режиме потенциал разгона данных модулей невысок (DDR2-1000). Но даже такой слабый результат лучше результата модулей Corsair CM2X1024-6400C4, которые не преодолели частоту = 1 ГГц.

И важное уточнение: нужно помнить, что модули памяти имеют различную совместимость с материнскими платами. То есть на штатных частотах память работает на любой плате, но потенциал разгона совершенно разный для каждой модели материнской платы (да и в пределах одной модели потенциал зависит от версии BIOS).

Автор: Александр Митрофанов

0

12

Экспресс-сравнение GeForce 9800GTX с видеокартами middle-end GeForce 8800GT, GeForce 9600GT, Radeon HD3870.

Результаты тестирования и выводы

Представлять линейку GeForce 9800GTX будет видеокарта ASUS 9800GTX, а "недорогих" видеокарт будет три:

GeForce 8800GT с частотами 600/1500/1800 МГц;
GeForce 9600GT с частотами 650/1625/1800 МГц;
Radeon HD3870 с частотами 777/2250 МГц.

Частоты всех видеокарт соответствуют рекомендованным частотам компаниями NVIDIA и AMD.

Тестирование производилось на системе следующей конфигурации:

Процессор Intel Core 2 Quad QX6850 3,00 ГГц
Материнская плата Foxconn N68S7AA на базе чипсета NVIDIA nForce 680i SLI
Оперативная память Corsair Dominator DDRII-800, 2 x 1024 Мб, 5-5-5-15 2T
Операционная система Windows XP+SP2+DirectX 9.0c / Windows Vista для DX10 тестов
Драйверы чипсета 9.53/15.08 для WinXP и WinVista + новые 9.64. Все для nForce 680i
Блок питания HIPER 880 Вт

Для тестирования видеокарт нами были использованы следующие драйверы:

для видеокарт ASUS 9800GTX и GeForce 9600GT - ForceWare 174.74;
для видеокарты GeForce 8800GT - ForceWare 169.21 и ForceWare 169.25 (для Windows XP и Windows Vista соответственно);
для видеокарты Radeon HD3870 - Catalyst 8.4.

Для тестов мы отобрали наиболее требовательные к видеокартам игры.
Ознакомление с результатами тестов мы традиционно начнём с тестовых пакетов 3D Mark.

http://www.3dnews.ru/_imgdata/img/2008/04/29/81192.png

Результат 3DMark.

Несмотря на разницу в позиционировании видеокарт, в тесте 3DMark 05 все соперницы оказались очень близки.
В тесте 3DMark 06 ситуация изменилась в пользу видеокарт ASUS 9800GTX и GeForce 8800GT, всё же они мощнее двух других участниц тестирования в шейдерных вычислениях, на что сделан упор в этом тесте.

Последующие тесты мы производили как со сглаживанием, так и без него.
Также мы привели минимальное значение FPS, полученное нами в ходе тестирования.
Поскольку минимальное значение FPS - величина деффиренцируемая и запросто может меняться от теста к тесту, её значения мы приводим только в ознакомительных целях.

http://www.3dnews.ru/_imgdata/img/2008/04/29/81174.png

Результат тестирования в Crysis DX9 c AA.

http://www.3dnews.ru/_imgdata/img/2008/04/29/81175.png

Результат тестирования в Crysis DX9 c AA.

http://www.3dnews.ru/_imgdata/img/2008/04/29/81176.png

Результат тестирования в Crysis DX9 c AA.

В игре Crysis под управлением Windows XP со включенным сглаживанием лидирует видеокарта ASUS 9800GTX, но стоит отметить тот факт, что соперница в лице GeForce 8800GT не так уж сильно от неё отстала. Заслуживает внимания тот факт, что GeForce 9600GT обогнала Radeon HD3870, хотя последняя изначально была конкурентом для GeForce 8800GT. Стоит обратить внимание и на распределение значений минимального значения FPS для видеокарты ASUS 9800GT, а конкретно - на то, что при разрешении 1280x1024 оно самое большое. Интересно, что при отключении сглаживания подобная ситуация уже не повторяется, и значение FPS при этом разрешении становится между двух других.

http://www.3dnews.ru/_imgdata/img/2008/04/29/81177.png

Результат тестирования в Crysis DX9 без AA.

http://www.3dnews.ru/_imgdata/img/2008/04/29/81178.png

Результат тестирования в Crysis DX9 без AA.

http://www.3dnews.ru/_imgdata/img/2008/04/29/81179.png

Результат тестирования в Crysis DX9 без AA.

После отключения сглаживания распределение мест не изменяется, но в плане минимальных значений FPS историю видеокарты ASUS 9800GTX при включенном сглаживании повторяет GeForce 8800GT. На этот раз, с точки зрения плавности игры, оптимальным для неё разрешением становится 1280x1024, в котором минимальное значение FPS выше двух других.

http://www.3dnews.ru/_imgdata/img/2008/04/29/81180.png

Результат тестирования в Crysis DX10 с AA.

http://www.3dnews.ru/_imgdata/img/2008/04/29/81181.png

Результат тестирования в Crysis DX10 с AA.

http://www.3dnews.ru/_imgdata/img/2008/04/29/81182.png

Результат тестирования в Crysis DX10 с AA.

При переходе к Windows Vista ситуация в игре Crysis немного меняется. При разрешении 1024x768 результаты видеокарт близки к таковым в Windows XP, но вот при его росте у некоторых видеокарт начинаются проблемы. Так, видеокарта GeForce 8800GT пострадала из-за старого драйвера, с которым проблема нехватки видеопамяти в 512 Мб для видеокарт NVIDIA наиболее очевидна. Видеокарты ASUS 9800GTX и GeForce 9600GT показали лучшую стойкость к этой проблеме, но за это необходимо благодарить новый драйвер за версией 174.74. Кстати, совершенно непонятно, почему NVIDIA не обновила драйверы для всех своих актуальных на сегодняшний день видеокарт. Сделай она это, и у GeForce 8800GT было бы меньше проблем. Хотя, с другой стороны, результаты всех видеокарт в этой игре со включенным сглаживанием оставляют желать лучшего, так что лучше его отключать. Смотрите:

http://www.3dnews.ru/_imgdata/img/2008/04/29/81183.png

Результат тестирования в Crysis DX10 без AA.

http://www.3dnews.ru/_imgdata/img/2008/04/29/81184.png

Результат тестирования в Crysis DX10 без AA.

http://www.3dnews.ru/_imgdata/img/2008/04/29/81185.png

Результат тестирования в Crysis DX10 без AA.

Картина для всех видеокарт меняется в лучшую сторону, хотя, конечно, GeForce 9600GT и Radeon HD3870 находятся "на грани". Обратим вновь ваше внимание на минимальное значение FPS для видеокарты GeForce 8800GT. Как и в случае с Windows XP, его значение наибольшее при разрешении 1280x1024.

http://www.3dnews.ru/_imgdata/img/2008/04/29/81186.png

Результат тестирования в Call of Juarez DX10 с AA.

http://www.3dnews.ru/_imgdata/img/2008/04/29/81187.png

Результат тестирования в Call of Juarez DX10 с AA.

http://www.3dnews.ru/_imgdata/img/2008/04/29/81188.png

Результат тестирования в Call of Juarez DX10 с AA.

В игре Call of Juarez лидером стала ASUS 9800GTX, что стало возможным не только благодаря большему, чем у GeForce 8800GT и GeForce 9600GT количеству функциональных блоков и большим тактовым частотам, но и благодаря новым драйверам, которые полностью устраняют проблему нехватки видеопамяти в этой игре. Как ведут себя старые драйверы, вы можете увидеть на примере GeForce 8800GT, которая сильно потеряла в быстродействии по мере роста разрешения. Отметим также тот факт, что видеокарта Radeon HD3870 при разрешении 1600x1200 оказалась быстрее, чем при разрешении 1280x1024.

http://www.3dnews.ru/_imgdata/img/2008/04/29/81189.png

Результат тестирования в Call of Juarez DX10 без AA.

http://www.3dnews.ru/_imgdata/img/2008/04/29/81190.png

Результат тестирования в Call of Juarez DX10 без AA.

http://www.3dnews.ru/_imgdata/img/2008/04/29/81191.png

Результат тестирования в Call of Juarez DX10 без AA.

После отключения сглаживания видеокарты значительно прибавляют в быстродействии, и даже изначально не самая мощная GeForce 9600GT смотрится не намного слабее более мощных участниц тестирования. Что касается видеокарты Radeon HD3870, то её преимущество при разрешении 1600x1200 по отношению к разрешению 1280x1024 становиться очевидным. Мы предполагаем, что это стало следствием иного, чем 4:3 соотношения сторон при разрешении 1280x1024. Для проверки нашей версии мы протестировали эту видеокарту при разрешении 1680x1050 с отключенным сглаживанием. По идее, это разрешение очень близко к 1600x1200, и логично было бы предположить, что и результат должен быть близким. Однако результат оказался в пользу нашей версии - 13,7 FPS против 21,7 FPS при разрешении 1600x1200. На основании этого мы предполагаем, что видеокарты Radeon в игре Call of Juarez под управлением Windows Vista плохо оптимизированы под разрешения, соотношение сторон которых отлично от 4:3.

Выводы

По результатам тестирования та же видеокарта GeForce 8800GT не сильно отстала от сегодняшнего флагмана, и это - при гораздо меньшей цене. Видеокарта GeForce 9600GT продемонстрировала свою пригодность для "тяжёлых" режимов в современных играх, что сделала и единственная принявшая участие в нашем обзоре видеокарта от компании AMD - Radeon HD 3870. По отношению к ней нового ничего не скажешь, но на этот раз ругать мы её не будем. Причина тому проста - цена на Radeon HD3870 теперь находиться на невысоком уровне.

Источник: 3Dnews

0

13

Скорость GeForce GTX 200 в сравнении с HD 3870 X2 в 3D-играх

В преддверии выхода видеокарт NVIDIA серии GTX 200 все чаще появляются какие-то новые и важные порции информации о них, несмотря на то, что большая часть информации уже была известна довольно давно.

http://images.netbynet.ru/direct/9480b7e4ab82a12f06e3a08d446abb7e.jpg

Буквально за пару дней стали известны дополнительные технические детали, ценовая информация, изучен внешний вид ядра и вот появились данные о том, какова же производительность пары новых решений NVIDIA на GT 200.

Как сообщается, сравнение проводилось компанией NVIDIA при использовании версии драйверов ForceWare 177 для серии GTX 200 и Catalyst 8.3 для адаптера HD 3870 X2.

На сравнительной диаграмме видно, что в среднем GTX 260 превосходит HD 3870 X2 примерно в 1,5 раза, в то время как GTX 280 часто оказывается быстрее HD 3870 X2 в 2 и более раз.

Источник: VR-zone, ixbt

0

14

Computex 2008: тесты Radeon HD 4850

Любители компьютерных игр с нетерпением ждали открытия международной выставки Computex Taipei 2008, предвкушая приезд в тайваньскую столицу графических ускорителей на базе чипов нового поколения G200 и RV770. Судя по всему, производственные партнёры NVIDIA и AMD оправдали надежды игровой публики. Уже в нулевой день мероприятия появилась возможность утолить информационный голод. Сайт VR-Zone стал одним из первых, кто доложил о появлении на Computex новых видеокарт.

Сингапурские репортёры стали свидетелями демонстрации системы с ускорителем Radeon HD 4850, работающей под управлением Windows Vista и свежей бета-версии драйверов Catalyst с поддержкой чипа RV770. Сообщается, что при испытании данной конфигурации в тестовом пакете 3DMark Vantage удалось достигнуть результата в 6466 очков (Performance preset). Скриншот закладки драйвера выдал информацию о степени нагрева графического ядра - 78 С˚.

http://www.3dnews.ru/_imgdata/img/2008/06/02/84243.jpg

Надо полагать, на Computex приехала предсерийная видеокарта Radeon HD 4850 с 512 Мб памяти GDDR3, работающей на пониженной частоте. Судя по представленному скриншоту, частотная формула ускорителя эквивалентна 625/933 (1866) МГц. Напомним, что большинство источников считает стандартными для серийного варианта Radeon HD 4850 частоты 625/1143 (2286) МГц. Разгон графического ядра до 700 МГц перед прогоном в 3DMark Vantage в какой-то степени компенсировал эффект от потери пропускной способности видеобуфера.

http://www.3dnews.ru/_imgdata/img/2008/06/04/84652.gif

К сожалению, какая-либо информация о тестовой платформе отсутствует, если не считать сведения о поддержке шины PCI Express 2.0. Тем не менее, со ссылкой на статистику достижений современных ускорителей в новом тестовом пакете отметим, что полученный результат 6466 "попугаев" калибра 3DMark Vantage примерно на 10% превышает показатель системы с видеокартой GeForce 9800 GTX, работающей на стандартных частотах. Небольшое преимущество над нынешним однопроцессорным лидером NVIDIA означает то, что в арсенале AMD появляется весьма конкурентоспособный продукт с рекомендованной ценой порядка $250.

Геннадий Пашкевич

Источник: 3DNews

0

15

Видеокарта Forsa 9600 GSO – отличная заготовка для экономных оверклокеров

Порой для создания «нового» продукта достаточно сменить его старое название. Именно так поступила компания NVIDIA, когда выпустила видеокарту GeForce 9600GSO. Идти на равных с 8800GT - легко!

Подробно : 3dnews

http://www.3dnews.ru/_imgdata/img/2008/05/29/83957.jpg

http://www.3dnews.ru/_imgdata/img/2008/05/29/84021.jpg

0

16

Две 9600GT в SLI лучше, чем одна 8800GTS 512

http://www.3dnews.ru/_imgdata/img/2008/06/09/85220.png

http://www.3dnews.ru/_imgdata/img/2008/06/09/85221.png

http://www.3dnews.ru/_imgdata/img/2008/06/09/85212.png

http://www.3dnews.ru/_imgdata/img/2008/06/09/85222.png

http://www.3dnews.ru/_imgdata/img/2008/06/09/85213.png

http://www.3dnews.ru/_imgdata/img/2008/06/09/85223.png

http://www.3dnews.ru/_imgdata/img/2008/06/09/85214.png

http://www.3dnews.ru/_imgdata/img/2008/06/09/85224.png

http://www.3dnews.ru/_imgdata/img/2008/06/09/85215.png

http://www.3dnews.ru/_imgdata/img/2008/06/09/85225.png

http://www.3dnews.ru/_imgdata/img/2008/06/09/85216.png

Выводы

Сегодняшнее тестирование наглядно показало, что связка из двух видеокарт GeForce 9600GT в большинстве случаев быстрее одиночной видеокарты GeForce 8800GTS 512. Правда, пара 9600-х будет стоить немного дороже одной 8800GTS 512; если брать минимальные цены по wwwprice.ru, то примерно на 25,9%. Однако тут есть свои подводные камни, и первый из них - необходимость в материнской плате на чипсете NVIDIA с поддержкой SLI. Ведь иначе SLI просто не заработает. Причём даже с чипсетами NVIDIA SLI есть свои нюансы. Загляните сюда и сравните результаты GeForce 9800GTX в режиме SLI с результатами GeForce 9800GX2 отсюда. Результат у GeForce 9800GX2 выше, чем у GeForce 9800GTX в связке SLI. Мы предполагаем, что это стало следствием использования для тестирования материнских плат на разных чипсетах, а именно, Foxconn на базе nForce 680i SLI для GeForce 9800GTX и XFX на nForce 790i SLI для GeForce 9800GX2. Из этого предположения следует, что для получения наилучших результатов необходима материнская плата на базе чипсета NVIDIA nForce 7-й серии с поддержкой SLI. Самыми доступными из подходящих нам являются материнские платы на базе чипсета NVIDIA nForce 780i SLI для процессоров Intel. Смотрим wwwprice.ru - и видим, что минимальная цена за такую плату составляет около 6000 руб. Если же выбирать современную материнскую плату без поддержки SLI, то за сумму около 2600 руб. можно приобрести вполне неплохую модель на базе чипсета Intel P35. Понятно, что использование видеокарт в режиме SLI потребует не только приобретения самих видеокарт, но и соответствующей материнской платы, причём далеко не самой дешёвой.

По результатам игровых тестов со включенным сглаживанием, связка GeForce 9600GT-SLI оказалась быстрее GeForce 8800GTS 512 в среднем на 33%, в то время как стоимость двух видеокарт 9600GT больше стоимости 8800GTS 512 всего на 25%. Но в то же время платформа с GeForce 9600GT-SLI оказывается на 60% дороже, чем платформа с GeForce 8800GTS 512. Увы, но соотношение прироста производительности к сумме, которую придётся переплатить, оказывается уже не в пользу GeForce 9600GT-SLI. Нам остаётся констатировать, что система с двумя middle-end-видеокартами будет стоить дороже системы с одной видеокартой класса hi-end, если учитывать стоимость материнской платы.

0

17

NVIDIA GeForce GTX 280 – очень быстро и жутко горячо

http://www.3dnews.ru/video/gtx280/index3.htm

http://www.3dnews.ru/_imgdata/img/2008/06/16/85926.jpg

http://www.3dnews.ru/_imgdata/img/2008/06/16/85922.jpg

http://www.3dnews.ru/_imgdata/img/2008/06/16/85918.jpg

http://www.3dnews.ru/_imgdata/img/2008/06/16/85920.jpg

http://www.3dnews.ru/_imgdata/img/2008/06/16/85900.jpg

http://www.3dnews.ru/_imgdata/img/2008/06/16/85908.jpg

http://www.3dnews.ru/_imgdata/img/2008/06/16/85910.jpg

Программа Riva Tuner 2.09 уже поддерживает новый чип GT200.

http://www.3dnews.ru/_imgdata/img/2008/06/16/85971.jpg

http://www.3dnews.ru/_imgdata/img/2008/06/16/85972.jpg

Тестовый стенд

Процессор Intel Core 2 Quad X6850 3,0 ГГц

Материнская плата ASUS P5E3 на базе чипсета Intel X38

Оперативная память Corsair Dominator DDR3 2 x 2 Гб 1333 МГц 6-6-6-18 1T

Операционная система Windows XP+SP2+DirectX 9.0c / Windows Vista для DX10 тестов

Блок питания Thermaltake Toughpower 750 Вт

http://www.3dnews.ru/_imgdata/img/2008/06/16/85963.png

http://www.3dnews.ru/_imgdata/img/2008/06/16/85964.png

http://www.3dnews.ru/_imgdata/img/2008/06/16/85970.png

http://www.3dnews.ru/_imgdata/img/2008/06/16/85965.png

http://www.3dnews.ru/_imgdata/img/2008/06/16/85967.png

Выводы

Революции не произошло, новый графический процессор GT200 и протестированная сегодня видеокарта GeForce 280GTX являются дальнейшим развитием унифицированной шейдерной архитектуры от компании NVIDIA. Новый графический процессор содержит большее количество функциональных блоков, чем у предшественников, что даёт ему право называться мощнейшим GPU на сегодняшний день. Стоит заметить, что помимо высокой производительности в 3D-приложениях, новый чип претендует на первое место в области распределённых вычислений, на данный момент это проект Folding@Home. Не стоит забывать и про технологию вычислений на графических процессорах NVIDIA Cuda, а также про ускорение «физики» в играх. Последнее будет полностью совместимо с движком AgeiA PhysX, потребуется лишь специальный драйвер, которого, по всей видимости, ждать осталось совсем недолго. Правда насколько будет востребован новый чип GT200 в неграфических вычислениях пока что не совсем понятно, но этот момент мы постараемся разобрать в наших последующих статьях, когда на руках будут все необходимые драйверы и утилиты.

Источник: 3dnews

0

18

ASUS HD4850 - первые тесты новейшего GPU AMD RV770

http://www.3dnews.ru/_imgdata/img/2008/06/20/86455.jpg

http://www.3dnews.ru/_imgdata/img/2008/06/20/86451.jpg

http://www.3dnews.ru/_imgdata/img/2008/06/20/86453.jpg

Видеокарта ASUS EAH4850 изготовлена по эталонному дизайну, то есть от «обычной» Radeon HD4850 отличается только фирменной наклейкой, точнее, её наличием. Внешне новинка очень похожа на предшественницу Radeon HD3850.

http://www.3dnews.ru/_imgdata/img/2008/06/20/86449.jpg

http://www.3dnews.ru/_imgdata/img/2008/06/20/86447.jpg

Новый чип RV770, по сравнению с предшественником RV670, приобрёл металлическую окантовку. Рабочая частота GPU на видеокарте HD4850 равна 625 МГц.

Чипы памяти произведены компанией Qimonda и имеют время выборки 1,0 нс, что соответствует эффективной частоте 2000 МГц, на которой она штатно и работает.

Графический процессор RV770 содержит массу улучшений по сравнению с предшественниками R600 и RV670.

http://images.netbynet.ru/direct/0b4e5fe98272a0df442db07581ad31d5.jpg

Количество потоковых процессоров увеличилось с 320 до 800, а количество текстурных блоков возросло с 16 до 40. Именно малое количество текстурных блоков было ахиллесовой пятой для R600/RV670, теперь же этот недостаток исправлен. Скорость выполнения математических операций (Multiply-Add) на GPU возросла более чем в 2 раза, что стало возможным благодаря возросшему количеству потоковых процессоров. Встроенный видеодекодер (UVD) также не остался в стороне и получил улучшенную поддержку декодирования HD-контента и функцию динамического изменения контрастности.

http://www.3dnews.ru/_imgdata/img/2008/06/20/86457.gif

http://images.netbynet.ru/direct/a2c8d8d53cc7c3eade8c17edb4502099.jpg

Для тестирования видеокарт ASUS EAH4850 и Radeon HD3870 мы использовали драйверы Catalyst 8.6, для Leadtek GTX 280 - драйверы ForceWare 177.34, для GeForce 9800GTX - драйверы ForceWare 175.19.

http://www.3dnews.ru/_imgdata/img/2008/06/20/86474.png

http://www.3dnews.ru/_imgdata/img/2008/06/20/86473.png

http://www.3dnews.ru/_imgdata/img/2008/06/20/86475.png

http://www.3dnews.ru/_imgdata/img/2008/06/20/86481.png

http://www.3dnews.ru/_imgdata/img/2008/06/20/86476.png

http://www.3dnews.ru/_imgdata/img/2008/06/20/86478.png

http://www.3dnews.ru/_imgdata/img/2008/06/20/86479.png

Выводы

Компания AMD провела серьёзную работу над ошибками, в результате которой появился новый графический процессор RV770 и видеокарта Radeon HD4850 на его основе. Конечно, сухие диаграммы производительности не отражают всю красоту картинки, показанную Radeon HD4850. К исследованию данного вопроса мы вернёмся в наших следующих материалах. Более того, в самое ближайшее время мы протестируем обе новинки, и GeForce GTX 280, и Radeon HD4850, в очень высоких разрешениях и тяжёлых графических режимах.

Радует то, что рекомендованная цена новинки составляет всего $199. Разумеется, компания NVIDIA удерживает лидерство в плане абсолютного уровня производительности однопроцессорных видеокарт. Но хорошо известно, что самая ожесточенная борьба за симпатии (и кошельки) покупателей разворачивается именно в среднем ценовом сегменте, на который и нацелена видеокарта Radeon HD4850.

Источник: 3dnews

0

19

Тестируем флагманы в разрешениях 1680x1050, 1920x1200 и 2048x1536

В данном сегодняшнем тестировании будут участвовать следующие видеокарты:

GeForce GTX 280 - нынешний одночиповый флагман NVIDIA

Radeon HD4850 - новый представитель среднего класса от AMD

GeForce 9800GX2 - двухчиповый флагман NVIDIA на основе GPU G92

GeForce 9800GTX - одночиповый флагман NVIDIA предыдущего поколения на основе GPU G92

GeForce 8800 Ultra - «прародитель» унифицированной шейдерной архитектуры на базе GPU NVIDIA G80

Тестовый стенд

Процессор Intel Core 2 Quad X6850 3,0 ГГц

Материнская плата ASUS P5E3 на базе чипсета Intel X38

Оперативная память Corsair Dominator DDR3 2 x 1 Гб 1333 МГц 6-6-6-18 1T

Операционная система Windows XP+SP2+DirectX 9.0c / Windows Vista для DX10 тестов

Блок питания Thermaltake Toughpower 750 Вт

Мы использовали следующие драйверы:

для GeForce GTX 280 - ForceWare 177.34

для видеокарт GeForce 8800 Ultra и GeForce 9800GTX - ForceWare 175.19

для видеокарты Radeon HD4850 - Catalyst 8.6

для видеокарты GeForce 9800GX2 - ForceWare 175.16. (выбор драйвера с младшей версией обусловлен возникшими проблемами в работе режима SLI у драйвера ForceWare 175.19.)

Тестирование производилось в трёх разрешениях: 1680x1050, 1920x1200 и 2048x1536.
При этом использовалось 4-кратное сглаживание и 16-кратная анизотропная фильтрация.
Ознакомление с полученными результатами мы начнём с тестов в игре Crysis.

http://www.3dnews.ru/_imgdata/img/2008/06/24/86730.png

Вот график Riva Tuner, который показывает количество использованной видеопамяти в игре Crysis, настроенной на высокое качество при разрешении 1920x1200:

http://www.3dnews.ru/_imgdata/img/2008/06/24/86754.jpg

А вот загрузка видеопамяти в режиме «Very High», который был включен в Windows XP при помощи ручного редактирования конфигурационных файлов игры:

http://www.3dnews.ru/_imgdata/img/2008/06/24/86755.jpg

Даже видеокарте GeForce 8800 Ultra едва хватает её 768 Мб видеопамяти. Что уж говорить о видеокартах GeForce 9800GX2 и GeForce 9800GTX с их 512 Мб видеопамяти, приходящимися на один GPU.

http://www.3dnews.ru/_imgdata/img/2008/06/24/86756.jpg

При увеличении разрешения до 2048x1536 перестаёт хватать и 768 Мб, на что видеокарта GeForce 9800GX2 отреагировала следующим образом:

http://www.3dnews.ru/_imgdata/img/2008/06/24/86760.jpg

Справедливости ради заметим, что видеокарту GeForce GTX 280 какие-либо проблемы обошли стороной, и она показала лучший результат. Но оно и неудивительно, ведь новинка оснащена целым гигабайтом видеопамяти, сообщающейся с графическим процессором по шине шириной 512 бит.

http://www.3dnews.ru/_imgdata/img/2008/06/24/86731.png

В игре Crysis в режиме Very High результаты немного снизились, но расстановка сил осталась прежней. Разумеется, вышеупомянутые проблемы у видеокарт GeForce 9800GX2 и GeForce 9800GTX, конечно же, никуда не исчезли.

http://www.3dnews.ru/_imgdata/img/2008/06/24/86732.png

После перехода к Windows Vista, ситуация с поведением некоторых видеокарт в игре Crysis еще более усугубилась. Так, по мере роста разрешения, видеокарта GeForce 9800GX2 сильно потеряла в скорости и даже не смогла пройти тест при разрешении 2048x1536. Виновником этому стал режим SLI, без которого, как вы можете видеть на примере видеокарты GeForce 9800GTX, ситуация немного лучше. Заслуживают внимания результаты видеокарты Radeon HD4850, которая при разрешении 2048x1536 смогла обойти даже GeForce 8800 Ultra. Правда, она же при разрешении 1920x1200 выдала чёрный экран, хотя игра компьютер не «завис» и бенчмарк продолжал проигрываться. Но это больше похоже на мелкую недоработку, нежели чем на серьёзную проблему системного характера. Ну и, конечно же, у GeForce GTX 280, не возникло никаких проблем.

http://www.3dnews.ru/_imgdata/img/2008/06/24/86733.png

При переходе в режим Very High отсеялось ещё несколько видеокарт: видеокарта GeForce 9800GX2 не прошла тест ни в одном из трёх разрешений. Видеокарта GeForce 9800GTX присоединилась к неудачливой коллеге на разрешении 1920x1200, а видеокарта Radeon HD4850 вновь показала черный экран при разрешении 1920x1200. В итоге получается, что без проблем поиграть в эту игру на таких настройках получиться лишь на видеокарте GeForce GTX 280, но даже она показывает меньшее быстродействие, чем необходимое для комфортной игры.

http://www.3dnews.ru/_imgdata/img/2008/06/24/86737.png

Мы добавили в тесты новейшую игру Race Driver: GRID. Игрушка красивая, и при этом не столь беспощадна к видеокартам, как игра Crysis. Лидером в этой игре становится видеокарта GeForce GTX 280, а за ней, вплоть до наивысшего разрешения, идёт видеокарта Radeon HD4850.Новинка от AMD успешно соперничает с видеокартой GeForce 8800 Ultra, зачастую даже опережая её. Плачевный результат показала видеокарта GeForce 9800GX2. Судя по её результатам, очень близким к таковым у GeForce 9800GTX, попросту не заработал режим SLI. Вот, пожалуйста, ещё одни плюс одночиповым решениям, которые не столь сильно зависят от оптимизации в драйверах. Кстати, наши попытки создать профиль для игры, а также принудительно включить режим SLI для всех трёхмерных приложений, не привели к успеху.

Выводы

Сегодня мы проверили на «устойчивость» к высоким разрешениям флагманы разных поколений. Несомненным лидером стала видеокарта GeForce GTX 280, что в не последнюю очередь стало возможным благодаря 1024 Мб видеопамяти, и шине шириной 512 бит. Очень неплохой результат показала видеокарта Radeon HD4850, которая, несмотря на 512 Мб видеопамяти и шину 256 бит, показала лучшие результаты, чем схожая по характеристикам GeForce 9800GTX. Причем видеокарта Radeon HD4850 часто на равных соперничала с GeForce 8800 Ultra, у которой 768 Мб видеопамяти и шина 384 бит! А вот GeForce 9800GX2 показала себя не с лучшей стороны, виновником чему стал используемый ею режим SLI для объединения двух чипов G92, на которых она основана. Вследствие этого её конкурентоспособность видеокарте GeForce GTX 280 находится под большим вопросом, особенно в новых играх, для которых SLI-профили в драйверах появляются не сразу. Удивительным оказалось то, что изначально позиционируемая как видеокарта среднего класса Radeon HD4850 выступает на уровне недавних флагманов 9800GTX и 9800GX2 и GeForce 8800 Ultra, и при этом даже в очень высоких разрешениях – вотчине «топовых» видеокарт, чувствует себя вполне уверенно.

Источник: 3dnews

0

20

XFX GeForce GTX 260

http://www.3dnews.ru/_imgdata/img/2008/07/01/87309.jpg

http://www.3dnews.ru/_imgdata/img/2008/07/01/87317.jpg

Выводы

Если хочется быструю графику, но тратиться на видеокарту GeForce GTX 280 вы считаете нецелесообразным, стоит обратить внимание на GeForce GTX 260. Даже без разгона видеокарта GeForce GTX 260 демонстрирует весьма высокие результаты и уступает лишь более дорогой GeForce GTX 280. Если же её разогнать, то разница становиться ещё меньше, делая покупку более выгодной. Протестированный нами экземпляр видеокарты GeForce GTX 260 был уже разогнан и, надо полагать, подобная практика по отношению к новым видеокартам 200-й серии будет применяться и другими производителями. Ведь разгон в данной ситуации весьма полезен, а разгонять вручную хочется далеко не всегда. Напоследок о ценах: по данным wwwprice.ru, цены на видеокарты GeForce GTX 260 на сегодняшний момент начинаются с отметки около 13000 рублей, а на GeForce GTX 280 - с 20000 рублей.

Подробно здесь

0