Видеокарта nvidia gtx


GeForce® GTX

Если ты геймер, то наверняка следишь за выходом новых игр и знаешь о таких мировых бестселлерах, как The Witcher III, Doom 4, Fallout 4, Assassin's Creed, Battlefield, Dark Souls III, GTA V, The Division и др. И, конечно же, мы также с нетерпением ждем выход новых игр во втором полугодии 2016 года! Игры становятся круче - высокое качество, реалистичность и насыщенность изображения, множество новых эффектов и интересные сюжеты. Ты должен все это увидеть!

ИГРЫ-БЕСТСЕЛЛЕРЫ2015- 2016 ГОДА РАЗРЕШЕНИЕ МОНИТОРА и НАСТРОЙКИ КАЧЕСТВА ИГРЫ
1920x1080 2560x1440 4K, VR
СРЕДНИЕ УЛЬТРА СРЕДНИЕ УЛЬТРА СРЕДНИЕ УЛЬТРА
Ведьмак 3: Кровь и Вино GTX 960 GTX 970 GTX 980 GTX 1060 GTX 1080 GTX 980 GTX 1060 GTX 1080
Doom 4 GTX 960 GTX 960 4Gb GTX 960 4Gb GTX 970 GTX 1080 -
GTA 5 GTX 950 GTX 960 GTX 960 GTX 970 GTX 970 GTX 1080
Fallout 4 GTX 960 4Gb GTX 1070 GTX 970 - - -
Rainbow Six: Siege GTX 950 GTX 960 GTX 960 GTX 970 GTX 980 GTX 1060 GTX 1080
Tom Clancy's The Division GTX 960 4Gb GTX 980 GTX 1060 GTX 970 GTX 1080 GTX 1080 -
Assassin’s Creed: Syndicate GTX 950 GTX 980 GTX 1060 GTX 970 - - -
Star Wars: Battlefront GTX 960 GTX 980 GTX 1060 GTX 970 GTX 1080 GTX 1080 -
Mirror's Edge Catalyst GTX 950 GTX 960 4Gb GTX 960 4Gb GTX 970 GTX 1080 -
Paragon GTX 960 GTX 960 4Gb GTX 970 GTX 980 GTX 1060 GTX 1080 -
Dark Souls III GTX 960 4Gb GTX 970 GTX 970 GTX 970 GTX 1080 -
Rise of the Tomb Raider GTX 960 4Gb GTX 970 GTX 970 GTX 1080 - -

Данная таблица составлена на основе результатов тестов производительности графических процессоров GEFORCE GTX в указанных играх и носит рекомендательный характер. Производительность графических процессоров GEFORCE GTX может увеличиваться после обновления драйверов. Для своевременного обновления драйверов используйте GEFORCE EXPERIENCE. Для игр в виртуальной реальности рекомендуется графический процессор с производительностью GEFORCE GTX 1060 или выше.

© Компания 2016 NVIDIA. Все права защищены. NVIDIA, логотип NVIDIA, GeForce, GTX, Battlebox и NVIDIA GameWorks являются товарными знаками и/или зарегистрированными товарными знаками компании NVIDIA в США и других странах. Названия игр являются товарными знаками и/или зарегистрированными товарными знаками соответствующих компаний.

www.nvidia.ru

Видеокарта GeForce 660 GTX: характеристики, обзор и отзывы

Превращение компьютера в полноценный игровой аппарат, который соответствует высоким требованиям к графике, начинается с видеокарты. Это основной компонент системы, отвечающий за качество отображения «картинки» и в целом за воссоздание игрового процесса. На данный момент рынок предлагает немало вариантов весьма достойных видеокарт, способных «тянуть» игры, реализуемые в современной 3D-графике. В этом ряду стоит и модель GeForce 660 GTX, в которой разработчики стремились использовать прежний потенциал сегмента видеокарт, а также внести ряд принципиально новых идей, улучшающих производительность компьютера по графической части. Данной моделью начинается новая линейка видеокарт, базирующихся на процессоре GK106. Данный фактор стал решающим для эксплуатационных показателей устройства, которые, впрочем, вызывают неоднозначные суждения среди владельцев карты.

Общие сведения о видеокарте

Эталонная модель GTX 660 от NVIDIA стала первым продуктом, выполненным на платформе Kepler серии GK106. Хотя производство аппарата выполняется по 28-нм техпроцессу, если сравнивать графический процессор с флагманским GPU GTX 650, то обнаружатся серьезные ограничения. Устройство проигрывает своему старшему собрату в том, что при разработке версии GTX 650 использовался один графический кластер и два отдела SMX. В итоге это обеспечивает работу 384 потоковых процессоров. Тем не менее в GeForce 660 GTX используется неплохой в плане производительности частотный потенциал – ресурс памяти обеспечивает работу на 1502 МГц. Также о производительности этой модели можно судить и по тепловому потенциалу в 64 Вт. Исходя из первого знакомства с характеристиками видеокарты, можно предположить, что она подходит скорее для нужд пользователя со средними запросами, но, не все так просто.

По сравнению с прежними поколениями и теми же представителями семейства GTX, модель получила ряд существенных изменений в плане обеспечения теплоотдачи, функционального взаимодействия между элементами, а также в самой конфигурации микросхем. Однако этих изменений оказалось недостаточно для того, чтобы поставить устройство на один уровень с передовыми версиями графических процессоров.

Технические характеристики

Перед тем как перейти к полному обзору технических данных видеокарты, следует отметить, что они могут серьезно отличаться в зависимости от производителя. Если прежде задумывалось, что базовая версия NVIDIA GeForce GTX 660 выступит основой для других изготовителей, то сегодня можно увидеть различия не только в дизайнерском исполнении графического процессора, но и в плане технических возможностей. Так или иначе, в своем первоначальном виде устройство располагает следующими данными:

  • GPU – платформа GK106.
  • Количество транзисторов – порядка 2,5 млрд.
  • Техпроцесс – 28 нм.
  • Частота памяти– 1,5 ГГц.
  • Тактовая частота – 1 ГГц.
  • Тип памяти – GDDR5.
  • Ширина шины – 192 бит.
  • Объем памяти – 2 Гб.
  • DirectX – представлен версией 11.
  • Растровые конвейеры– 24.
  • Текстурные блоки – 80.

Также стоит иметь в виду, что существует и более ранняя версия данного устройства – это модификация NVIDIA GeForce GTX 660 TI, которая отличается большим количеством текстурных блоков и потоковых процессоров, однако проигрывает в скорости пиксельного заполнения. Но, гораздо больше отличий все же относится к версиям карты, созданием которых занимались фирмы ZOTAC, ASUS и другие.

Особенности платформы

Практически все представители линейки GTX 600 разрабатывались на платформе топового процессора GK104. Среди них та же однопроцессорная карта NVIDIA GeForce GTX 660 TI, а также версия для OEM-производителей. Собственно, последние устройства на базе GK104 уже создавались с меньшим энтузиазмом. Более того, на них компания ставила отбракованные кристаллы, что отразилось на качестве вычислительных процессов.

Вместе с пересмотром линейки GTX 660 было решено закладывать основу для использования нового процессора – GK106. Таким образом, видеокарта GeForce GTX 660, предназначенная для розничных продаж, уже базировалась на платформе GK106. Чем же интересна новая схема процессора?

В первую очередь своей симметрией. В данной архитектуре один графический кластер содержит не два, а лишь один мультипроцессор. В результате наблюдаются значительные потери в объеме вычислительных блоков – во всяком случае, если сравнивать с GeForce GTX 660 TI и версией 650. При этом, как ни странно, разрядность памяти, параметры кэша и тактовая частота в обеих моделях примерно одинаковы.

Место в линейке GeForce

Компания NVIDIA позиционирует видеокарту в качестве замены моделей, которые на сегодняшний момент имеют успех у потребителя благодаря соотношению производительности и цены. Это, к слову, графические процессоры GTX 460 и 9800 GT, хорошо известные геймерам. При этом GeForce 660 GTX превзойдет версию 460 по производительности почти в 2 раза. Если же вести сравнение с 9800 GT, то можно заметить неплохую прибавку FPS – более чем в 4 раза. Кроме этого, свой вклад в оптимизацию графических процессов вносит и поддержка DirectX 11.

Повышение эксплуатационных характеристик на фоне GTX 560 не столь очевидно. Во многом это обусловлено тем, что карта 560 сама по себе получилась успешной, и еще долгое время будет радовать своих пользователей. Тем не менее по сухим техническим показателям GeForce GTX 660 2Gb превосходит ее на 10 Вт в потенциале теплоотвода. Кстати, в семействе AMD Radeon ближайший соперник модели по энергопотреблению со схожей производительностью – это серия HD 7850.

Версия от ZOTAC

Разработчики ZOTAC предлагают разогнанный вариант карты, а также версию, близкую к эталону автора. Впрочем, даже в основной спецификации модели производитель не удержался и наделил ее частотой в 993 МГц вместо стандартных 980 МГц. Кстати, внешне базовый вариант GeForce 660 GTX от ZOTAC напоминает видеокарту NVIDIA в версии TI. Правда, отличить ее не составит труда, если обратить внимание на открытую систему охлаждения, снабженную двумя вентиляторами.

Помимо этого, создатели обеспечили карту небольшой пластиной для теплоотвода от микросхем памяти. На задней стороне платы микросхемы обходятся без системы радиатора, а один из чипов закрыт пластинкой лишь наполовину. Есть разница и в подходе к устройству радиаторов для системы питания. Так, по сравнению с GeForce GTX 660 TI они размещаются не возле заглушки, а в самом конце платы. Это более привычное место для радиаторов, в конечном счете такая конфигурация расположения обеспечивает схожий эффект.

Модель от Palit

Ассортимент тайваньского производителя Palit включает две модификации графических карт, построенных на базе технологии NVIDIA. При этом разные вариации Palit GeForce GTX 660 имеют немного отличий. Основная версия стоит дешевле и выполнена в классическом дизайне. При этом системы охлаждения и печатная плата имеют много схожего с разогнанной модификацией. В остальном частоты и параметры рабочих режимов соответствуют рекомендациям компании NVIDIA для карт этой серии.

Для геймеров очевидно, что наибольший интерес представляет разогнанный вариант видеоускорителя Palit GeForce GTX 660 с приставкой «ОС». О том, есть ли смысл приобретать доработанную модель, можно судить по результатам работы инженеров компании. Так, если в стандарте частота видеоускорителя составляет 980 МГц и в формате работы «Буст» повышаться до 1033 МГц, то специалисты Palit обеспечили разгон ядра карты GeForce до 2600 МГц и 3900 МГц – соответственно, для базового и динамического режимов работы.

Версия от ASUS

В распоряжении ASUS четыре версии видеоускорителей, которые являются разработками на платформе GTX 660. Наиболее производительной оказалось версия ASUS GeForce GTX 660 с красноречивой приставкой «Game». В этой модификации была значительно повышена частота GPU и немного разогнана видеопамять. Знакомые с разработками данной фирмы пользователи обычно поступают следующим образом – приобретают начальную версию видеокарты, которая стоит дешевле и располагает рекомендованными от NVIDIA параметрами, а затем выполняют самостоятельный разгон.

Главный вопрос состоит в том, можно ли достичь значений, которые предлагаются в разогнанной версии ASUS GeForce GTX 660 без специальной помощи? Разумеется, определенный прорыв ручным способом будет достигнут, однако элементная база все же остается недоступной для пользовательской доработки, поэтому приблизиться к показателям «топовой» модификации данной карты от ASUS не получится.

Вопрос цены

Производители видеокарт уже не первый год делят сегмент на две основные категории. В первую входят высокопроизводительные геймерские аппараты, стоимость которых превышает 15 тыс. руб. Вторая категория, соответственно, включает всю остальную продукцию, но тоже имеет свои небольшие сегменты, в один из которых входит GeForce GTX 660. Цена этой карты варьируется от 8 до 12 тыс. Конкретная стоимость зависит от марки, выпустившей модель, характеристик, а также спецификации.

Положительные отзывы о видеокарте

Все благозвучные отзывы о данной видеокарте можно разделить на те, которые относятся к ее техническим характеристикам, и мнения относительно эстетических достоинств. Итак, в плане функциональности и производительности геймеры отмечают, что карта является довольно средней, но все-таки с учетом цены вполне себя оправдывает. Также есть немало положительных оценок относительно качества сборки GeForce GTX 660. Цена, конечно, не бюджетная, но за эти же 8-10 тыс. вполне можно нарваться на производительный, но при этом склонный к поломкам аппарат. GTX 660, в свою очередь, таких разочарований не доставит. Если же переходить к эстетическим и практическим нюансам эксплуатации карты, то многие пользователи хвалят ее бесшумность, компактность и отсутствие перегревов.

Негативные отзывы о видеокарте

Главным недостатком считается именно переход на новую платформу, из-за чего видеокарта потеряла в вычислительном потенциале. Это отражается на многих графических процессах, в том числе проявляется при сглаживании в играх. Не спасает ситуацию и память GeForce 660 GTX на 2G, хотя, как отмечают опытные игроманы, даже с такими данными некоторые модели демонстрируют куда большую производительность.

Интересно, что существуют противоречивые оценки относительно стоимости данной модели. На момент ее появления даже 8 тыс. казались неоправданно высокой платой за видеокарты с такими возможностями.

Заключение

Тенденция повышения производительности аппаратной начинки заставляет производителей наращивать мощности графических процессоров всеми доступными способами. Разработчики NVIDIA GeForce GTX 660 выбрали для решения этой задачи не самый удачный, но перспективный вариант. Они использовали новую архитектуру, что в итоге понизило эффективность работы устройства. В некотором смысле этот шаг можно назвать тестовым. Для тех, кто стал обладателей данной карты, конечно, такое положение вещей не утешительно. Пользователь получает вполне качественную, хорошо собранную и технически продуманную видеокарту от именитого бренда, но, к сожалению, с урезанной производительностью.

fb.ru

GeForce GTX 570 (видеокарта): описание, тестирование, отзывы

Легендарный представитель High-End рынка видеоадаптеров - GeForce GTX 570 от компании Nvidia - не зря удостоен высоких наград и всеобщего признания. Это единственный чип производителя, который в кругах геймеров получил звание «лучшая видеокарта десятилетия». Подробное описание, тестирование и отзывы владельцев раскроют читателю тайну, которая поможет ему в дальнейшем определиться с выбором видеоустройства для собственного игрового компьютера.

Странности на рынке видеоадаптеров

По задумке производителя, модификация GTX 570 должна была стать младшей моделью флагмана данной серии GeForce GTX 580, но, как говорится, что-то пошло не так. Если обратить внимание на отзывы ИТ-специалистов в области игровой индустрии, то сам производитель Nvidia сделал большую ошибку, построив облегчённый видеоадаптер на таком же ядре, которое используется для создания флагмана. Уменьшение тактовых частот, изменение конфигурации памяти и уменьшение ядер CUDA несопоставимы с той высокой производительностью и низкой стоимостью, которые получила новинка на компьютерном рынке.

В итоге компания Nvidia создала сама себе проблему, ведь большинству пользователей вовсе не интересны сравнения нового видеоадаптера GeForce GTX 570 с топовым устройством. Покупателю важна доступная цена, высокая производительность в играх и достойный потенциал разгона на будущее.

Технические характеристики чипсета

Так как новинка является младшей моделью известного флагмана GTX 580, то нетрудно догадаться, что графическое ядро у GTX 570 идентичное – GF 110. А значит, два видеоадаптера имеют между собой больше схожего, нежели отличий. Итак, для новинки GeForce GTX 570 характеристики выглядят так:

  • количество CUDA ядер - 480 штук (на 32 единицы меньше, чем у 580 модели);
  • соответственно, уменьшилось количество потоковых мультипроцессоров на одну единицу, и составляет 15 штук;
  • текстурных юнитов - 60 (против 64 у флагмана);
  • уменьшилась частота графического ядра до 732 МГц (с 772 МГц), но, как отмечают владельцы в своих отзывах, наверстать упущенную производительность можно обычным разгоном;
  • замечено снижение частоты памяти с 4000 МГц (1000 МГц на 4 потока), до 3800 МГц, но это тоже многими владельцами оценивается как маркетинговый ход производителя;
  • объём видеопамяти составляет 1280 Мб (вместо 1535 Мб у GeForce GTX 580) – был просто выпаян модуль памяти;
  • шина памяти стала пропускать 320 бит, вместо стандартных для флагмана 384 бит;
  • тепловыделение составляет 219 Ватт (у 580 модели этот показатель составляет 244 Вт).

Пугающий внешний вид

По заявлениям маркетологов компании Nvidia, видеоадаптеру суждено было стать неким проводником в «Матрицу» для любителей игр, однако внешний вид видеокарты был воспринят совсем иначе. Покупатели почему-то вспомнили страшное на вид устройство GTX 280, и в своих отзывах на просторах Интернета назвали видеокарту «мрачный склеп». Такое же странное оформление гаджета: полностью закрытая печатная плата пластиковым чёрным кожухом системы охлаждения, с разбавлением окраса тонкими зелёными полосами. В задней части видеокарты Nvidia GeForce GTX 570 расположился огромный турбовентилятор.

Естественно, как и следовало ожидать от видеоадаптера High-End класса, устройство при монтаже занимает два юнита и претендует на наличие свободного места на третьем юните, для качественного забора воздуха. Придраться к системе охлаждения не удастся, так как с поддержанием низкой температуры чипсета справляется она отлично.

Особенности системы охлаждения

Стоит отметить, что производительность видеокарт, имеющих графическое ядро GF 110, напрямую зависит от фирменной системы охлаждения. Так, производитель Nvidia внедрил новую технологию, которая заключается в том, что между печатной платой и пластиной радиатора создаётся герметичное пространство без воздуха – вакуум. Такое нововведение позволило более эффективно отводить тепло от нагревающихся элементов. Поэтому очень важно, чтобы на плате не было никаких механических дефектов, которые способны пропустить воздух.

Многие владельцы оригинального видеоадаптера от Nvidia успели заметить, что винты, прижимающие систему радиатора к плате, опломбированы. Сделано это по соображениям безопасности системы охлаждения. Единожды разорвав герметичное соединение в GeForce GTX 570, пользователю вряд ли удастся восстановить заводскую систему. Стоит отметить, что пыли в вакууме не бывает, и нечего туда лезть.

Также производитель снабдил своё устройство системой мониторинга напряжения. Ограничение установлено ровно на 12 В. Любой скачок системой питания будет выравниваться до допустимого напряжения, либо видеокарта попросту отключится. Сделано это для того, чтобы защитить устройство от неправильной работы некачественных блоков питания.

Старт дан

Первой видеокартой, поступившей на мировой рынок, была Gigabyte GeForce GTX 570. Производитель представил публике сразу два видеоадаптера. Первое устройство было больше нацелено на нижний сегмент High-End класса, ведь в приоритете у него была доступная всем пользователям цена. Никаких доработок производителем произведено не было, изменения коснулись лишь внешнего вида – мрачная раскраска Nvidia была заменена на очень привлекательную наклейку в виде огромного зелёного глаза посредине видеоадаптера. Также видоизменению поддался кулер. В результате внешний вид видеокарты явно смахивал на лицо Терминатора.

А вот второй экземпляр получил в своём названии SuperOverclock неспроста. Производитель Gigabyte разогнал графическое ядро до 845 МГц и поднял частоту работы вычислительных блоков до 1464 МГц. Естественно, система охлаждения претерпела значительные изменения. Был установлен фирменный кулер с тремя огромными вентиляторами. Также изготовитель видоизменил печатную плату:

  • установлены микросхемы памяти Hynix, способные работать на 1250 (5000) МГц. Как показывает тест видеокарты, потенциал у чипов значительно больше (до 1300 МГц без сбоев);
  • полностью переработана система питания, с заменой ёмкостей на твердотельные конденсаторы.

Производительность Gigabyte

Как отмечают владельцы в своих отзывах, производитель осуществил довольно интересный шаг к своим покупателям – при модернизации системы питания сделал вывод на две микросхемы памяти. Если докупить и установить два чипа по 128 Мб, то увеличится объём видеокарты Gigabyte с 1280 до 1536 Мб, а также и ширина шины до 320 бит. И как отмечают любители «поработать паяльником», схема рабочая, но требует умения и осторожности.

Второй особенностью после доработки стала возможность разгона с меньшим тепловыделением. Графическое ядро стабильно разгоняется до 920 МГц, при этом система охлаждения работает без каких-либо надрывов. Однако после доработки системы питания для запуска видеокарты нужно подавать питание через 8-контактный и 6-контактный разъёмы (у Nvidia было 6+6).

Продукт Nvidia GeForce GTX 570 от Gigabyte в комплектации имеет фирменную утилиту для разгона устройства, которая умеет обходить систему мониторинга температуры графического ядра, а это значит, что при перегреве никаких автоматических сбросов не будет, и пользователь может добиться грандиозных результатов в разгоне (на свой страх и риск).

Многоликий дракон

Обзавестись двумя видеокартами на одном чипсете поспешила и компания MSI. Производитель тоже решил занять недорогой сегмент и потягаться по производительности за лидерство с дорогими устройствами. Видеокарта MSI GeForce GTX 570 с доступной ценой представлена, как и недорогой вариант Gigabyte, со штатной системой охлаждения Nvidia. Угрюмая расцветка завода-изготовителя была заменена странной цветной наклейкой, поверх которой красуется огромная белая надпись с указанием производителя и модели чипа. Довольно странное решение всё-таки понравилось экономным пользователям.

А вот над вторым экземпляром видеокарты поработали изрядно, ведь фирменная система охлаждения MSI Twin Frozr III устанавливается только на достойные видеоадаптеры. Производитель снабдил печатную плату резервным BIOS, видимо, намекая экстремалам, что разгон можно производить без опаски сжечь устройство. Изменена система питания незначительно, но все силовые чипы всё-таки были вынесены на заднюю часть платы – при тестировании это сказалось на равномерном тепловыделении. Тест видеокарты показывает, что нагрев силовых компонентов не повышает температуру возле графического ядра.

В сухом остатке

Видеокарта GeForce GTX 570 компании MSI считается самой энергосберегающей среди конкурентов. Фирменное нововведение в виде контроллера, который при отсутствии нагрузки сбрасывает тактовые частоты графического ядра до 270 МГц, явно понравится экономным пользователям. Однако, судя по отзывам владельцев, это всё-таки не ноутбук, где нужно экономить заряд, поэтому многими пользователями такой ход расценивается негативно.

Заводской разгон производителем MSI довольно странный – 770 МГц по графическому ядру выглядит бедно. Однако в тестах графический адаптер показывает неплохую производительность на 920 МГц по ядру и 4500 МГц по памяти, правда, свыше этого значения система охлаждения видеокарты начинает издавать жуткий гул вентиляторов – явный перегрев. Как оказалось, вся проблема скрывается за чипами памяти Samsung, которые не предназначены для таких нагрузок. Специалисты утверждают, что для любителей разгона этот видеоадаптер не подойдёт, а вот для любителей игр в тишине, система охлаждения MSI Twin Frozr III создаст максимум удобств.

Покоритель сердец

Кто бы мог подумать, что тайваньский производитель товаров широкого потребления, компания ASUS, решится на такой шаг и сделает мегаинтересное предложение всем любителям производительных игр и любителям качественного разгона – оверлокерам! Во-первых, как и другие производители, ASUS представила рынку недорогое решение без каких-либо доработок с оригинальной системой охлаждения от Nvidia – это, видимо, новая традиция от всех поставщиков.

А вот вторая новинка явно заинтересует потенциального покупателя. Ведь видеокарта Asus GeForce GTX 570 DirectCU II претендует на 3 юнита в корпусе – такой себе трёхэтажный монстр. Один только внешний вид устройства вызывает уважение. В отзывах, размещённых в средствах массовой информации, владельцы отмечают, что продукт Nvidia был полностью видоизменён – это совершенно новая видеокарта на графическом ядре 570 GTX.

Компания ASUS представляет

В видеоадаптере GeForce GTX 570 технологами производителя ASUS была полностью заменена система питания:

  • установлены дроссели с ферритовыми сердечниками, а также твердотельные и танталовые конденсаторы;
  • переоборудовано питание платы для схемы фаз 7+1 (6-контактный и 8-контактный разъёмы);
  • установлен ШИМ-контроллер Super Hybrid Engine;
  • заменены чипы памяти новыми высокотехнологичными от компании Samsung, со временем доступа 0,4 наносекунд.

Такие значительные изменения прекрасно сказались на разгонном потенциале видеокарты: 950 МГц по графическому ядру и 5000 МГц по памяти принято считать весомым аргументом для всех будущих владельцев.

Не стоит сомневаться пользователю и в системе охлаждения, ведь производитель не ради красоты сделал её такой габаритной. Алюминиевая подложка устанавливается снизу печатной платы и притягивает к графическому ядру и чипам памяти массивный алюминиевый радиатор, который насквозь пронизан медными трубками, сводящимися к сердцевине площадки, контактной с графическим ядром. Сверху установлен алюминиевый кожух с двумя огромными вентиляторами. Конструкция очень тяжёлая, видимо, поэтому производитель сделал видеокарту для крепления в трёх слотах.

Любимец оверлокеров

Ни для кого не секрет, что большинство любителей разгона предпочитают продукты компании Zotac. Производитель традиционно для данного чипа выпустил две модификации своих устройств. Только, в отличие от конкурентов, поступил он весьма неожиданным образом. Недорогое решение Zotac GeForce GTX 570 поступило в продажу со штатным кулером изготовителя, который устанавливается на все устройства бюджетного класса. Видимо, в лабораториях Zotac посчитали, что турбовентилятор от Nvidia может заморозить видеокарту.

А вот модификация 570 GTX AMP всем своим внешним видом очень смахивает на оригинальный продукт. Тот же турбированный кулер в задней части платы и огромный защитный кожух поверх радиатора. Не обошлось и без изменения системы питания. Она была незначительно доработана, однако на внешнем виде, при сравнении с платой Nvidia, это не отразилось. Производитель произвёл заводской разгон: 780 МГц по ядру и 1000 МГц по памяти. В итоге, как отмечают владельцы в своих отзывах, ни о каком разгонном потенциале не может быть и речи. Довольно странный подход у лидера рынка Zotac к своим покупателям.

В погоне за бесшумностью

А вот устройство Inno3D iChill GeForce GTX 570, отзывы о котором во многом положительные, очень порадовал инновационной системой охлаждения. Она практически бесшумно работает, ведь за охлаждение графического ядра и чипов памяти отвечает водяное охлаждение. Стоит отметить, что производитель Inno3D известен покупателям по бюджетному классу: достойная производительность и низкая цена – это прерогатива компании. А тут - устройство High-End-класса, ещё и с водяным охлаждением!

Подкупает в первую очередь внешний вид и размеры видеокарты – устройство занимает всего один слот, да и установить видеоадаптер можно в любой системный блок, не боясь того, что корзина с жёсткими дисками будет заблокирована. Забавно, что производитель установил водопомпу на видеокарте, а водоблок с воздушным кулером вывел с помощью сообщающихся трубок на полметра наружу. На заводе Inno3D устройство разогнали по ядру до 780 МГц, однако, как отмечают пользователи, производительность графического ускорителя можно смело поднимать до 860 МГц. При этом в тестах, при сравнении с конкурентами, ни о каких замерах шума речи не может и быть. Отличный подход к покупателю.

Как сесть на два стула?

Небезызвестный бренд Gainward тоже порадовал своих поклонников двумя устройствами. Фирменная система охлаждения от известного производителя всегда имела высшие оценки при тестировании с конкурентами, поэтому конструкторы компании не стали доверять такой вопрос заводу Nvidia и создали два видеоадаптера с использованием собственных систем охлаждения.

Первый продукт - GeForce GTX 570 1280Mb - имеет стандартный кулер, который производителю свойственно устанавливать на все устройства топовых моделей. Большой алюминиевый радиатор, медные трубки и контактная площадка и два огромных вентилятора – удивить поклонников особо нечем, стандарт ведь. Фирменная утилита Expert Tool, поставляемая в комплекте, легко разгоняет графическое ядро до 850 МГц, показывая во всех тестах отличную стабильность и производительность.

Второй экземпляр GTX 570 Phantom нацелен на рынок бесшумных устройств. За это отвечают три небольших кулера, которые установлены между алюминиевыми радиаторами. Их задачей является лёгкий обдув пластин. По сути, это обычная пассивная система охлаждения, которая для надёжности имеет приток холодного воздуха в виде трёх кулеров. С разгоном полный порядок: 850 МГц - далеко не предел, а температура графического ядра зависит от правильной системы охлаждения в самом корпусе компьютера.

Лидер на рынке

Продукт Palit GeForce GTX 570 будет больше интересен обычным пользователям, ведь его уникальность в том, что производитель, установив мощную систему охлаждения, наделил видеокарту достойным заводским разгоном. Графическое ядро в штатном режиме работает на частоте 800 МГц. Разгон можно осуществить до 900 МГц, однако он зафиксируется в BIOS видеоплаты, и устройство потеряет гарантию производителя. Такой вот интересный шаг компании Palit.

Что касается системы охлаждения, то она позаимствована у видеокарты Gainward (известный факт - один завод презентует два бренда). Соответственно, с отведением тепла от чипов памяти и графического ядра у данного устройства полный порядок. Вот только вентиляторы на устройстве установлены довольно шумные, явно собственной разработки, поэтому при разгоне устройства владелец должен быть готов к громкому гулу в системном блоке.

Двойной тариф

Любое тестирование на производительность видеокарт не обходится без представителя компании EVGA. Стоит отметить, что производитель всегда старался обойти своих конкурентов внедрением таких технологий, которыми не могут похвастаться остальные. С видеокартой GTX 570 компании EVGA удалось произвести впечатление на своих поклонников. Для улучшения работы с графикой, видео и технологиями 3D устройство имеет на борту 2560 Мб памяти. Тут есть над чем подумать не любителям игр, а офисным сотрудникам и творческим личностям, которым приходится работать с видеоредакторами – вряд ли найдётся такой видеофильтр, который сможет занять 2,5 Гб видеопамяти.

Естественно, с разгонным потенциалом у новинки дела обстоят хуже. Производитель не стал изменять технические характеристики видеокарты, оставив штатные настройки Nvidia, но систему охлаждения всё-таки заменил. Как отмечают специалисты в своих отзывах, при разгоне графического ядра свыше 800 МГц ощущается значительный нагрев чипсета (85-90 градусов по Цельсию). Это свидетельствует о нерасположенности устройства к разгону.

В заключение

Стоит отметить, что по чипсету GeForce GTX 570 отзывы носят больше положительный характер, ведь для устройства в ценовой категории 400 у. е. показатели разгона довольно привлекательны. Многие владельцы отмечают, что графическое ядро GF 110 способно на многое, главное - обеспечить достойное охлаждение не только с помощью мощного кулера, а и внутри корпуса персонального компьютера.

Потенциальный покупатель найдёт на рынке нужное ему устройство, согласно требованиям. Нужно бесшумное устройство? Gainward Phantom или Inno3D iChill обеспечат тишину в комнате во время игр. Хороший потенциал к разгону – Gigabyte, ASUS или Palit. Даже для творчества найдётся видеокарта, благо в лабораториях EVGA об этом побеспокоились.

fb.ru

Новая видеокарта nVidia GeForce GTX 950

Компания nVidia выпустила новую видеокарту GeForce GTX 950, которая по заявлениям компании обеспечит высокий уровень производительности в современных играх при невысокой цене.

Компания nVidia заявляет, что новая видеокарта позволит играть в современные игры при разрешении 1920×1080 (Full HD) с частотой кадров 60 FPS и будет в 2 раза энергоэффективнее, чем видеокарты предыдущего поколения. Давайте разберемся на сколько это может соответствовать действительности.

На GTX 950 установлен видеопроцессор GM206, который имеет 768 шейдерных блоков. Такой же чип устанавливается на старшую модель GTX 960, но она имеет 1024 шейдерных блока. Это может говорить о том, что с помощью новой видеокарты GTX 950 компания nVidia решила реализовать выбракованные чипы или просто заработать, продавая «урезанные» видеокарты по чуть более низкой цене.

Видеокарты серии GTX 950 будут иметь 2 Гб памяти GDDR5 с шиной 128-бит, как и у старшей модели GTX 960. Это уже говорит о том, что она не справится с играми, требовательными к пропускной способности шины видеопамяти. Еще не известно будут ли модели с объемом памяти 4 Гб, которые требует игра GTA 5 даже при средних настройках графики. В серии GTX 960 такие модели есть.

Видеокарты серии GTX 950 будут иметь TDP около 90 Вт, что я бы не назвал таким уж энергоэффективным решением, так как видеокарты предыдущей серии GTX 750 имеют близкое TDP. Здесь nVidia явно слукавила, но в принципе это не критично и с такой видеокартой справится любой качественный блок питания мощностью от 400 Вт.

Видеокарты из новой серии уже представили компании Gigabyte и Palit. Они вот-вот появятся на российском рынке и их ориентировочная стоимость составляет 12500 рублей.

Теперь давайте поговорим о производительности в реальных играх. Учитывая, что видеокарты серии GTX 950 еще не появились в продаже, мы посмотрим на производительность старшей модели GTX 960, а затем прикинем чего ожидать от новой видеокарты, зная разницу в их характеристиках.

Тесты проводились в разрешении 1920х1080 на высоких настройках графики.

  • Процессор: Intel Core i7-3930K (@4,4 ГГц)
  • Память: 8 Гб (4+4 Гб, DDR3-2133 МГц)

Результаты тестов видеокарты GTX 960

Игра Минимальный FPS Средний FPS
Assassin’s Creed Unity 32 39
Battlefield 4 36 46
BioShock Infinite 50 72
Call of Duty Advanced Warfare 39 49
Crysis 3 31 37
Far Cry 4 38 48
GTA 5 30 57
Metro Last Light 45 53
Sleeping Dogs 25 43
Thief 2014 30 56
Tomb Raider 2013 24 44
Watch Dogs 25 40

Для комфортной игры нужно, чтобы минимальная частота кадров не опускалась ниже 30 FPS, а средняя не должна быть ниже 40 FPS. Как видим из таблицы, видеокарта GTX 960 тянет большинство протестированных игр на высоких настройках графики, а в некоторых играх качество графики придется установить на среднее.

Видеокарта GTX 950 по своим характеристикам находится между GTX 750 Ti и GTX 960.

Мы сделали сравнение мощности этих видеокарт по нашей методике, описанной в статье «Как выбрать видеокарту», и вот что получилось.

Из расчета видно, что видеокарта GTX 960 мощнее, чем GTX 950 на 32%. Для того, чтобы узнать примерную производительность новой видеокарты в играх, мы снизили FPS, полученный при тестах видеокарты GTX 960 на эти же 32%, что будет недалеко от действительности. И вот что у нас получилось.

Ориентировочная производительность видеокарты GTX 950

Игра Минимальный FPS Средний FPS
Assassin’s Creed Unity 22 27
Battlefield 4 24 31
BioShock Infinite 34 49
Call of Duty Advanced Warfare 27 33
Crysis 3 21 25
Far Cry 4 26 33
GTA 5 20 39
Metro Last Light 31 36
Sleeping Dogs 17 29
Thief 2014 20 38
Tomb Raider 2013 16 30
Watch Dogs 17 27

Можно сделать вывод, что видеокарта GTX 950 потянет требовательные игры только на средних настройках графики, а для некоторых придется установить низкие настройки графики. Обещанные компанией nVidia 60 FPS, удастся достичь в лучшем случае только на низких настройках графики. Учтите также, что тесты проводились с мощным процессором Core i7. С более слабыми процессорами (особенно AMD) результаты будут еще скромнее.

Но давайте вернемся еще раз к нашей сравнительной таблице.

Из нее видно, что видеокарта GTX 960 дороже новой GTX 950 всего на 2000 рублей, но при этом на 32% мощнее и тянет современные игры на высоких/средних настройках графики. Да, GTX 950 всё же мощнее предыдущей GTX 750 Ti на 31%, но при этом и существенно дороже (на 4000 рублей). Напрашивается вывод, что компания nVidia решила в очередной раз заработать на доверчивых пользователях.

Стоит также заметить, что видеокарта предыдущей серии GTX 760 имеет шину памяти 256 бит и даже чуть более мощный процессор, чем у GTX 960 с шиной всего 128 бит. При этом GTX 760 можно приобрести за 15500 рублей, что всего на 1250 рублей больше, чем самая дешевая GTX 960.

Это делает выбор в пользу более старой GTX 760 очевидным, что на наш взгляд выглядит плевком nVidia в сторону неопытных пользователей, которые верят заявлениям компании, что за меньшие деньги они смогут приобрести более мощную видеокарту.

C помощью нашей таблицы сравнения видеокарт вы сможете самостоятельно выбрать оптимальную модель по соотношению цена/производительность и не попасться на крючок ушлых компаний. Эту таблицу вы можете скачать на нашем сайте .

ironfriends.ru

Обзор новой топовой видеокарты ASUS GeForce GTX 280 c 1 ГБ видеопамяти - Официальный сайт компании Гаджет Дижитал Зон

В сегодняшней статье пойдет речь о самом современном и самом мощном в мире графическом чипе от компании NVIDIA под кодовым названием GT200 и о видеоадаптере, выполненным на его основе, GeForce GTX 280. Мы постараемся рассмотреть все наиболее интересные его особенности, новшества и отличия от предыдущих чипов, а также протестировать производительность в ранних условиях и сравнить с конкурентами.

Предыстория

Но не все сразу, давайте немного вернемся во времени и отследим историю развития графических чипов. Ни для кого не секрет, что вот уже много лет на рынке графических плат конкурируют две компании: ATI (в настоящем выкупленная AMD и имеющая брэнд AMD Radeon) и NVIDIA. Конечно, присутствуют и мелкие производители, такие как VIA со своими чипами S3 Chrome или Intel с интегрированными видеоадаптерами, но моду всегда диктовала именно конфронтация ATI (AMD) и NVIDIA. И что примечательно, чем сильнее была эта конфронтация или даже не побоимся этого слова «холодная война», тем сильней шагал вперед научно-технический прогресс, и тем большую выгоду получали конечные пользователи – то есть мы с вами. Ведь одним из механизмов борьбы за кошельки пользователей является техническое превосходство продуктов одного из производителей, а другим – ценовая политика и соотношение цена/возможности. Кстати, нередко второй механизм оказывается намного эффективней первого.

Когда одна сторона заметно превосходит конкурента в техническом плане, второму ничего не остается кроме как выдвинуть еще более прогрессивную технологию или же «играть ценами» на уже имеющиеся продукты. Наглядный пример «игры ценами» - конкуренция между Intel и AMD в области центральных процессоров. После анонса архитектуры Core 2, AMD не смогла противопоставить что-то более совершенное и поэтому, чтобы не терять долю рынка, вынуждена была снижать цены на свои процессоры.

Но есть и примеры другого характера. В свое время компания ATI выпустила очень удачную линейку продуктов семейства X1000, которая появилась очень вовремя и очень понравилась многим пользователям, причем, у многих до сих пор стоят видеокарты типа Radeon X1950. NVIDIA тогда не имела в своем распоряжении достойного ответа, и ATI удалось где-то на полугодие просто «выбить» NVIDIA из игры. Но надо отдать должное калифорнийским инженерам, спустя немного времени они выдали на-гора принципиально новое в технологическом плане решение – чип G80 с применением универсальных процессоров. Этот чип стал настоящим флагманом на долгое время, вернул калифорнийской компании пальму первенства и принес рядовым пользователям непревзойденную производительность в играх. Что произошло дальше? А дальше не произошло ничего – ATI (теперь уже под брэндом AMD) не смогла создать что-то более мощное. Ее чип R600 во многом потерпел поражение, заставив канадскую компанию постоянно снижать цены. Отсутствие конкуренции в категории производительных решений позволило NVIDIA расслабится – ведь противников то все равно нет.

Выход нового флагмана

Все интересующиеся 3D-графикой долго ждали настоящего обновления архитектуры G80. Разнообразных слухов о следующем поколении чипов хватало всегда, некоторые из них в дальнейшем подтвердились, но в 2007 году мы дождались лишь минорного архитектурного обновления в виде решений на основе чипов G92. Все выпущенные на их основе видеокарты - неплохие для своих секторов рынка, эти чипы позволили снизить стоимость мощных решений, сделав их менее требовательными к питанию и охлаждению, но энтузиасты ждали полноценного обновления. Тем временем AMD выпустила обновленные продукты на базе RV670, которые принесли ей некий успех.

Но развитие игровой индустрии, новые мощные игры типа Crysis, заставили обе компании разрабатывать новые графические чипы. Только цели у них были разные: у AMD главной целью была борьба за потерянную долю рынка, минимизация затрат на производство и предоставление производительных решений по умеренным ценам, а у NVIDIA была цель сохранить технологическое лидерство, продемонстрировать фантастическую производительность своих чипов.

Сегодня нам представится возможность подробно рассмотреть результаты работы одной из компаний – самый производительный, самый современный чип GT200 производства NVIDIA, представленный компанией 17 июня 2008 года.

 

Технические подробности

Архитектурно GT200 во многом перекликается с G8x/G9x, новый чип взял у них всё лучшее и был дополнен многочисленными улучшениями. И сейчас мы переходим к рассмотрению особенностей новых решений.

Графический ускоритель GeForce GTX 280

    кодовое имя чипа GT200; технология 65 нм; 1,4 миллиарда (!) транзисторов; унифицированная архитектура с массивом общих процессоров для потоковой обработки вершин и пикселей, а также других видов данных; аппаратная поддержка DirectX 10.0, в том числе шейдерной модели – Shader Model 4.0, генерации геометрии и записи промежуточных данных из шейдеров (stream output); 512-битная шина памяти, восемь независимых контроллеров шириной по 64 бита; частота ядра 602 МГц (GeForce GTX 280); ALU работают на более чем удвоенной частоте 1,296 ГГц (GeForce GTX 280); 240 скалярных ALU с плавающей точкой (целочисленные и плавающие форматы, поддержка FP 32-бит и 64-бит точности в рамках стандарта IEEE 754(R), выполнение двух операций MAD+MUL за такт); 80 блоков текстурной адресации и фильтрации (как и в G84/G86 и G92) с поддержкой FP16 и FP32 компонент в текстурах; возможность динамических ветвлений в пиксельных и вершинных шейдерах; 8 широких блоков ROP (32 пикселя) с поддержкой режимов антиалиасинга до 16 сэмплов на пиксель, в том числе при FP16 или FP32 формате буфера кадра. Каждый блок состоит из массива гибко конфигурируемых ALU и отвечает за генерацию и сравнение Z, MSAA, блендинг. Пиковая производительность всей подсистемы до 128 MSAA отсчетов (+ 128 Z) за такт, в режиме без цвета (Z only) – 256 отсчетов за такт; запись результатов до 8 буферов кадра одновременно (MRT); все интерфейсы (два RAMDAC, Dual DVI, HDMI, DisplayPort, HDTV) интегрированы на отдельный чип.

Спецификации референсной видеокарты NVIDIA GeForce GTX 280

    частота ядра 602 МГц; частота универсальных процессоров 1296 МГц; количество универсальных процессоров 240; количество текстурных блоков – 80, блоков блендинга — 32; эффективная частота памяти 2,2 ГГц (2*1100 МГц); тип памяти GDDR3; объем памяти 1024 МБ; пропускная способность памяти 141,7 ГБ/с; теоретическая максимальная скорость закраски 19,3 гигапикселей/с; теоретическая скорость выборки текстур до 48,2 гигатекселя/с; два DVI-I Dual Link разъема, поддерживается вывод в разрешениях до 2560х1600; двойной SLI разъем; шина PCI Express 2.0; TV-Out, HDTV-Out, DisplayPort (опционально); энергопотребление до 236 Вт; двухслотовое исполнение; изначальная рекомендуемая цена $649.

Отдельно отметим, что DirectX 10.1 семейством GeForce GTX 200 не поддерживается. Причиной назван тот факт, что при разработке чипов нового семейства, после консультаций с партнёрами, было принято решение сконцентрировать внимание не на поддержке DirectX 10.1, пока мало востребованного, а на улучшении архитектуры и производительности чипов.

В архитектуре GeForce GTX 280 произошло множество изменений в сравнении с видеокартами GeForce 8800 GTX и Ultra:

    В 1,88 раз увеличено число вычислительных ядер (со 128 до 240). В 2,5 раза увеличено число одновременно исполняемых потоков. Вдвое увеличена максимальная длина сложного шейдерного кода. Вдвое увеличена точность расчетов с плавающей запятой. Намного быстрее исполняются геометрические расчеты. Объем памяти увеличен до 1 Гб, а шина – с 384 до 512 бит. Увеличена скорость доступа к буферу памяти. Улучшены внутренние связи чипа между различными блоками. Улучшены оптимизации Z-cull и сжатие, что обеспечило меньшее падение производительности в высоких разрешениях. Поддержка 10-битной глубины цвета.

Приведём основную диаграмму чипа GT200:

 

Основные архитектурные особенности CUDA

С момента анонса архитектуры Core 2 и ее триумфального шествия, появилась мода среди разработчиков рекламировать кроме названий продуктов еще и названия архитектуры, по которой они выполнены. Не исключением стала и NVIDIA, активно рекламирующая свою архитектуру CUDA (Compute Unified Device Architecture) - вычислительная архитектура, нацеленная на решение сложных задач в потребительской, деловой и технической сферах - в любых приложениях, интенсивно оперирующих данными, с помощью графических процессоров NVIDIA. Преимуществом такого подхода является значительное превосходство, на порядок или даже два, графических чипов над современными центральными процессорами. Но, сразу же, всплывает недостаток – для этого надо разрабатывать специальное программное обеспечение. Кстати, NVIDIA проводит конкурс среди разработчиков ПО под архитектуру CUDA.

Видеочип GT200 разрабатывался с прицелом на его активное использование в вычислительных задачах при помощи технологии CUDA. В так называемом расчётном режиме, новый видеочип можно представить как программируемый мультипроцессор с 240 вычислительными ядрами, встроенной памятью, возможностью случайной записи и чтения и гигабайтом выделенной памяти с большой полосой пропускания. Как говорят в NVIDIA, в таком режиме GeForce GTX 280 превращает обычный ПК в маленький суперкомпьютер, обеспечивающий скорость почти в терафлоп, что полезно для многочисленных научных и прикладных задач.

Довольно большое количество наиболее требовательных задач могут быть перенесены с CPU на GPU при помощи CUDA, и при этом удастся получить заметный прирост производительности. На картинке показаны примеры применения CUDA в реальных задачах, приведены цифры, показывающие кратность прироста производительности GPU по сравнению с CPU.

 

Как видите, задачи самые разнообразные: перекодирование видеоданных, молекулярная динамика, астрофизические симуляции, финансовые симуляции, обработка изображений в медицине и т. п. Причём, приросты от переноса расчётов на видеочип получились порядка 20-140-кратных. Таким образом, новый видеочип поможет ускорить множество разных алгоритмов, если их перенести на CUDA.

Одним из бытовых применений расчётов на GPU можно считать перекодирование видеороликов из одного формата в другой, а также кодирование видеоданных в соответствующих приложениях по их редактированию. Компания Elemental выполнила задачу переноса кодирования на GPU в своём приложении RapidHD, получив следующие цифры:

 

Мощнейший GPU GeForce GTX 280 отлично показывает себя в этой задаче, прирост скорости по сравнению с быстрейшим центральным процессором составляет более 10 крат. Кодирование двухминутного видеоролика заняло 231 секунду на CPU и всего лишь 21 секунду на GT200. Важно, что применение GPU позволило добиться выполнения данной задачи не просто в реальном времени, но даже и ещё быстрее!

Впрочем, интенсивные вычисления с помощью современных графических видеокарт давно не новость, но именно с появлением графических процессоров семейства GeForce GTX 200 компания NVIDIA ожидает значительного повышения интереса к технологии CUDA.

С точки зрения технологии CUDA новый графический чип GeForce GTX 280 это ни что иное как мощный многоядерный (сотни ядер!) процессор для параллельных вычислений.

NVIDIA PhysX

Это, пожалуй, наиболее интересный аспект новых видеоадаптеров NVIDIA для обычных пользователей. Хотя он относится не только к новым решениям на основе GT200, но и ко всем видеокартам семейства GeForce 8 и GeForce 9.

В современных играх грамотно реализованные физические взаимодействия играют важную роль, они делают игры более интересными. Почти все физические расчёты требовательны к производительности, и соответствующие алгоритмы требуют больших объемов вычислений. До определённого времени эти расчёты выполнялись только на центральных процессорах, потом появились физические ускорители компании Ageia, которые хоть и не получили широкого распространения, но заметно оживили активность на этом рынке. Приобрести такие ускорители могли лишь единицы игроков-энтузиастов.

Но все изменилось, когда компания NVIDIA купила Ageia и вместе с этим получила всю необходимую информацию о PhysX. Именно информацию, так как сами аппаратные устройства ее не интересовали. Надо отдать должное NVIDIA – она взяла правильный курс и приспособила физический движок PhysX под свою архитектуру CUDA и теперь каждый владелец видеокарты с такой архитектурой получает аппаратное ускорение физических процессов в играх путем простого обновления драйверов.

При работе с мощным видеочипом, PhysX может предложить много новых эффектов, таких как: динамические эффекты дыма и пыли, симуляция тканей, симуляция жидкостей и газов, погодные эффекты и т. п. По заявлениям самой NVIDIA, новые видеокарты GeForce GTX 280 способны работать в 10 и более раз быстрей, чем 4-х ядерные процессоры при работе с PhysX. В настоящее время поддержка PhysX реализована в более чем 150 играх.

Улучшенная технология управления питанием

Новый видеочип использует улучшенное управление питанием, по сравнению с предыдущим поколением чипов NVIDIA. Он динамически изменяет частоты и напряжения блоков GPU, основываясь на величине их загрузки, и способен частично отключать некоторые из блоков. В итоге, GT200 значительно снижает энергопотребление в моменты простоя, потребляя около 25 ватт, что очень мало для GPU такого уровня. Решение поддерживает четыре режима работы:

    режим простоя или 2D (около 25 ватт); режим просмотра HD/DVD видео (около 35 ватт); полноценный 3D режим (до 236 ватт); режим HybridPower (около 0 ватт);

Для определения загрузки, в GT200 используются специальные блоки, анализирующие потоки данных внутри GPU. На основе данных от них, драйвер динамически устанавливает подходящий режим производительности, выбирает частоту и напряжение. Это оптимизирует потребление электроэнергии и тепловыделение от карты.

С новшествами и особенностями мы ознакомились – в этом плане NVIDIA добилась поставленной цели, представив совершенно новый графический чип. Но осталась и вторая цель – доказать превосходство в плане производительности. Для этого мы рассмотрим чип GT200 уже воплощенный в виде готовой видеокарты, проведем ее тестирование и сравним всю заложенную в нее мощь с флагманами предыдущего поколения и решениями конкурентов.

Видеокарта ASUS ENGTX280/HTDP/1G на NVIDIA GeForce GTX 280

 

Подогрев интерес к графическому ускорителю, перейдём непосредственно к его обзору, тестированию, сравнению и, естественно, к разгону. Но для начала еще раз спецификация, теперь уже готового серийного ускорителя.

Производитель

ASUS

Название

ENGTX280/HTDP/1G/A

Графическое ядро

NVIDIA GeForce GTX 280 (G200-300-A2)

Конвейера

240 унифицированных потоковых

Поддерживаемые API

DirectX 10.0 (Shader Model 4.0) OpenGL 2.1

Частота ядра (шейдерного домена), МГц

602 (1296)

Объем (тип) памяти, МБ

1024 (GDDR3)

Частота (эффективная) памяти, МГц

1107 (2214)

Шина памяти

512-разрядная

Стандарт шины

PCI Express 2.0 x16

Максимальное разрешение

До 2560 x 1600 в режиме Dual-Link DVI До 2048 х 1536 при 85 Гц по аналоговому VGA

До 1080i через HDTV-Out

Выходы

2x DVI-I (2x VGA через переходники) TV-Out (HDTV, S-Video и Composite)

Поддержка HDCP Декодирование HD-видео

Есть H.264, VC-1, MPEG2 и WMV9

Сайт производителя

Http://www. asus. com/

Поставляется видеокарта в достаточно габаритной двойной картонной коробке. Но, в отличие от упаковки предыдущих топовых ускорителей, эта чуть меньше по размерам и лишена пластиковой ручки, видимо ASUS начала экономить картон.

 

Но одна из боковых сторон упаковки все же раскрывается в виде книжки, рассказывая покупателю об экстремальных возможностях графического ускорителя и фирменных технологий.

 

На обратной стороне упаковки, кроме перечисления общих возможностей видеокарты и фирменного программного обеспечения, заботливо указана информация о минимальных требованиях к система, в которую будет установлена ASUS ENGTX280/HTDP/1G/A. Наиболее интересной и критичной частью является рекомендация использовать минимум 550 Вт блок питания, который способен выдать до 40 А по линии 12V. Также БП должен обеспечить необходимое число выходов питания, к которым и будут подключаться переходники питания.

 

Рядом указана и верная схема подачи питания на видеокарту. Обращаем внимания, что для 8-контактного разъема используется переходник с двух 6-контактных PCI Express, а не с пары периферийных, как это можно было увидеть ранее при установке ускорителей AMD/ATI. Учитывая энергопотребление GeForce GTX 280, к питанию придется подойти более тщательно.

Внутри красочной и информативной обложки, т. е. внешней коробки, находится полностью черная внутренняя, которая в свою очередь поделена на еще несколько отдельных боксов и ниш, вмещающих всю комплектацию.

 

Комплект поставки является более чем достаточным для полноценного использования ускорителя и помимо самого видеоадаптера включает в себя: - два диска с драйверами, утилитами и электронной версией руководства пользователя; - бумажное руководство по быстрой установке видеокарты; - фирменный «кожаный» коврик для мыши;

- фирменную папку для дисков;

 

- переходник с 2-x Molex (питания периферийных устройств) на 6-pin питание PCI-Express; - переходник с 2-х 6-контактных PCI Express на 8-контактный разъем питания; - удлинитель 8-контактного разъема питания; - переходник с 8-контактного разъема на 6-контактный PCI Express; - переходник c S-Video TV-Out на покомпонентный HDTV-Out;

- переходник с DVI на VGA.

 

Видеокарта на GeForce GTX 280 имеет такие же габариты, как ускорители на NVIDIA GeForce 9800 GX2, а с NVIDIA GeForce 9800 GTX она даже сходна внешне, при взгляде на фронтальную часть, которая полностью скрыта под «примелькавшейся» системой охлаждения. В общем, разработкой всех этих ускорителей и их кулеров занимались примерно одни и те же инженеры, поэтому внешнее сходство не удивительно.

Сразу же отметим, что совершенно не важно кто является конечным продавцом ускорителя, выпуском топовых видеокарт занимается непосредственно сама NVIDIA на производственных мощностях партнеров. Конечные реализаторы занимаются только упаковкой готовых ускорителей и вправе рассчитывать только на возможность прошить свой фирменный BIOS, немного разогнать видеокарту или заменить кулер на альтернативный.

 

Обратная сторона видеокарты теперь скрыта за металлической пластиной, которая, как выяснилось в процессе разборки, играет роль радиатора для чипов памяти, располагающихся теперь с обеих сторон печатной платы.

 

Сверху видеокарты, почти у самого края, находятся разъемы подключения дополнительного питания. Имея энергопотребление до 236 Вт, ускорителю необходимо надежное питания, которое обеспечивается одним 6-контактным разъемом PCI Express и одним 8-контактным, как и на двухчиповом GeForce 9800 GX2.

 

Рядом с разъемами питания под резиновой заглушкой спрятан цифровой аудиовход SPDIF, который должен обеспечить микширование аудиопотока с видеоданными при использовании выхода HDMI.

 

С другой стороны тоже под заглушкой находится двойной разъем SLI, что обеспечивает поддержку 3-Way SLI и позволяет собрать компьютер с невероятно производительной видеосистемой.

 

За вывод изображения отвечают два DVI, которые с помощью переходников могут быть преобразованы в VGA или HDMI, а также TV-Out с поддержкой HDTV. Рядом с разъемом телевизионного выхода, возле отверстий вывода нагретого воздуха, расположен индикатор питания видеокарты, отображающий его статус в данный момент.

 

Под системой охлаждения находится печатная плата, которая во многом напоминает предыдущие топовые решения на G80 (например GeForce 8800 Ultra), только теперь, вследствие доведения объема видеопамяти до 1 ГБ, чипы располагаются с обеих сторон печатной платы и не так плотно. Плюс усилена система питания, чтобы обеспечить работу столь мощного ускорителя.

 

Основным потребителем электроэнергии является чип NVIDIA G200-300 второй ревизии, который и именуют GeForce GTX 280. Именно он содержит 240 унифицированных потоковых процессоров, которые работают на тактовой частоте 1296 МГц при работе остального ядра на частоте 602 МГц. Обмен данными с видеопамятью производится по 512-битной шине. Этот графический процессор способен обеспечить невероятную производительность при обработке графических данных, но узлы работы с внешними интерфейсами в него не поместились.

 

За все входы и выходы отвечает отдельный чип NVIO2, причем расположение его «вдали» от основного процессора позволяет говорить об отсутствии различных наводок и помех, что должно обеспечить отличное изображение даже на аналоговых мониторах.

 

В качестве микросхем памяти используется продукция Hynix. Микросхемы H5RS5223CFR-N2C при рабочем напряжении 2,05 В имеют время отклика 0,8 мс, т. е. обеспечивают работу видеопамяти на эффективной частоте до 2200 МГц. На этой же тактовой частоте микросхемы памяти и функционируют.

 

Отдельно расскажем о кулере. Система охлаждения имеет привычную для NVIDIA конструкцию и занимает соседний с видеокартой слот расширения, обеспечивая отвод нагретого воздуха за пределы корпуса.

 

Интересно отметить, что за отвод тепла отвечают не только алюминиевые пластины радиатора, но и весь корпус кулера, что хорошо видно по соединению тепловых трубок с ним. Поэтому проветривание видеокарты любым удобным способом может обеспечить заметное улучшение ее температурного режима. А мыслей об улучшении охлаждения мало кому из владельцев этого «горячего монстра» удастся избежать. Уже непродолжительная серьезная нагрузка на видеокарту заставляет турбину раскручиваться до максимальных 1500 об/мин, что заметно нарушает акустический комфорт. Но даже это не избавляет ускоритель от значительного нагрева.

 

В закрытом хорошо вентилируемом корпусе температура графического процессора перевалила за отметку 100°C, а воздух, выдуваемый системой охлаждения, навел на мысль, что зря NVIDIA представила этот графический процессор к лету – надо было к зиме, чтобы пользователь, купивший очень дорогой ускоритель, мог экономить на отоплении.

 

Чтобы видеокарта не перегрелась, пришлось открыть корпус и направить в его сторону бытовой вентилятор – это обеспечило снижение на 14 градусов температуры GPU и на 9 градусов всей видеокарты. Именно в таком положении производились все тесты и последующий разгон. Но при открытом корпусе штатный кулер показался еще немного громче.

 

А вот при отсутствии 3D нагрузки температура видеокарты значительно снижается, что достигается еще и дополнительным снижением рабочих частот и уменьшением напряжения – в режиме 2D видеокарта потребляет на 200 Вт меньше. Этот же факт позволяет медленнее вращаться и турбине кулера, что делает его практически беззвучным.

Тестирование

При тестировании использовался следующий Стенд для тестирования Видеокарт:

    Процессор Intel Core 2 Duo E6300 (LGA775, 1,86 ГГц, L2 2 Мб) @2,8 ГГц Материнская плата (PCI Express) GIGABYTE GA-965P-DS4 на Intel P965 Express (LGA 775, DDR2, ATX) Кулер Thermaltake Sonic Tower (CL-P0071) + akasa AK-183-L2B 120 мм Оперативная память 2 х DDR2-800 1024 Мб Apacer PC6400 Жесткий диск Samsung HD080HJ, 80 Гб, SATA-300 Блок питания Chieftec CFT-500-A12S 500W, 120 мм вентилятор Корпус CODEGEN M603 MidiTower, 2х 120 мм вентилятора на вдув/выдув

 

Среди одночиповых ускорителей решение на NVIDIA GeForce GTX 280, несомненно, занимает лидирующее положение, но вот у двухчиповых ускорителей и multi-GPU конфигураций из карт предыдущего поколения ASUS ENGTX280/HTDP/1G/A выигрывает не всегда, особенно в условиях использования не самого производительного процессора.

2-ядерный процессор против 4-ядерного

А что даст использование более производительного процессора, например четырехъядерного? Именно такие процессоры сейчас часто советуют владельцам высокопроизводительных видеокарт.

 

Для того чтобы проверить на сколько четырехъядерный процессор окажется предпочтительнее, мы заменили Intel Core 2 Duo E6300 @2800 на Intel Core 2 Quad Q9450 @2800.

Тестовый пакет

Intel Core 2 Duo E6300 @2800

Intel Core 2 Quad Q9450 @2800

Прирост производительности, %

Futuremark 3DMark'05

16778

17798

6,08

Futuremark 3DMark'06

3DMark Score

11925

14721

23,45

SM2.0 Score

5243

5827

11,14

HDR/SM3.0 Score

6378

6879

7,86

Serious Sam 2, Maximum Quality, AA4x/AF16x, fps

1024x768

134,8

177,8

31,90

1280x1024

133,6

173,1

29,57

1600x1200

131,6

165,6

25,84

Call Of Juarez, Maximum Quality, NO AA/AF, fps

1024x768

110,90

122,34

10,32

1280x1024

97,88

103,28

5,52

1600x1200

83,72

87,30

4,28

Call Of Juarez, Maximum Quality, AA4x/AF16x, fps

1024x768

93,80

100,41

7,05

1280x1024

77,95

84,21

8,03

1600x1200

64,98

66,75

2,72

Prey, Maximum Quality, AA4x/AF16x, fps

1024x768

179,4

225,9

25,92

1280x1024

174,3

213,2

22,32

1600x1200

162,9

188,4

15,65

Crysis, Maximum Quality, NO AA/AF, fps

1024x768

51,32

56,28

9,66

1280x1024

46,76

50,42

7,83

1600x1200

38,94

39,56

1,59

Crysis, Maximum Quality, AA4x/AF16x, fps

1024x768

46,03

50,92

10,62

1280x1024

40,00

44,05

10,13

1600x1200

31,30

31,66

1,15

Как видите, прирост производительности на четырехъядерном процессоре действительно есть, и порою немалый, но именно в высоких разрешениях, для работы в которых и покупают дорогие видеокарты, ускорение наименьшее.

Intel Core 2 Quad против AMD Phenom X4

Еще одной часто озвучиваемой рекомендацией относительно комплектации производительной игровой системы является предпочтение процессорам Intel, как более быстрым. Что ж, попробуем проверить на практике, насколько игровая система на базе процессора AMD Phenom X4 окажется медленнее, если такой факт будет иметь место.

 

Для «забега» в равных условиях мы разогнали процессор AMD Phenom X4 9850 Black Edition до частоты 2,8 ГГц, что достаточно легко делается только изменением множителя, и провели серию тестов на новой платформе ASUS M3A32-MVP DELUXE/WIFI-AP. При этом оперативная память работала в режиме DDR2-800 с такими же таймингами, как и на системе с процессором Intel Core 2 Quad Q9450.

Тестовый пакет

AMD Phenom X4 9850 @2800

Intel Core 2 Quad Q9450 @2800

Разность производительности, %

Futuremark 3DMark'05

17194

17798

3,51

Futuremark 3DMark'06

3DMark Score

13695

14721

7,49

SM2.0 Score

5413

5827

7,65

HDR/SM3.0 Score

6488

6879

6,03

Serious Sam 2, Maximum Quality, AA4x/AF16x, fps

1280x1024

135,4

173,1

27,84

1600x1200

133,3

165,6

24,23

2048x1536

125,1

140,7

12,47

Call Of Juarez, Maximum Quality, NO AA/AF, fps

1280x1024

92,83

103,28

11,26

1600x1200

79,81

87,30

9,38

2048x1536

62,12

65,77

5,88

Call Of Juarez, Maximum Quality, AA4x/AF16x, fps

1280x1024

76,16

84,21

10,57

1600x1200

62,94

66,75

6,05

2048x1536

46,86

49,92

6,53

Prey, Maximum Quality, AA4x/AF16x, fps

1280x1024

182,8

213,2

16,63

1600x1200

170,1

188,4

10,76

2048x1536

138,1

141,4

2,39

Crysis, Maximum Quality, NO AA/AF, fps

1280x1024

44,49

50,42

13,33

1600x1200

38,17

39,56

3,64

2048x1536

27,39

27,93

1,97

Crysis, Maximum Quality, AA4x/AF16x, fps

1280x1024

39,35

44,05

11,94

1600x1200

30,90

31,66

2,46

2048x1536

22,06

22,46

1,81

Итак, при работе на одинаковых тактовых частотах действительно система с процессором Intel Core 2 Quad оказывается немного быстрее аналогичной с процессором AMD Phenom X4. При этом, чем выше разрешение и больше требований к качеству изображения, тем меньше превосходство процессоров Intel. Конечно, используя самую дорогую и производительную видеокарту, маловероятно, что покупатель будет экономить на процессоре и материнской плате, но в других условиях мы бы не рекомендовали «однозначно Intel Core 2 Quad», а предложили бы хорошенько взвесить варианты систем с процессорами от AMD и Intel.

Разгон

Для разгона видеокарты мы использовали утилиту RivaTuner, при этом, как было отмечено выше, корпус был открыт, а дополнительный приток свежего воздуха к видеокарте обеспечивался бытовым вентилятором.

 

Частота растрового домена в результате разгона поднялась до отметки в 670 МГц, что на 70 МГц (+11,67%) выше значения по умолчанию. Разгон шейдерного домена оказался чуть лучше и частотные показатели, в отличие от значений по умолчанию, возросли на 162 МГц (+12,5%). А вот разгон памяти превзошёл все ожидания. Стабильная работа была отмечена на эффективной частоте почти 2650 МГц, что на 430 МГц (+19,5%) выше номинальной. Отмечаем отменный разгонный потенциал тестируемого ускорителя, особенно видеопамяти.

Теперь посмотрим, как разгон одиночной видеокарты сказывается на производительности:

Тестовый пакет

Стандартные частоты

Разогнанная видеокарта

Прирост производительности, %

Futuremark 3DMark'05

16778

17061

1,69

Futuremark 3DMark'06

3DMark Score

11925

12158

1,95

SM2.0 Score

5243

5265

0,42

HDR/SM3.0 Score

6378

6669

4,56

Serious Sam 2, Maximum Quality, AA4x/AF16x, fps

1024x768

134,8

135,2

0,30

1280x1024

133,6

135,4

1,35

1600x1200

131,6

133,2

1,22

Call Of Juarez, Maximum Quality, AA4x/AF16x, fps

1024x768

93,80

104,42

11,32

1280x1024

77,95

85,38

9,53

1600x1200

64,98

71,64

10,25

Prey, Maximum Quality, AA4x/AF16x, fps

1024x768

179,4

180,1

0,39

1280x1024

174,3

178,6

2,47

1600x1200

162,9

169,6

4,11

Crysis, Maximum Quality, AA4x/AF16x, fps

1024x768

46,03

49,34

7,19

1280x1024

40,00

43,82

9,55

1600x1200

31,30

34,98

11,76

Только в наиболее тяжелых видеорежимах можно будет увидеть прирост производительности от разгона. Такой результат был достаточно предсказуем. При этом, вполне резонно будет заметить, что ограничивающим фактором почти во всех тестах стал процессор. Но настоятельно рекомендовать владельцам ускорителей на NVIDIA GeForce GTX 280 только самые быстрые процессоры мы не будем, т. к. даже с двухъядерным процессором, который работает на частоте 2,8 ГГц, а может и меньше, можно будет совершенно комфортно играть в практически любые игры на самых максимальных настройках в высоких разрешениях. В таких условиях можно будет увидеть даже прирост от разгона. Но, конечно же, при возможности, на процессоре экономить не стоит, раз не экономили на видеокарте и блоке питания.

Выводы

Вынуждены признать, что все видеокарты на основе GeForce GTX 280 сегодня являются самыми производительными одночиповыми графическими ускорителями, которые способны обеспечить достаточную производительность в любой современной игре. Но, с другой стороны, это и самые дорогие современные видеокарты и самые требовательные к энергообеспечению и, в общем-то, самые «прожорливые» и горячие. То есть GeForce GTX 280 получился во всех отношениях самый-самый, и в плохих и хороших.

Мы говорим обобщенно об ускорителях на GeForce GTX 280, хотя героем обзора является ASUS ENGTX280/HTDP/1G/A, поскольку  большинство из них являются точно такими же референсными образцами, отличающимися друг от друга только наклейками, комплектацией и упаковкой. Поэтому выбирая GeForce GTX 280 от ASUS, покупатель получает расширенную комплектацию с парой фирменных бонусов и широкую сеть сервисных центров, а в остальном превосходства над предложениями конкурентов нет.

Достоинства: - очень высокая производительность в игровых приложениях; - поддержка DirectX 10.0 (Shader Model 4.0) и OpenGL 2.1; - поддержка технологий NVIDIA CUDA и NVIDIA PhysX; - поддержка технологии 3-Way SLI;

- хороший разгонный потенциал.

Недостатки: - система охлаждения занимает 2 слота, не отличается высокой эффективностью и комфортной тишиной работы;

- довольно высокая стоимость графического ускорителя.

По материалам www. easycom. com. ua

gdznet.com

GeForce GTX 960M

Не так давно мы рассматривали первую в 2015-м году видеокарту для ноутбуков от NVIDIA – GeForce GTX 965M. И вот 13 февраля этого же года калифорнийская компания представила очередную «младшую» модель GeForce GTX 960M.

Данный видеоадаптер относится к игровым видеокартам начального класса. Графическое ядро GM107, лежащее в его основании, создано на архитектуре Maxwell первого поколения. При более подробном знакомстве с характеристиками новинки сразу бросается в глаза почти полная её схожесть с мобильной видеокартой прошлой серии GeForce GTX 860M. Фактически GeForce GTX 960M от предшественницы отличает лишь немного повышенная тактовая частота процессора. В остальном всё идентично – то же ядро, такое же количество ядер CUDA, такая же шина памяти и т.д.

В практическом использовании при сравнении с предшественницей GTX 860M мы видим прирост производительности примерно на 10 процентов за счет повышения тактовой частоты. Если же попытаться сравнить мобильную новинку с десктопными моделями, то её производительность будет близка к GTX 750 Ti.

Что касается запуска требовательных игр, то нужно понимать, что данная видеокарта не претендует на качественное воспроизведение графики при максимальных настройках. Однако на средних и иногда высоких настройках при разрешении FullHD поиграть получится вполне комфортно. Более подробно смотрите игровые тесты ниже.

Модель GeForce GTX 960M производителем сертифицирована для операционных систем не ниже Windows 7. Видеокарта поддерживает все ключевые технологии от NVIDIA, такие как Optimus, Battery Boost, GPU Boost 2.0, GeForce ShadowPlay, GameWorks, GameStream-Ready и SLI. Также имеется поддержка Microsoft DirectX 12.

Технические характеристики (могут быть изменены производителем)

Серия GeForce 900M
Архитектура Maxwell 1.0
Количество шейдеров 640
Тактовая частота 1096 МГц + boost
Частота памяти 2500 MГц
Тип памяти GDDR5
Разрядность шины памяти 128 бит
Максимум видеопамяти 4096 Мб
Дата выхода 13 февраля 2015 года
Скачать драйвер для Windows 64 бит / 32 бит

Тестирование GeForce GTX 960M в играх* (среднее количество FPS)

Игры/Настройки Ультра 1920х1080 px Высокие 1920х1080 px Средние 1366х768 px Низкие 1024х768 px
Battlefield 1 33 fps 38 fps 85 fps 119 fps
Watch Dogs 2 16 fps 24 fps 53 fps 66 fps
FIFA 17 96 fps 112 fps 171 fps 193 fps
Call of Duty: Infinite Warfare 32 fps 41 fps 70 fps 78 fps
DOOM 2016 28 fps 35 fps 60 fps 73 fps
 FarCry Primal 21 fps 31 fps 42 fps 68 fps
 The Division 19 fps 26 fps 51 fps 70 fps
Call of Duty:  Black Ops 3 28 fps 36 fps 76 fps 116 fps
Fallout 4 24 fps 32 fps 58 fps 107 fps
The Witcher 3: Wild Hunt 13 fps 24 fps 53 fps 79 fps
  GTA 5 19 fps 42 fps 98 fps 127 fps
Battlefield Hardline 32 fps 48 fps 104 fps 150 fps
  Battlefield 4 32 fps 50 fps 110 fps 139 fps
  Far Cry 4 29 fps 37 fps 73 fps 85 fps
Assassin's Creed Unity 10 fps 27 fps 38 fps 53 fps
  Evolve 30 fps 36 fps 56 fps 89 fps
  Watch Dogs 16 fps 30 fps 53 fps 65 fps
  Thief 2014 26 fps 39 fps 65 fps 78 fps
Metro: Last Light 30 fps 44 fps 89 fps 99 fps
Tomb Raider 2013 49 fps 90 fps 175 fps 290 fps
  Crysis 3 19 fps 32 fps 82 fps 115 fps

*В зависимости от модели и конфигурации ноутбука результаты тестов могут отличаться.

  • Смотрите также обзор GeForce GTX 1060(M)

gtx-force.ru

Обзор и тестирование видеокарты NVIDIA GeForce GTX 1070: в погоне за лидером

Неимоверный ажиотаж вокруг появления первой видеокарты GeForce GTX 1080 на новом графическом процессоре GP104 16-нм архитектуры Pascal компании NVIDIA ещё не успел стихнуть, а нынешний лидер 3D-графики уже выпускает следующую модель видеокарты – GeForce GTX 1070. 

Она основана на том же чипе GP104, правда в несколько урезанном архитектурно виде, имеет чуть более низкие частоты графического процессора и обычную память GDDR5. Но благодаря более низкой стоимости и прогнозируемо высокому оверклокерскому потенциалу, именно GeForce GTX 1070 может стать наиболее популярной видеокартой среди любителей игр. Впрочем, обо всём по порядку.

⇡#Технические характеристики видеокарты и рекомендованная стоимость

Технические характеристики и стоимость видеокарты NVIDIA GeForce GTX 1070 приведены в таблице в сравнении с эталонными версиями NVIDIA GeForce GTX 1080, GeForce GTX 980 Ti, GeForce GTX 980 и GeForce GTX 970. Отличия GTX 1070 от GTX 1080 выделены полужирным шрифтом.

Наименование технических характеристикNVIDIA GeForce GTX 1080NVIDIA GeForce GTX 1070NVIDIA GeForce GTX 980 TiNVIDIA  GeForce GTX 980NVIDIA  GeForce GTX 970
Графический процессор GP104-A1  Pascal 

(TSMC)

GP104-A1  Pascal

(TSMC)

GM200-A1  Maxwell 2.0

(TSMC)

GM204-A1  Maxwell 2.0 

(TSMC)

GM204-A1  Maxwell 2.0

(TSMC)

Техпроцесс, нм 16 16 28 28 28
Площадь кристалла, мм2 314 314 601 398 398
Число транзисторов, млн 7200 7200 8000 5200 5200
Частота графического процессора, МГц 3D 1607 (1734 – boost) 1506 (1683 – boost) 1000 (1076 – boost) 1126 (1216 – boost) 1050 (1178 – boost)
2D 139 139 135 135 135
Число унифицированных шейдерных процессоров, шт. 2560 1920 2816 2048 1664
Число текстурных блоков, шт. 160 120 176 128 104
Число блоков растровых операций (ROPs), шт. 64 64 96 64 64
Теоретическая максимальная скорость закраски, Гпикс./с 102,8 96,4 96,0 72,1 67,2
Теоретическая максимальная скорость выборки текстур, Гтекс./с 257,1 241,0 176,0 144,1 109,2
Поддержка версии Pixel Shaders / Vertex Shaders 5.0 / 5.0 5.0 / 5.0 5.0 / 5.0 5.0 / 5.0 5.0 / 5.0
Тип поддерживаемой памяти GDDR5X GDDR5 GDDR5 GDDR5 GDDR5
Разрядность шины обмена с памятью, бит 256 256 384 256 256
Эффективная частота работы видеопамяти, МГц 3D 10 000 8 012 7 012 7 012 7 012
2D 810 810 648 648 648
Объем памяти, Гбайт 8 8 6 4 4
Полоса пропускания видеопамяти, Гбайт/с 320,3 256,3 336,6 224,4 224,4
Пиковая потребляемая мощность в 3D-режиме работы, Вт 3D 180 150 250 165 145
2D н/д н/д н/д н/д н/д
Требования к мощности блока питания, Вт 500 500 600 500 500
Размеры видеокарты, мм (Д × В × Т) 268 × 102 × 37 268 × 102 × 37 267 × 100 × 39 267 × 100 × 39 267 × 100 × 39
Интерфейс PCI-Express x16 (v3.0) PCI-Express x16 (v3.0) PCI-Express x16 (v3.0) PCI-Express x16 (v3.0) PCI-Express x16 (v3.0)
Выходы DVI-D (Dual-Link),  1 HDMI v2.0b, 

3 DisplayPort v1.4

DVI-D (Dual-Link),  1 HDMI v2.0b, 

3 DisplayPort v1.4

DVI-I (Dual-Link),  1 HDMI v2.0, 

3 DisplayPort v1.2

DVI-I (Dual-Link),  1 HDMI v2.0, 

3 DisplayPort v1.2

DVI-I (Dual-Link),  1 HDMI v2.0, 

3 DisplayPort v1.2

Рекомендованная стоимость, долларов США 599-699 379-449 649 499 329

Кратко резюмируя приведённые выше характеристики, отметим, что в графическом процессоре новой GeForce GTX 1070 аппаратно отключён один Graphics Processing Cluster, содержащий пять мультипроцессоров Streaming Multiprocessor, каждый из которых состоит из 128 CUDA-ядер. Таким образом, владельцы видеокарты GeForce GTX 1070 недосчитаются 640 шейдерных процессоров (то есть их на 25 % меньше, чем в GPU GTX 1080, построенной на том же чипе GP104). Второе по значимости изменение — другой тип памяти: новинка оснащена памятью типа GDDR5, а не новой GDDR5X, да и частота вместе с пропускной способностью у нее на 20 % ниже. Рекомендованная стоимость GeForce GTX 1070 для России составляет 35 тысяч рублей (GeForce GTX 1080 – 55 тысяч рублей).

⇡#Дизайн и особенности печатной платы

Образцы для прессы (в весьма ограниченном количестве, кстати) были предоставлены на тестирование в небольшой коробке, выполненной из плотного картона и оформленной в характерном для NVIDIA стиле.

В самом центре коробки находится отсек под видеокарту, где она и зафиксирована в дополнительной мягкой оболочке.

Нужно ли говорить, что в плане дизайна эталонная NVIDIA GeForce GTX 1070 является копией GeForce GTX 1080 и во многом напоминает GeForce GTX 980 Ti или GTX 980? Вот как выглядит новинка.

 

Как и у старшей видеокарты, на обратной стороне появились две защитные панели, установленные встык. На них нанесён логотип NVIDIA и название модели видеокарты. Сверху на кожухе присутствует зелёная надпись «GEFORCE GTX» с подсветкой.

 

Длина референсного образца GeForce GTX 1070 составляет 268 мм, высота – 102 мм, а толщина – 37 мм. Весит данный экземпляр 1022 грамма.

GTX 1070 от GTX 1080 отличают хромированные символы модели видеокарты в передней части кожуха.

Панель с выходами видеокарты сделана так, чтобы на ней можно было разместить максимально большую сетку для беспрепятственного выброса нагретого воздуха за пределы корпуса системного блока. Тем не менее здесь удалось установить один DVI-D (напомним, что поддержки аналогового видеосигнала теперь нет), один HDMI версии 2.0b и три DisplayPort версии 1.4 для одновременного подключения четырёх мониторов.

 

Если посмотреть на видеокарту с противоположного торца, то видны рёбра радиатора системы охлаждения.

NVIDIA GeForce GTX 1070, так же как и GTX 1080, оснащается одним восьмиконтактным разъёмом для подключения дополнительного питания, однако заявленный уровень энергопотребления эталонных версий этой модели видеокарты ниже — он составляет 150 ватт, а не 180, как у GTX 1080. Мощность блока питания для системы с одной GeForce GTX 1070 должна начинаться от 500 ватт.

 

На своих обычных местах остались и разъёмы для создания мультипроцессорных конфигураций, однако для поддержки 4К-разрешений и выше потребуются новые двойные мосты SLI, о которых компания NVIDIA рассказывала в пресс-релизах.

Печатная плата видеокарты выполнена на основе платы GeForce GTX 1080, но получила на одну фазу питания графического процессора меньше.

Таким образом, питание на эталонных GeForce GTX 1070 реализовано по схеме 4+1.

Площадь кристалла графического процессора GP104 составляет скромные 314 мм2. Кристалл не имеет защитной рамки, так что при снятии штатной или установке альтернативных систем охлаждения стоит быть предельно осторожным. Говоря языком математики, именно графический процессор видеокарты является главным отличием от GTX 1080, вернее – его конфигурация. Вместо 2560 унифицированных шейдерных процессоров GPU GeForce GTX 1070 содержит 1920, что на 25 % меньше, чем у GTX 1080, но одновременно на 13 % больше, чем у предшественника в лице GeForce GTX 970. При этом блоков текстурирования у GeForce GTX 1070 осталось только 120, а ROP – 64. Разумеется, все архитектурные новшества GP104, о которых рассказывал мой коллега в обзоре старшей видеокарты, в GeForce GTX 1070 также присутствуют.

Благодаря новому, 16-нм техпроцессу, GeForce GTX 1070 получила очень высокие частоты графического процессора. И пусть они немного ниже, чем у флагманской на данный момент GeForce GTX 1080 (а именно на 6,3 % по базовой частоте), в сравнении с аналогичным показателем GeForce GTX 970 прирост частоты колоссален. Если у эталонных GeForce GTX 970 базовая частота графического процессора составляла 1050 МГц, то у новой GeForce GTX 1070 она равна 1506 МГц, то есть на 43,4 % выше! Более того, в форсированном режиме частота может автоматически увеличиваться до 1683 МГц, а, по данным мониторинга, при увеличенных до максимума пределах питания (112 %) и температуры (92 градуса Цельсия) частота графического процессора повышалась до 1886 МГц, то есть практически то той же отметки, что и на эталонной GeForce GTX 1080. Впечатляет, не правда ли? Добавим, что при переходе в 2D-режим частота процессора падает до 139 МГц одновременно со снижением напряжения с 1,062 В до 0,625 В.

Ещё одним отличием GeForce GTX 1070 от GeForce GTX 1080 является видеопамять. Вероятно, чтобы сделать GTX 1070 более доступной по стоимости, NVIDIA решила не наделять данную модель новым типом высокоскоростной памяти GDDR5X, а оснастила видеокарту привычной GDDR5 объёмом 8 Гбайт. В эталонных версиях GeForce GTX 1070 используются FCFBGA-микросхемы Samsung с маркировкой K4G80325FB-HC25.

Теоретическая эффективная частота таких чипов составляет 8000 МГц, поэтому даже на сравнительно узкой 256-битной шине память способна обеспечить пропускную способность 256,3 Гбайт/с. Это на 8,8 % больше, чем у эталонных GeForce GTX 970 (224,4 Гбайт/с), и на 20 % меньше, чем у GeForce GTX 1080 (320,3 Гбайт/с). Напомним, что в видеокартах с архитектурой графических процессоров «Паскаль» используются новые алгоритмы сжатия данных, которые способны дополнительно сэкономить до 20 % полосы пропускания, поэтому фактическая разница в пропускной способности памяти GeForce GTX 1070 и GeForce GTX 970 должна быть выше. Добавим, что в 2D-режиме частота памяти снижается до 810 эффективных мегагерц.

Последняя доступная на момент подготовки статьи версия GPU-Z уже частично знакома с характеристиками только что вышедшей видеокарты.

В то же время считывать BIOS и отображать ASIC GPU GeForce GTX 1070 она пока не способна.

⇡#Cистемы охлаждения – эффективность и уровень шума

Система охлаждения эталонной версии видеокарты NVIDIA GeForce GTX 1070 является точной копией кулера GeForce GTX 1080 (неожиданно, правда?), и при этом она претерпела минимальные изменения в сравнении с кулерами референсных версий GeForce GTX 980 Ti или GTX 980.

Это по-прежнему кулер с массивным радиатором графического процессора, радиальным вентилятором, прокачивающим воздух через этот радиатор, небольшим радиатором в задней части платы и стальной основой, отвечающей за охлаждение чипов памяти и элементов силовых цепей.

В основании радиатора графического процессора находится отдельная испарительная камера, контактирующая только с графическим процессором через термопасту серого цвета.

С торца кулера, через который выбрасывается нагретый воздух, видны рёбра и плоская тепловая трубка, дополнительно снимающая тепловую нагрузку с видеокарты.

Скорость вращения вентилятора регулируется автоматически ШИМ-методом в диапазоне от 1000 до 4100 об/мин (по данным мониторинга).

Для проверки температурного режима работы видеокарты NVIDIA GeForce GTX 1070 в качестве нагрузки мы использовали пять циклов теста весьма ресурсоёмкой игры Aliens vs. Predator (2010) при максимальном качестве графики в разрешении 2560 × 1440 пикселей с анизотропной фильтрацией уровня 16х и активацией MSAA-сглаживания степени 4x.

Для мониторинга температур и всех прочих параметров применялись программа MSI Afterburner версии 4.3.0 Beta 3 и утилита GPU-Z версии 0.8.8. Все тесты проводились в закрытом корпусе системного блока, конфигурацию которого вы сможете увидеть в следующем разделе статьи, при средней комнатной температуре 25 градусов Цельсия.

Прежде всего мы проверили температурный режим работы видеокарты при полностью автоматической регулировке скорости вентилятора, и вот какие результаты получили.

Автоматический режим (1050~2460 об/мин)

Как видим, пиковая температура ядра в таком режиме работы видеокарты по ходу тестирования достигла 85 градусов Цельсия, то есть той же отметки, что и на эталонной GeForce GTX 1080. Однако разница всё-таки есть, и заключается она в скорости вращения вентилятора кулера, которая на GeForce GTX 1070 увеличилась до 2460 об/мин, тогда как у GeForce GTX 1080 повышалась до 2700 об/мин. Иначе говоря, референсная GeForce GTX 1070 в 3D-режиме работает немного тише GeForce GTX 1080 (но вовсе не тихо и даже не комфортно). Кроме температурного режима работы видеокарты, на графике мониторинга выделим частоту работы графического процессора, которая в начале тестирования на условно «холодной» видеокарте в 3D-режиме достигала 1886 МГц, а затем постепенно снизилась до 1797 МГц. Логично, что чем эффективнее будет охлаждаться GeForce GTX 1070, тем на более высокой частоте сможет работать её графический процессор. 

Наглядно демонстрирует последнее утверждение следующее тестирование температурного режима NVIDIA GeForce GTX 1070 при максимально возможной скорости вентилятора кулера.

Максимальная скорость (4080 об/мин)

При скорости вентилятора почти 4100 об/мин температура графического процессора не превысила отметку 64 градуса Цельсия, а его частота держалась у 1848 МГц. Учитывая существенную разницу в эффективности референсных кулеров NVIDIA GeForce GTX и оригинальных систем охлаждения производителей, можно с уверенностью утверждать, что появление на рынке одновременно тихих и холодных GeForce GTX 1070 не за горами.

⇡#Оверклокерский потенциал (блицтест)

Поскольку на тесты GeForce GTX 1070 нам было отведено всего двое суток, то детальное и всестороннее изучение оверклокерского потенциала этой модели видеокарты провести было попросту невозможно. Поэтому в сегодняшней статье пришлось ограничиться лишь кратким блицтестированием разгона GTX 1070, а в последующих материалах эта тема будет изучена в полном объёме.

Итак, для проверки оверклокерского потенциала NVIDIA GeForce GTX 1070 мы увеличили предел по питанию на максимально возможные 112 %, температурный предел – до 92 градусов Цельсия, а также не стали полагаться на автоматическую регулировку скорости вентиляторов, зафиксировав её на 85 % мощности, или примерно 3400 об/мин. Напряжение на графическом процессоре не изменялось. С такими настройками к базовой частоте GPU без потери стабильности и появления дефектов изображения удалось добавить 165 МГц, или 11 %, а частоту памяти увеличить на 1240 МГц, или 15,5%.

Отметим, что отдельные тесты эталонная GeForce GTX 1070 проходила и при плюс 195 МГц по ядру, но стабильна была не везде. В результате частоты разогнанной видеокарты составили 1671-1848/9244 МГц, а по данным мониторинга при тестах температурного режима разогнанной видеокарты частота ядра увеличивалась до 2037 МГц.

85 % мощности, ~3400 об/мин

Как видим, при высокой скорости штатной «турбины» кулера температуру графического процессора вполне удаётся удержать «в узде» даже при разгоне, однако о низком уровне шума говорить при этом не приходится.

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.

3dnews.ru


Смотрите также