Видеокарта внешняя nvidia


Как выбрать видеокарту для компьютера

Выбор видеокарты для игр и монтажа видео, что лучше nVidia GeForce или AMD Radeon, сколько памяти нужно видеокарте, характеристики видеокарт.

Видеокарта предназначена прежде всего для игр. Если компьютер нужен только для работы, интернета и просмотра видео, то отдельная видеокарта ему не нужна и вполне хватит встроенной (интегрированной) в процессор.

Большинство современных процессоров имеют встроенное видеоядро, но если вы планируете играть в современные игры, то вам обязательно нужна отдельная (дискретная) видеокарта. Также видеокарта используется при монтаже видео, ускоряя рендеринг в 5-10 раз.

Для тех у кого нет времени, чтобы прочитать всю статью, я сразу же даю рекомендуемые модели видеокарт с кратким пояснением.

Самый доступный вариант минимум на сегодня это GeForce GTX 1050. Но она потянет современные игры только на низких настройках графики. GeForce GTX 1050

В качестве бюджетного варианта для игры на средних настройках можно рассматривать GTX 1050 Ti. GeForce GTX 1050 Ti

Несколько дороже можно взять GTX 1060, которая почти в 2 раза мощнее и это наиболее интересный вариант из бюджетной серии. Она обеспечит достаточную для комфортной игры частоту кадров на высоких настройках в современных играх. Есть версия на 3 Гб, чего в принципе достаточно большинству игр. GeForce GTX 1060 3G

Но некоторые игры требуют 4 Гб видеопамяти, поэтому лучше взять версию на 6 Гб, которая еще и на 10% мощнее по процессору. GeForce GTX 1060 6G

Видеокарта GTX 1070 на 50% мощнее чем GTX 1060, обеспечит динамичную игру на высоких настройках в Full HD во всех современных играх и будет иметь некоторый запас на будущее. Это оптимальный по соотношению цена/производительность вариант для мощного игрового компьютера. GeForce GTX 1070

Видеокарта GTX 1080 еще на 40% мощнее чем GTX 1070 и обеспечит непревзойденную производительность на ультра настройках в Full HD и минимально приемлемую производительность на высоких настройках в 4K. GeForce GTX 1080

Но для более комфортной игры в 4K лучше приобрести 2 таких видеокарты или одну более мощную GTX 1080 Ti.

Что касается монтажа видео, то для тех кто в теме давно не секрет, что использование видеокарты ускоряет рендеринг видео в 5-10 раз. Но для этого нужна правильная видеокарта, так как не все модели могут использоваться с этой целью. Вариант минимум это GTX 1060, если вас интересуют еще и игры, то можно взять GTX 1070, смотрите по своим возможностям.

Если вы хотите понять почему я рекомендую именно эти модели, разобраться во всех нюансах и технических характеристиках видеокарт, то читайте статью дальше.

Уникальную таблицу для сравнения видеокарт вы можете скачать в разделе «Ссылки».

2. Разработчики видеокарт

Видеокарты разрабатывают две крупных компании: nVidia и AMD.

nVidia более тесно сотрудничает с разработчиками игр и большинство игр оптимизируются под эти видеокарты. Поэтому лично я предпочитаю видеокарты nVidia. Видеокарты nVidia продаются под торговой маркой GeForce.

AMD не всегда удается решить проблемы с торможением и глюками в некоторых играх. В свою очередь компания AMD предлагает чуть более низкие цены на свои видеокарты, продавая их под торговой маркой Radeon. Но на мой взгляд разница в цене 10-20% не может компенсировать отставание в играх.

3. Производители видеокарт

Видеокарты, разработанные как компанией nVidia так и AMD, производит множество компаний. Хорошо зарекомендовали себя такие бренды как: ASUS, MSI и Gigabyte. Рекомендую приобретать видеокарты именно этих производителей.

4. Гарантия

Современные видеокарты в виду того, что они испытывают высокие нагрузки и нагревы, являются не очень надежными в сравнении с другими компонентами компьютера. Поэтому выбирайте видеокарты, имеющие наибольшую гарантию. На качественную видеокарту гарантия должна составлять 24-36 месяцев. Я не рекомендую на этом экономить.

5. Интерфейсный разъем

Интерфейсный разъем предназначен для соединения видеокарты с материнской платой. Все современные видеокарты имеют разъем PCI Express (PCI-E x16).

Материнские платы так же имеют одноименный разъем PCI Express (PCI-E x16).

В настоящее время в продаже можно встретить видеокарты с разными версиями этого разъема: 2.0, 2.1 и 3.0. Они отличаются только пропускной способностью (скоростью) шины, соединяющей видеокарту с материнской платой. Каждому классу видеокарты соответствует своя версия PCI-E, которая с запасом покрывает потребности конкретной видеокарты. Все они полностью совместимы и устанавливаются на любую современную материнскую плату. Поэтому, в большинстве случаев, на это можно не обращать никакого внимания. Исключение может составить желание установить в один компьютер сразу несколько видеокарт, о чем мы еще поговорим в этой статье.

Очень старые видеокарты имели разъем AGP, и их сейчас можно найти только на барахолке. Такие видеокарты нельзя рассматривать для улучшения быстродействия старых компьютеров, так как максимум с чем они справятся это игры до 2006 года выпуска. Видеокарту с AGP разъемом целесообразно приобретать только взамен вышедшей из строя на старом компьютере с мощным процессором и достаточным количеством оперативной памяти.

6. Видеопроцессор

Каждая видеокарта имеет свой видеопроцессор (или видеочип). Видеочипы имеют различное количество универсальных процессоров (шейдерных блоков) и частоту. От этих характеристик кардинально зависит производительность видеокарты.

Самые слабые игровые видеокарты nVidia имеют 400-500 шейдерных блоков с частотой около 900-1100 МГц и они плохо подходят для современных игр.

Игровые видеокарты начального класса имеют 600-800 шейдерных блоков с частотой 1300-1500 МГц и это вариант минимум на сегодня.

Видеокарты среднего класса имеют порядка 1200-1500 шейдерных блоков, высокого класса 1600-1900 и их частота составляет уже 1500-1700 МГц.

Самые мощные предтоповые и топовые видеокарты имеют 2500-3500 шейдерных блоков с частотой 1500-1700 МГц.

7. Тип и частота видеопамяти

Современные игровые видеокарты оснащаются преимущественно памятью GDDR5. У старых слабых видеокарт можно встретить более медленную память GDDR3 и они хуже подходят для игр. Топовые видеокарты nVidia оснащаются еще более быстрой памятью GDDR5X, а видеокарты AMD – памятью HBM.

Видеопамять может иметь разную частоту, которая для современных игровых видеокарт должна быть не ниже 5000 МГц. Видеокарты среднего класса оснащаются видеопамятью с частотой 7000-8000 МГц, ну а у топовых она может достигать 11000 МГц.

Так же видеопамять характеризуется шириной шины передачи данных. Игровые видеокарты имеют шину памяти от 128 до 384 бит. Обратите внимание на то, что игровая видеокарта даже начального класса не должна иметь шину памяти менее 128 бит. Для среднего класса этот показатель составляет 192 бита, для высокого 256 бит и выше.

Топовые видеокарты AMD оснащаются памятью HBM с шиной 4096 бит, но с пониженной до 1000 МГц частотой, что в итоге дает достаточно высокую пропускную способность памяти.

В принципе вы можете вообще не обращать внимание на тип, битность и частоту памяти, вам достаточно знать только ее пропускную способность (ПС), по которой легко ориентироваться:

  • 80-112 Гб/с – низкая ПС
  • 224-256 Гб/с – средняя ПС
  • 320-512 Гб/с – высокая ПС

Низкая пропускная способность памяти ограничивает возможности графического процессора (упирается в память). Высокая пропускная способность является избыточной. Оптимальными по соотношению цена/производительность являются видеокарты со средней пропускной способностью видеопамяти.

8. Сколько нужно видеопамяти

Современные игры требуют 3-4 Гб и более видеопамяти. Так что оптимально, чтобы видеокарта оснащалась 4 Гб и более  видеопамяти. Есть, конечно неплохие модели и с меньшим объемом. Например, младшая версия GTX 1060 оснащается 3 Гб видеопамяти и она будет более предпочтительной, чем GTX 1050 Ti с 4 Гб, так как значительно мощнее по процессору. Но в некоторых играх памяти будет все же не хватать, так что в данном случае я бы посоветовал доплатить и взять GTX 1060 c 6 Гб видеопамяти.

Мощные игровые видеокарты оснащаются 8 Гб и более видеопамяти, чего будет с запасом достаточно для современных игр, а для мониторов с высоким разрешением 4K/UHD (3840×2160 и выше) является обязательным.

Многие игры пойдут и с 2 Гб видеопамяти (например, на видеокарте GTX 1050), но в наиболее тяжелых настройки придется прикрутить на низкие и в целом я бы не рекомендовал сейчас видеокарты с таким объемом видеопамяти. Поэтому для современных игр видеокарту с 2 Гб видеопамяти нужно рассматривать как самый крайний бюджетный вариант.

9. Техпроцесс изготовления видеочипа

Техпроцессом называется технология, по которой производятся видеочипы. Чем современнее оборудование и технология производства, тем техпроцесс тоньше. От техпроцесса, по которому изготовлен видеочип, сильно зависит энергопотребление и тепловыделение видеокарты. Чем техпроцесс тоньше, тем видеокарта экономичнее и холоднее.

Современные видеочипы изготавливаются по технологическому процессу от 14 до 28 нанометров (нм). Чем меньше это значение, тем лучше. Тут все просто, если две видеокарты имеют примерно одинаковую производительность и стоимость, то предпочтение следует отдать той у которой техпроцесс тоньше. Обычно это будет более современная модель.

10. Энергопотребление видеокарт

Чем мощнее видеокарта, тем больше она потребляет энергии и больше греется. Соответственно нужен будет более мощный и дорогой блок питания и хорошая вентиляция в корпусе компьютера.

Современные видеокарты начального класса потребляют порядка 75 Вт, среднего класса 120 Вт, высокого класса 150 Вт, предтоповые 180 Вт, топовые 250 Вт. Высокое энергопотребление чаще приводит к проблемам в системе питания и перегревам. Оптимальное соотношение энергопотребление/производительность имеют видеокарты мощностью 120-150 Ватт.

11. Как узнать характеристики видеокарты

Такие характеристики видеокарты как объем и тип видеопамяти, разрядность шины обычно указываются в прайсах продавцов.

Все параметры той или иной видеокарты, такие как количество шейдерных блоков и их частота можно узнать на сайтах производителей:

Видеокарты nVidia

Видеокарты AMD

Очень удобно смотреть основные параметры и сравнивать видеокарты на сайте:

Overclockers.ua

Или просто введите модель видеокарты в поисковой системе Google или Яндекс (например, Radeon RX 580).

12. Система охлаждения

Существует пассивная и активная система охлаждения видеокарт. Пассивная система охлаждения состоит только из радиатора и не имеет вентиляторов. Такую систему охлаждения устанавливают на некоторые видеокарты и она требует продуманной вентиляции внутри корпуса компьютера. Иначе видеокарта перегревается и быстро выходит из строя. Я не рекомендую приобретать такие видеокарты.

Активная система охлаждения имеет как радиатор, так и один или несколько вентиляторов, которые его обдувают. Системы охлаждения видеокарт среднего и высокого класса часто имеют тепловые трубки, которые значительно улучшают отвод тепла. Такая система охлаждения достаточно эффективна и хорошо справляется со своими задачами.

Также достаточно эффективной является турбинная система охлаждения. Турбина захватывает мощный поток воздуха, прогоняет его через радиатор и выбрасывает наружу за пределы корпуса компьютера. Но на очень мощных горячих видеокартах, под нагрузкой в тяжелых играх, турбина может начинать гудеть.

Основным отличием видеокарт, на основе одного и того же графического процессора, как раз является система охлаждения. Самые дешевые модели могут иметь 1-2 вентилятора и радиатор без тепловых трубок, что негативно сказывается на охлаждении, уровне шума и даже производительности.

Рекомендую приобретать видеокарту с более мощной системой охлаждения на основе 2-3 больших вентиляторов и массивных тепловых трубок.

Об эффективности системы охлаждения и уровне шума вы можете узнать из тестов или отзывов пользователей. Оптимальная температура видеокарты под нагрузкой 60°, вполне допустимая 70°, максимально приемлемая но уже не желательная 80°.

13. Размеры видеокарт

Видеокарты сильно отличаются друг от друга по габаритным размерам как в длину, так и в толщину. Обычно, видеокарты начального класса имеют небольшую длину, среднего класса – раза в полтора длиннее, мощные видеокарты могут быть очень длинными. Это нужно учитывать при выборе корпуса для компьютера, так как если он будет не достаточно просторным, то большая видеокарта может в него просто не стать или сильно мешать установке других компонентов (например, жесткого диска).

Точные размеры видеокарт смотрите на сайтах их производителей (ASUS, MSI, Gigabyte и др.).

Что касается толщины, то она измеряется в количествах слотов (посадочных мест), которые видеокарта занимает в корпусе компьютера. Самые дешевые видеокарты могут быть однослотовыми.

Большинство видеокарт занимают два слота, при этом часто перекрывая один разъем материнской платы, который оказался под видеокартой и предназначен для установки плат расширения (звуковой карты, сетевой карты, ТВ-тюнера и т.п.).

Если вы планируете купить или у вас уже есть такие устройства, то это нужно учитывать. Но в большинстве случаев остаются не перекрытые разъемы, которые можно использовать.

14. Разъемы видеокарт

Видеокарты разных производителей могут иметь различные разъемы.

14.1. Внешние разъемы видеокарты

Видеокарты могут иметь различные разъемы для подключения внешних устройств.

VGA (D-SUB) – для подключения старых мониторов и проекторов, уже не встречается на современных видеокартах. Если на вашем мониторе есть только такой разъем, то подключить его к современной видеокарте будет проблематично.

DVI – для подключения старых и многих современных мониторов с аналогичным разъемом. На фото изображен разъем DVI-D, которым оснащаются современные видеокарты и через него идет только цифровой сигнал. На более старых моделях может присутствовать разъем DVI-I, через который также идет аналоговый сигнал.

DisplayPort – для подключения современных мониторов с аналогичным разъемом. Необходим для игровых мониторов с высокой частотой обновления (более 60 Гц).

HDMI – для подключения современных мониторов и телевизоров. По нему так же может передаваться звук.

Желательно, чтобы видеокарта имела все типы современных разъемов (DVI, DisplayPort и HDMI). Учтите, что через некоторое время вам может понадобиться подключить другой монитор или телевизор.

Если у вас монитор, на котором есть только разъем VGA (D-SUB), то его можно подключить к разъему DVI-I на видеокарте через специальный переходник DVI-VGA.

Если на видеокарте нет разъема DVI-I (есть только DVI-D), то подключить монитор через переходник DVI-VGA не получится. В таком случае поможет только конвертер HDMI-VGA, но качество изображения снизится.

14.2. Разъемы дополнительного питания

Игровые видеокарты среднего и высокого класса имеют один или два разъема дополнительного питания PCI-E.

Эти разъемы могут быть 6-контактные (6-pin) и 8-контактные (8-pin). Нужно учитывать, что блок питания так же должен иметь соответствующее количество таких разъемов. Но в принципе для этих целей можно использовать переходник Molex-PCI-E, главное чтобы блок питания был достаточной мощности.

Отсутствие разъема дополнительного питания дает нагрузку на шину питания материнской платы и может снижать стабильность работы видеокарты, поэтому крайне желательно его наличие.

15. Установка нескольких видеокарт

Некоторые материнские платы имеют 2, 3 или 4 разъема PCI-E для установки видеокарт. Это используется в основном для повышения производительности в играх. Видеокарты при этом должны иметь специальные разъемы для соединения между собой. Их может быть один или два.

Если такой разъем на видеокарте один, то с его помощью можно соединить только две видеокарты, если разъемов два, то от 2-х до 4-х видеокарт.

Соединить можно только видеокарты одного разработчика – nVidia с nVidia или AMD с AMD. У nVidia эта технология называется SLI, у AMD – CrossFireX. Большинство материнских плат с несколькими разъемами PCI-E поддерживают только одну из них – или SLI или CrossFireX. То есть на одних можно соединить только видеокарты nVidia, на других только AMD. Но некоторые более дорогие материнские платы поддерживают обе технологии и не имеют привязки к разработчику.

Кроме того, в технологии SLI могут использоваться только абсолютно одинаковые видеокарты, а в  CrossFireX могут использоваться совершенно разные, но обычно не имеет смысла соединять мощную видеокарту с более слабой.

15.1. Недостатки установки нескольких видеокарт

Конфигурация компьютера с несколькими видеокартами имеет следующие недостатки.

  • снижение общей надежности компьютера
  • ухудшение совместимости в играх
  • необходимость в более мощном блоке питания
  • необходимость усиленного охлаждения
  • увеличение шума от компьютера
  • значительное увеличение стоимости компьютера

Поэтому установка нескольких видеокарт не всегда оправдана, так как вместо двух видеокарт можно купить одну более мощную за ту же цену, а то и дешевле, при этом избежав перечисленных недостатков. Исключение составляет сборка очень мощного компьютера, в котором используется несколько дорогих видеокарт. Например, две GTX 1080 или 1080 Ti для игр в 4K.

16. Модели видеокарт

Модели видеокарт часто меняются, но я расскажу о принципах нумерации моделей, по которым вы сможете ориентироваться. Рассмотрим видеокарты, которые есть в продаже.

16.1. Видеокарты nVidia

Видеокарты nVidia 2014 года:

  • GeForce GT 730, 740 – начальный класс
  • GeForce GTX 750, 750 Ti, 760 – средний класс
  • GeForce GTX 770 – высокий класс
  • GeForce GTX 780, 780 Ti – топовые видеокарты

Видеокарты nVidia 2015 года:

  • GeForce GTX 950 – начальный класс
  • GeForce GTX 960 – средний класс
  • GeForce GTX 970 – высокий класс
  • GeForce GTX 980, 980 Ti – топовые видеокарты

Видеокарты nVidia 2016 года:

  • GeForce GTX 1050, 1050 Ti – начальный класс
  • GeForce GTX 1060 – средний класс
  • GeForce GTX 1070 – высокий класс
  • GeForce GTX 1080, 1080 Ti – топовые видеокарты

Буквы GT указывают на принадлежность видеокарт к начальному классу, GTX – к более высокому классу. Первая цифра (7,8,10) означает серию и меняется ежегодно с обновлением модельного ряда. Две последующих цифры (30,40,50,60,70,80) косвенно говорят об уровне производительности видеокарты. Чем цифра больше – тем видеокарта мощнее. Буквы Ti говорят о еще более высокой производительности (+10-20%) по сравнению с той же моделью без приставки Ti.

16.2. Видеокарты AMD

Видеокарты AMD 2013 года:

  • Radeon R7 240, 250 – начальный класс
  • Radeon R7 260, 260X – средний класс
  • Radeon R9 270, 270X, 280, 280X – высокий класс
  • Radeon R9 290, 290X – топовые видеокарты

Видеокарты AMD 2014 года:

  • Radeon R7 360, 370 – средний класс
  • Radeon R9 380, 380X – высокий класс
  • Radeon R9 390, 390X – топовые видеокарты

Видеокарты AMD 2015 года:

  • R9 Nano, Fury, Fury X – топовые видеокарты

Видеокарты AMD 2016 года:

  • Radeon RX 460 – начальный класс
  • Radeon RX 470 – средний класс
  • Radeon RX 480 – высокий класс

Видеокарты AMD 2017 года:

  • Radeon RX 550 – бюджетный класс
  • Radeon RX 560 – начальный класс
  • Radeon RX 570 – средний класс
  • Radeon RX 580 – высокий класс

Видеокарты серии R7 предназначены для не очень мощных домашних компьютеров с возможностью играть в игры. Видеокарты серии R9 предназначены для более мощных игровых компьютеров. Три цифры модели (240-290, 360-390, 460-480) косвенно разграничивают видеокарты по производительности внутри серии. Чем эта цифра больше, тем видеокарта мощнее. Кроме этого есть промежуточные модели (265, 285) и модели с буквой X в конце маркировки, которые имеют еще более высокую производительность по сравнению с базовой моделью. Обычно эта разница составляет 10-20%. Видеокарты с мистическими названиями Nano и Fury это очень мощные дорогие видеокарты, призванные соперничать с топовыми видеокартами nVidia. А новые видеокарты 2016-2017 года получили новую маркировку RX.

17. Чем отличаются видеокарты разного класса

Видеокарта начального класса обеспечит отсутствие торможений в  большинстве современных игр на низких настройках графики, среднего класса – на средних настройках графики, высокого класса – на высоких настройках графики, топовая видеокарта – будет иметь запас мощности достаточный для большинства игр, которые появятся в ближайшее время.

18. Сравнение видеокарт

Для того, что бы выбрать оптимальную по соотношению цена/производительность модель видеокарты нужно сравнить производительность нескольких ближайших по цене моделей. Есть несколько способов как это сделать. Сначала я расскажу вам как сравнить видеокарты при помощи поисковых систем.

Первый способ

В интернете есть масса тестов видеокарт, которые проводят энтузиасты. С помощью них можно сравнивать любые близкие по производительности модели. Так же с помощью этих тестов можно узнать реальную производительность конкретных видеокарт в разных играх и определить устраивает вас это или нет.

Введите в поисковой системе Google или Яндекс несколько моделей, которые вы хотите сравнить (например, «GTX 1060 и RX 480») и получите множество ссылок на сравнение и тесты этих видеокарт.

Обычно производительность в этих тестах оценивается таким параметром как частота кадров в секунду (FPS). Средний FPS в играх должен быть ближе к 60, а минимальный не ниже 30, иначе будет заметно явное торможение. Тесты могут проводиться на разных настройках графики, из чего вы сможете определить на каких настройках ваша видеокарта потянет игры.

Дальше смотрите, если одна видеокарта мощнее другой по показателю FPS на 15-30%, а стоит на 5-10% дороже, то покупайте более мощную. Если разница в производительности (FPS) составляет 5-10%, а цена выше на 15-30%, то нет никакого смысла переплачивать.

Недостаток такого способа в том, что чтение этих обзоров занимает определенное время и результаты тестов на разных сайтах и в разных играх могут отличаться. Поэтому я придумал другой способ, дающий быстрые и достаточно точные результаты.

Второй способ

Можно сравнить видеокарты одного разработчика (nVidia с nVidia или AMD с AMD) с помощью условного рейтинга их производительности. Для того, что бы вычислить это значение нужно количество шейдерных блоков каждой видеокарты умножить на их частоту и затем сравнить эти цифры в процентном соотношении. Это гораздо проще чем кажется на первый раз. Приведу один старый пример.

Имеется 2 видеокарты:

  1. GeForce GT 560 (336 шейдерных блоков частотой 1620 МГц) — 170$
  2. GeForce GT 570 (480 шейдерных блоков частотой 1464 МГц) — 190$

Рейтинг видеокарты 1 = 336 х 1620 = 544320

Рейтинг видеокарты 2 = 480 х 1464 = 702720

Рассчитываем разницу в производительности:

(702720-544320) / 544320 х 100 =  29,1 %

Рассчитываем разницу в цене:

(190-170) / 170 х 100 =  11,7 %

При разнице в производительность 29% разница в цене составляет всего 11%, поэтому приобретение второй видеокарты выглядит предпочтительнее.

В дальнейших сравнениях руководствуйтесь правилом – если разница в производительности составляет 15-30%, а в цене 5-10%, то покупайте более мощную видеокарту, если наоборот – разница в производительности всего 5-10%, а в цене 15-30%, то целесообразнее купить более дешевую.

Этот расчет делается на калькуляторе за минуту. Чтобы еще больше упростить эту задачу я сделал табличку в программе Excel, в которую можно ввести данные видеокарт и она сама вычислит разницу в производительности и цене в процентах, что поможет вам выбрать модель с лучшем соотношением цена/производительность.

Эта таблица позволяет сравнить до 10 видеокарт и потребует от вас всего несколько минут на введение данных. Вы можете скачать ее в конце статьи в разделе «Ссылки».

19. Версия DirectX

Видеокарты nVidia 2014 года, видеокарты AMD 2013 года и более старые поддерживают графический интерфейс DirectX 9-11.

В Windows 10 была введена новая версия DirectX 12, которая призвана повысить производительность видеокарт и многоядерных процессоров в современных играх. Но для этого необходима поддержка DirectX 12 видеокартой.

Видеокарты nVidia имеют полноценную поддержку DirectX 12 начиная с серии 9хх (950-980, 1050-1080).

Видеокарты AMD поддерживают DirectX 12 начиная с серии 3хх (360-390, 460-480, 550-580).

Рекомендую приобретать видеокарту с поддержкой DirectX 12.

20. Настройка фильтров в интернет-магазине

  1. Зайдите в раздел «Видеокарты» на сайте продавца.
  2. Выберете интересующего вас разработчика (nVidia или AMD).
  3. Выберете рекомендуемых производителей (ASUS, MSI и Gigabyte).
  4. Выберите подходящие модели (GTX 1050 Ti, 1060, 1070, 1080).
  5. Отсортируйте выборку по цене.
  6. Последовательно просматривайте все позиции, начиная с более дешевых.
  7. Выберите несколько моделей и сравните их по качеству системы охлаждения.
  8. Покупайте наиболее холодную и тихую модель.

Таким образом, вы получите оптимальную по соотношению цена/качество/производительность видеокарту, удовлетворяющую вашим требованиям за минимально возможную стоимость.

По ссылке ниже вы можете скачать таблицу для автоматического сравнения видеокарт.

Таблица сравнения видеокарт

Также рекомендуем вам наши статьи о выборе других комплектующих и периферийных устройств.

ironfriends.ru

Новости про NVIDIA

15 сентября 2017

Компания NVIDIA готовится обновить видеокарту GeForce GTX 1070, по крайней мере, так говорят хорошо проинформированные источники.

Новый ускоритель будет позиционироваться в плане производительности между нынешней GTX 1070 и GTX 1080 11 Gbps. В результате обновлённая GTX 1070 сместит со своих позиций нынешний ускоритель, либо же заменит его полностью.

Для новой видеокарты NVIDIA должна изготовить новое поколение процессоров GP104 с большим количеством ядер CUDA, например, 2048, как у GTX 1070 Mobile или ещё больше. Также карта может получить более быструю память, например, 9 Гб/с GDDR5 или даже 10 Гб/с GDDR5X. Кроме того, могут быть немного подняты базовая и Boost-частота процессора.

Современная GeForce GTX 1070 уверенно обходит по производительность Radeon RX Vega 56 при меньшем потреблении энергии. Между GTX 1070 и 1080 разница в производительности составляет примерно 20%, и обновлённая карта должна заполнить этот промежуток, как по производительности, так и по цене. Если рассматривать улучшенную GTX 1080 с более быстрой 11-гигабитной памятью, этот промежуток становится заметно шире, создавая прекрасно место для размещения в него GTX 1070 Ti, с производительностью в 90% от базовой GTX 1080 с памятью 10 Гб/с. В дополнение, такой ускоритель будет идеальным конкурентом AMD RX Vega 64.

Ожидается, что NVIDIA выпустит свежую версию GTX 1070, вероятно, с окончанием «Ti», к началу активных продаж перед зимними праздниками.

GeForce GTX 1070, NVIDIA, видеокарты, слухи

14 сентября 2017

Аналитическая компания Jon Peddie Research опубликовала отчёт о поставках видеокарт во втором квартале этого года.

В статистике учтены все проданные дискретные видеокарты, и полученный результат удивительный. Так, за 3 месяца объём продаж видеокарт вырос на 30,9% по сравнению с 1 кварталом и на 34,9% по отношению аналогичному периоду прошлого года.

Обычно второй квартал самый плохой в плане продаж, но этот стал исключением. Впервые за 9 лет продажи GPU выросли во втором квартале.

Как отмечают исследователи, рынок PC и GPU показывает возвращение к нормальным сезонным ритмам. Обычно, в 1 квартале наблюдается небольшое снижение продаж, во втором — резкий спад, поскольку OEM и оптовые поставщики освобождают склады для свежих поставок. В третьем квартале проходит стремительный рост в преддверии зимних праздников, а в 4 квартале обычно наблюдается стагнация или небольшой прирост продаж. Такой уклад наблюдается с 2007 года, когда рынок PC начал вытесняться смартфонами и планшетами. В этом году второй квартал стал приятным исключением для поставщиков.

Говоря о рыночном распределении, JPR отмечает, что AMD заняла 29,4% рынка, что на 1,9% больше, чем в первой четверти года. Соответственно, NVIDIA столько же потеряла, однако компания по-прежнему может наслаждаться лидерством с 70,6%. Всего же за квартал было поставлено 3,6 миллиона видеокарт.

Исследователи также опубликовали интересные исторические факты. По её данным, с 1981 года, когда на рынке появились PC, всего до конца года будет продано порядка 2,1 миллиарда дискретных карт, а их стоимость достигла внушительных 1,02 триллиона долларов США.

AMD, NVIDIA, аналитика, видеокарты, статистика

18 августа 2017

Ранее в этом году ходе GPU Technology Conference компания NVIDIA представила Tesla V100, графический процессор, основанный на архитектуре седьмого поколения. Он является самым мощным графическим процессором компании и демонстрирует производительность в 7,5 терафлопс в двойной точности и 15 терафлопс в обычной точности.

Сейчас процессоры Tesla V100 используются в суперкомпьютерах и системах искусственного интеллекта, и в ближайшее время геймеры не получат этот GPU в своё распоряжение. Некоторые полагали, что игровые процессоры Volta могут быть представлены уже в начале следующего года, однако исполнительный директор компании Дзень Хсунь Хуан опроверг эти слухи.

«Volta для игр, мы пока ничего не анонсировали. Всё что я могу сказать, что наша линейка заполнена рядом прекрасных новых игрушек для геймеров, и у нас есть несколько действительно удивительных новых технологий, которые мы предлагаем в этой линейке. Но на сезон праздников в обозримом будущем, я думаю, Pascal просто непобедим. Это просто лучшая вещь из всех. И каждый, кто хочет поиграть в Call of Duty или Destiny 2, если они этого ещё не сделали, должны пойти и купить себе Pascal», — заявил директор Хуан.

Компания NVIDIA явно не стремится заменить архитектуру Pascal. Её видеокарты продаются хорошо, а топовые решения, вроде 1080 Ti, до сих пор непобедимы. Преждевременный выпуск видеокарт Volta приведёт к снижению доходов компании и сократит жизненный цикл Pascal. Также компания старается найти баланс, между желаниями потребителей и собственной прибылью.

Кроме того, графические процессоры Volta пока слишком дороги в производстве. Себестоимость таких видеокарт превзойдёт 1000 долларов, поэтому они не готовы для потребительского рынка. Хуан отметил, что их проектирование стоит слишком накладно.

Так что ждать новое поколение GPU от NVIDIA пока не стоит.

GPU, NVIDIA, Volta

2 августа 2017

Последние пару дней компания AMD привлекла к себе всё внимание. Немногим ранее AMD также анонсировала внешнюю GPU систему, о которой в прессе отозвались предельно положительно. Вероятно, чтобы немного отвлечь людей от AMD, в NVIDIA решили подготовить аналогичное решение.

Компания NVIDIA анонсировала решения Quadro и TITAN xP External GPU. Идея состоит в том, чтобы позволит графическим дизайнерам работать на своих ноутбуках, подключая видеокарты TITAN xP или Quadro на базе Pascal, в качестве съёмных внешних решений (eGPU).

В NVIDIA сообщили о сотрудничестве со множеством производственных партнёров, включая Bizon, Magma и Sonnet, которые смогут изготовить совместимые решение уже к сентябрю.

Боб Петте, вице-президент NVIDIA по профессиональной визуализации, заявил, что мобильные системы становятся тоньше и легче, с ограниченной производительностью и памятью. «Наши eGPU теперь могут решить эту проблему, так что дизайнеры могут выполнять свою работу максимально эффективно в наиболее графически требовательных приложениях».

К сожалению, NVIDIA не стала сообщать о технических деталях своего решения, и фанаты бренда могут только надеяться, что eGPU NVIDIA будет работать лучше, чем у AMD. По крайней мере, выглядит он стильно.

NVIDIA, видеокарты, внешние видеокарты

15 июля 2017

Крупнейшая платформа дистрибуции игр, Steam, является превосходным индикатором тенденций игрового мира. Сбор статистики аппаратной части позволяет Valve определять самые популярные решения и оптимизировать для них работу.

Среди популярных видеокарт в Steam последнего месяца, оказались исключительно решения NVIDIA, что говорит о доминантном положении этого производителя.

Так, на конец июня, решениями NVIDIA пользовались 63,61% геймеров, что больше 20,5% для AMD и 15,54% для Intel. Вызывает интерес факт того, что 0,35% игроков используют «другие» видеоплаты.

При этом в списке самых популярных карт с поддержкой DirectX 12 присутствуют только решения NVIDIA. Самым популярным видеоускорителем в Steam стала GeForce GTX 1060, которой пользуются 6,29% игроков.

Такой рыночный разрыв не сложно понять. Архитектура Pascal у NVIDIA обладает превосходной производительностью при низком энергопотреблении. Сторонники же AMD, вероятно, предпочитают подождать архитектуру Vega. Кроме того, высокая производительность видеокарт AMD при майнинге криптовалют привела к дефициту этих видеокарт и резкому повышению цены.

DirectX 12, NVIDIA, Steam, видеокарты, статистика

8 июля 2017

Сайт TechPowerUp снова выпустил большое изменение своей популярной диагностической и информационной утилиты GPU-Z.

В версии программы 2.2.0 разработчики предлагают ряд новшеств. Например, теперь для видеокарт на базе GPU от AMD в панели Advanced появилась информация о таймингах видеопамяти. Поле версии драйвера на главной вкладке теперь отображает и дату его выпуска. Режим отображения информации с датчиков (текущие/минимальные/максимальные/средние) теперь можно установить в предпочтениях, которые сохранятся при следующем перезапуске приложения. Панель Advanced обзавелась новым контекстным меню, облегчающим копирование информации.

Однако программа изменилась не только внешне. Перечень изменений приведен ниже:

  • Добавлен мониторинг таймингов памяти AMD Radeon.
  • Добавлено отображение даты драйвера.
  • Добавлена возможность установки режима вывода датчиков по умолчанию.
  • Добавлено меню правой кнопки мыши во вкладке Advanced для копирования в буфер обмена.
  • Увеличена скорость запуска GPU-Z.
  • Внешние файлы будут удаляться из временной папки мгновенно.
  • Исправлен запрос OpenCL во вкладке Advanced (CMD Queue Properties).
  • Исправлены отсутствующие датчики для объединённой памяти.
  • Исправлены ошибки вывода при использовании старых GPU NVIDIA.
  • Добавлен мониторинг вентилятора для EVGA iCX.
  • Добавлена информация о размере ядра и количестве транзисторов в AMD RX 560.
  • Добавлена поддержка Intel Iris Plus 640 & 650, GMA600.
  • Добавлена поддержка NVIDIA GeForce GT 1030, GeForce 810M, Mining P104 & P106, Quadro P3000.

Загрузить бесплатную утилиту GPU-Z можно с нашего сайта.

AMD, GeForce GT 1030, GPU-Z, NVIDIA, Radeon, утилиты

5 июля 2017

Компания NVIDIA, обновив видеодрайвер до серии 384, тихо и незаметно добавила поддержку API DirectX 12 для графических процессоров, построенных по архитектуре Fermi.

Такую информацию опубликовали внимательные пользователи форума Guru3D. Поддержка DX12 теперь доступна для видеокарт GeForce 400-й и 500-й серии. Примечательно, что поддержка оказалась достаточной для запуска современных игр и приложений для Direct3D feature-level 12_0. Также драйвер обеспечивает поддержку WDDM 2.2 для карт GeForce Fermi в операционной системе Windows 10 Creators Update (version 1703).

Вероятно, именно необходимость поддержки новой версии драйверной модели и побудила NVIDIA обеспечить работу DX12 на видеокартах 5-6 летней давности. Правда, несмотря на формальную поддержку, вряд ли устаревшего ускорителя будет достаточно для запуска современной игры в приемлемом виде.

DirectX 12, Fermi, NVIDIA, Windows 10, видеокарты

30 июня 2017

Слухи о том, что компания NVIDIA готовит обновление архитектуры Pascal ходили довольно давно, однако теперь они зазвучали более уверенно, о чём сообщает сайт Dark Vision Hardware.

Отмечается, что архитектура Volta, о которой мы много слышим последнее время, будет предназначена исключительно для систем машинного обучения. Дело в том, что NVIDIA традиционно использует схему релизов «тик-так», так что после выпуска видеокарт 1000-й серии (тик) стоит ожидать маха маятника в другую сторону (так).

Это значит, что в следующем поколении видеокарт мы получим ту же архитектуру Pascal, но с некоторыми усовершенствованиями. Ранее отмечалось, что чипы для будущего поколения видеокарт NVIDIA будет выпускать TSMC по 12 нм технологии, которая является усовершенствованной версией 16 нм процесса. Также мы отмечали, что новые видеокарты не получат память HBM2, а будут использовать чипы GDDR5X.

Всё это косвенно подтверждает нежелание NVIDIA выпускать архитектуру Volta на потребительский рынок, а говорит лишь о стремлении обновить архитектуру Pascal в новых GPU.

GPU, NVIDIA, Pascal, Volta, видеокарты, слухи

13 июня 2017

Российский разработчик Movavi, создатель комплекса программного обеспечения по работе с аудио и видео, предлагает принять участие в предстоящей акции — получении 50% скидки на одну из своих программ — «Конвертер Видео».

Данный продукт является одним из наиболее быстрых в своём классе и легко обрабатывает файлы мультимедиа практически во всех известных форматах.

Главная функция программы, разумеется, — это смена формата любого видео- или аудиофайла. Конвертер поддерживает: MP4, MKV, AVI, FLV, MPEG, MOV, WMV и другие видеоформаты. Что касается аудио, то вы можете загружать треки в форматах: MP3, APE, WAV, WMA, FLAC, OGG и других. При выборе формата доступен и выбор разрешения готового видео, а соответственно, его качества.

Пакет поддерживает готовые профили для мобильных устройств, которые будут подобраны автоматически, когда вы подсоедините телефон или планшет к компьютеру. 

Встроенный редактор даёт возможность обработать конвертируемые файлы: повернуть или кадрировать клип, стабилизировать, улучшить качество картинки и звука, добавить субтитры или водяной знак, а также с точностью обрезать дорожку.

По сравнению с другими конвертерами, в этой программе используется режим SuperSpeed, который позволяет конвертировать файлы за считанные секунды без потери качества. При использовании этого режима, а также с учётом поддержки технологий Intel и NVIDIA, конвертация проходит до 79 раз быстрее. 

Более того, вы можете настроить автоматическую конвертацию — выбрать папку и необходимые параметры, а потом просто загружать файлы в эту папку, и конвертации не потребуется ваше участие.

Другие способы использования программы:

  • Извлечение аудио. Экспортируйте отдельно аудиодорожку из видео — вырезайте диалоги или музыку.
  • Создание GIF. Обрезайте видео и сохраняйте их в виде анимированных картинок.
  • Перенос видео с DVD. Перекодируйте файлы и сохраняйте их на компьютере.
  • Создание скриншотов. Снимайте стоп-кадры одним кликом.
  • Загрузка музыки в iTunes. Настраивайте автоматический перенос сконвертированных файлов в библиотеку iTunes.

Movavi «Конвертер Видео» обладает всеми необходимыми инструментами и возможностями для простой и быстрой конвертации. Практически все функции автоматизируются, а программа сворачивается в системный трей. Это снижает нагрузку на ЦПУ, что позволяет вам спокойно продолжать работать на компьютере.

А теперь то, о чем мы обмолвились в начале новости. С 13 июня 2017 у вас появится шанс получить «Конвертер Видео» всего за полцены. Для этого вам нужно подписаться на регулярную рассылку компании Movavi внизу страницы https://www.movavi.ru/videoconverter/ с помощью специальной формы. В письмах вас ждут купоны на скидки, советы по использованию программ, интересные новости и многое другое.

Intel, NVIDIA, видео, звук, программы, скидки

10 июня 2017

Последнее время резко возросла популярность криптовалюты Ethereum, в связи с чем многие производители подготовили материнские платы для майнинга, а видеокарты Radeon 500-й серии даже попали в список дефицитных товаров.

На волне всплеска популярности майнинга, компания NVIDIA решила подготовить свою собственную систему. Так, согласно утекшей информации, система NVIDIA GPU Mining System является отдельным независимым компьютером, основанным на мобильном CPU Celeron и 8 графических процессорах GP106-100 (вариант которого можно встретить в GTX 1060). Также машина получает 4 ГБ ОЗУ DDR3 и mSATA SSD объёмом 64 ГБ.

Все шесть GPU охлаждаются пассивно и нуждаются в единственном 6-контактном коннекторе дополнительного питания. По имеющимся данным, материнская плата также нуждается в подключении семи дополнительных 6-контактных разъёмах питания. Плата содержит единственный порт Gigabit Ethernet, единственный порт USB 2.0 и видеовыход HDMI. Для работы такому компьютеру требуется блок питания мощностью 1600 Вт, и им машина комплектуется за дополнительную плату.

Утекшие слайды дают некоторую информацию о производительности системы. Так, на мощности 1050 Вт система достигает скорости ZEC 2500Sol/s, а на 700 Вт — XRM 4400 H/s.

К сожалению, NVIDIA не стала никак сравнивать своё решение с самодельными фермами, построенными на 6 видеокартах Radeon RX 470/560, ограничившись лишь их большим энергопотреблением и необходимостью индивидуального охлаждения.

По слухам, компания AMD также работает над аналогичным решением для майнинга.

GP106, NVIDIA, компьютеры, майнинг

9 июня 2017

Компания NVIDIA в ходе выставки Computex проводила демонстрацию эффективности (и эффектности) дисплеев с широким световым диапазоном, чтобы показать их преимущество над обычными. И, к сожалению для владельцев стенда, нашёлся человек, который хотел получше увидеть разницу технологий.

Посетитель HardwareCanucks заявил, что он получил доступ к настройкам монитора, которые NVIDIA использовала на стенде. Именно тогда он и выявил подлог.

Он выяснил, что NVIDIA сжульничала на стенде, уменьшив контрастность и яркость обычного монитора, а также настроив гамма коррекцию на HDR дисплее, чтобы картинка казалась ярче и насыщеннее.

После сброса настроек мониторов на заводские, HardwareCanucks провёл второе сравнение, и в этот раз SDR картинка выглядела намного привлекательнее, а в некоторых сценах изображение на HDR мониторе казалось даже хуже.

HDR, NVIDIA, монитор

3 июня 2017

Компания NVIDIA решила изменить спецификацию своих компьютеров GeForce GTX Battlebox, дополнив их продукцией AMD.

Компьютеры NVIDIA Battlebox PC являются референсными платформами, которые подсказывают производителям минимальные конфигурации машин для различных типов игровых нагрузок.

Конечно, NVIDIA не могла включить в состав своей референсной платформы видеокарты AMD, однако центральные процессоры оказались по мнению инженеров NVIDIA достаточно быстрыми. Ранее Battlebox PC содержали исключительно CPU от Intel, поскольку CPU AMD Bulldozer были слишком медленными, чтобы их рекомендовать. Однако благодаря Ryzen ситуация изменилась.

Так, компьютер Battlebox Ultimate теперь может базироваться на видеокарте GeForce GTX 1080 Ti и центральном процессоре Intel Core i7 либо AMD Ryzen 7 (минимум), а также содержать 16 ГБ оперативной памяти DDR4. Эта модель предназначена для игр в разрешении 4K и виртуальной реальности.

Другая модель, Battlebox Essential, нацеленная на геймеров в разрешении 1080p, теперь может содержать видеокарту GeForce GTX 1060 с 6 ГБ видеопамяти, процессор Intel Core i5 или AMD Ryzen 5 (минимум), а также 8 ГБ оперативной памяти DDR4.

Кроме того, обе модели должны иметь твердотельный накопитель и операционную систему Windows 10, а если производители решат оснащать компьютер монитором, то он должен обладать поддержкой адаптивной синхронизации G-Sync.

AMD, NVIDIA, компьютеры, процессоры

31 мая 2017

Компания NVIDIA анонсировала новую мобильную видеокарту начального уровня GeForce MX150.

Данная плата основана на GPU архитектуры Pascal и по сути является наследником GeForce 940MX. Таким образом, GeForce MX150 является дискретным решением, которое предлагает производительность незначительно превышающую возможности стандартного интегрированного GPU. К сожалению, NVIDIA не опубликовала спецификаций GeForce MX150, но учитывая прошлый опыт, компания должна предложить OEM партнёрам различные параметры работы платы, которые будут отвечать необходимой производительности и TDP.

Компания лишь подтвердила, что в плате GeForce MX150 будет использоваться память GDDR5, и пользователи могут ожидать, что её производительность будет на треть выше, чем у GeForce 940MX. По сравнению с GPU от Intel HD620, решение GeForce MX150 будет на 350% быстрее, а по сравнению с HD520 — на 400%.

Скорее всего, ноутбуки с этими видеокартами появятся в продаже в ближайший месяц.

NVIDIA, видеокарты, ноутбуки

29 мая 2017

Японский технологический гигант SoftBank Group приобрёл долю в NVIDIA стоимостью в 4 миллиарда долларов США, что сделало японскую компанию четвёртым по сумме вложения инвестором NVIDIA.

По данным Bloomberg, SoftBank раскрыл информацию о «неустановленном количестве» акций NVIDIA как часть проекта 93 миллиардной инвестиции в различные технологические проекты.

Как известно, в прошлом году SoftBank приобрёл ARM Holdings, британскую компанию, занимающуюся разработкой процессоров для огромного количества смартфонов и планшетов, сетевого оборудования и серверов.

Та сделка, объёмом 32,6 миллиарда долларов, стала крупнейшей для SoftBank, и многие аналитики не поняли цель этого приобретения, однако с ростом спроса на высокоэффективные и слабомощные чипы, смысл сделки становится всё очевиднее.

В любом случае, приобретение NVIDIA задаёт SoftBank весьма чёткое направление развитие. Стоит ожидать, что альянс NVIDIA и ARM может привести к появлению весьма интересных продуктов.

NVIDIA, рынок, финансы

25 мая 2017

Компания NVIDIA в ходе Graphics Technology Conference этого года представила новую архитектуру GPU под названием Volta.

Традиционно, сначала фирма представила продукт Tesla V100, предназначенный для суперкомпьютеров. И вот на Reddit появился снимок некой неизвестной видеокарты, подписанный как Titan. Она выделяется необычной системой охлаждения.

Можно было бы предположить, что это хорошо выполненный мод, только если не обращать внимание на печатную плату. На ней отсутствуют разъёмы SLI, зато есть коннектор NVLink, который можно встретить на PCIe варианте акселератора Tesla P100.

Что ж, тогда можно допустить, что речь идёт не о модификации кулера Titan X Pascal, а о модификации P100. Но в P100 другое расположение коннекторов питания. Плата на снимке имеет два разъёма в верхней части, что характерно для потребительских решений NVIDIA. В то же время плата не содержит разъёмов на задней части, что типично для серии продуктов Tesla и Quadro.

В общем, что это за плата — неизвестно. Возможно, это просто удачный мод, а возможно — первая фотография Titan Volta.

NVIDIA, Volta, видеокарты, слухи

nvworld.ru

Компьютер не распознает видеокарту (NVidia GeForce, AMD Radeon) – как решить проблему?

Видеокарта является важным элементом персонального компьютера. Её задача – преобразование графического образа, информация о котором хранится в памяти компьютера, в видеосигнал, поступающий на монитор для отображения. Корректность обеспечивается также последним установленным драйвером (такой драйвер идёт в комплекте с покупкой и/или легко находится в Интернете).

Перед началом работы

Иногда при покупке нового системного блока со всем необходимым содержимым, или после самостоятельной сборки, или при замене старой видеокарты на новую (например, дискретную, так как это лучше и современнее) возникает такая проблема: компьютер не видит видеокарту. То есть точно известно, что видеокарта установлена в системном блоке, но информация, указывающая на её наличие, на компьютере отсутствует. При этом драйвер устройства вполне себе установлен и правильно. Но этот самый драйвер нисколько не помогает.

О том, что делать, как справиться с такой незадачей и почему она происходит, пойдет речь далее.

Установить, например, драйвер на устройство под силу и «чайнику». Но вот содержимое системного блока воспринимается большинством пользователей как «что-то сложное и совершенно непонятное, что, где и почему». А решение вопроса, если компьютер перестал видеть видеокарту или ещё что-то подобное случилось, сводится к «я лучше ничего не буду трогать и вызову мастера». Это, безусловно, логичный подход. Но в условиях наличия сегодня огромного количества источников (конечно, в первую очередь, это Интернет-ресурсы), из которых можно почерпнуть полезную информацию по любому вопросу, стоит все-таки попытаться справиться своими силами. Главное — дифференцировано подходить к источникам, выбирая надежные, а при манипуляциях с проводами и крепежами действовать аккуратно и внимательно (ничего не повредить и не потерять).

Как заставить видеокарту «выйти из тени»

Как известно, решение любой проблемы, в том числе и такой, когда компьютер не видит видеокарту, будь это дискретные Nvidia GeForce или AMD Radeon, необходимо начинать с применения самых простых способов. В данном случае один из них – это визуальная проверка конструкции выключенного компьютера. Вам необходимо убедиться, что видеокарта установлена верно (в нужном месте и в нужном положении) и соединена с материнской платой. О том, что именно подразумевается под «верной» установкой, можно узнать из инструкции, прилагаемой к конкретной модели устройства. Также нужно проверить, надежно ли крепление проводов, соединяющих монитор с электрической сетью и с системным блоком.

Если с конструктивной точки зрения все в порядке, попробуйте еще раз включить систему. Если это не дало результата, запустите перезагрузку. При неэффективности названных действий нужно проверить настройки BIOS. Данная аббревиатура названия программы после расшифровки и перевода на русский язык дословно означает «базовая система ввода/вывода». Именно программа BIOS ответственна за подключение/отключение отдельных компонентов персонального компьютера, одним из которых является и видеокарта.

Итак, при включении или перезагрузке компьютера следите за информацией, которая последовательно отображается на мониторе. Когда увидите фразу Press DEL to enter setup, нажмите на клавиатуре соответствующую клавишу. В данной фразе может быть указана иная клавиша либо сочетание клавиш, почему это происходит — не так важно, нажимайте, что написано. В любом случае следуйте инструкции. Так вы окажетесь в меню, содержащем параметры настроек. Там нужно найти раздел, отвечающий за настройки видеокарты. В его названии могут присутствовать такие слова, как Graphic, Video, Display или VGA. Дело в том, что программы BIOS имеют вариации названий пунктов меню, поэтому невозможно указать здесь конкретное наименование раздела. Когда раздел найден, попробуйте активировать следующие параметры: Video, VGA, и Primary Display. Установите шину вашей модели видеокарты: PEG, PCI, IGD, или AGP. В завершение нажмите на клавишу F10, чтобы сохранить измененные настройки, и перезагрузите систему. Если загрузка прошла успешно, проверьте, появилась ли ваша видеокарта в перечне подключенных устройств (например, если речь про дискретную карту AMD Radeon, устройство будет AMD Radeon Mobile Graphics BF4).

Альтернативы

Если устройство все равно «не найдено», попробуйте по возможности пойти иным путем: установите вашу дискретную видеокарту (NVidia Geforce, AMD Radeon) на другой компьютер. Возможно, здесь все будет функционировать нормально. Тогда дело может быть в неисправности вашей материнской платы.

Еще один вариант: подключите к вашему компьютеру другую новую видеокарту (например, вместо Nvidia – AMD Radeon). Если она работает нормально, возможно, исходная видеокарта неисправна. Существуют программы, позволяющие протестировать данный компонент компьютера — новую или старую видеокарту, как дискретную, так и любую другую — на исправность. В результате такой проверки иногда выявляется, что устройство само по себе не способно нормально функционировать: во время тестирования карта перегревается либо система запускает аварийную перезагрузку. Следует отметить, что работа с этими программами требует определенных знаний, иначе вы можете необратимо повредить изначально исправную видеокарту, которая не работает/не отображается по другим причинам.

Также нелишним будет проверка системы на наличие вирусов и обновление драйверов видеокарты. Хотя изначально мы и предполагали, что драйвер у нас уже стоит наиболее правильный и последний, тем не менее стоит ещё раз это проверить и поискать в интернете наиболее подходящий драйвер.

В заключение

Как видно, вопрос статьи может завести пользователя, не имеющего специальных технических знаний, навыков работы с программным обеспечением и, в конце концов, отверток, в тупик.

Тем не менее, вы узнали что делать в данной ситуации. Надеемся, что приведенная выше информация пригодилась и вы вышли из ситуации победителем. Удачи!

instcomputer.ru

Внешние видеокарты

Сейчас ноутбуки и нетбуки развиваются быстрыми темпами. Мобильные компьютеры становятся в несколько раз производительнее настольных компьютеров прошлогодней давности и их легко использовать для работы с 3D-графикой, просмотра и обработки HD-видео, и ,конечно же, современных компьютерных игр.

Но что делать тем покупателям, которые приобрели ноутбук со слабым интегрированным ядром, которое только и способно для работы в офисных пакетах? Для этого и пригодилось бы использование внешних видеокарт, но на рынке высоких технологий с этим идет очень туго.

Впервые о новом сегменте рынка заговорила компания AMD/ATI, один из лидеров производства дискретных видеокарт. В 2008 году она разработала специальную технологию для подключения внешних видеокарт под названием XGP(External Graphics Platform), суть, которой заключается в подключении к специальному разъему, использующего  8 пропускных линий PCI-E 2.0, что достаточно для полноценной работы дискретных видеокарт. Выход такого разъема, конечно, хорошо, но производители ноутбуков не стремятся добавлять XGP в свои устройства. Fujitsu Siemens - единственная компания, которая выпустила XGP-совместимый ноутбук. Сегодня AMD/ATI вновь показывает технологию XGP в паре со своей современной видеокартой на выставке CES 2010.

Кроме этого метода существует более доступный способ апгрейда видеосистемы для ноутбуков на российском рынке. Это использование внешней станции ASUS XG-Station для подключения видеокарты, которая стоит до 5 тыс. рублей с видеокартой GF8600GT. Это устройство работает через разъем ExpressCard, у которого пропускная способность всего 250 мб/с. То есть видеокарта работает в режиме PCIe Х1, что конечно же плохо. Но по сравнения с интегрированным решением, производительность увеличиться до 10 раз, что довольно хорошо. На сегодняшний день этот метод уже сейчас можно использовать, то есть сначала купить недорогие ноутбук или нетбук с разъемом ExpressCard, а затем докупить внешнюю станцию и можно получить довольно производительный мобильный компьютер.

Вывод состоит в том, что этот довольно перспективный рынок внешних видеокарт никак не могут повернуть в правильное русло. Даже компания Nvidia, один из лидеров производства дискретных видеокарт, никак не может сделать первый шаг за своим конкурентом (AMD/ATI). Может быть, с появление на рынке USB 3.0 (640мб/с)  появятся новые внешние видеокарты уже с этим перспективным разъемом. А может главные гиганты индустрии видеокарт Nvidia и AMD/ATI, наконец-то, приставят доступные внешние видеокарты и способы их подключения. В общем, этому перспективному рынку придется еще показать себя в полной красе.

bloggik.net

Видеокарта компьютера и ее предназначение

Видеокарта это то устройство, с помощью которого изображение выводится на монитор. Т.е. без видеокарты ни текста ни изображений мы на экране не увидим, и вообще, работа компьютера без видеокарты невозможна.

Есть два типа видеокарт: внешние видеокарты (дискретные) и встроенные (онбордные от англ. «On board» — на плате). Давайте вместе разберемся более подробно с этими понятиями. На рынке внешних видеокарт сейчас присутствуют два монополиста. Это Калифорнийская компания «Nvidia» и Канадская «ATI Technologies». В 2006-ом году последняя была выкуплена также американской компанией по производству процессоров «AMD» (Advanced MIcro Devices). Сейчас AMD активно продает свои графические ускорители под раскрученным ATI, в свое время, брендом «Radeon».

Вот как может выглядеть внешняя (дискретная) видеокарта начального уровня от ATI-AMD:

Цифрами на фото обозначены:

  • Радиатор с охлаждающим вентилятором для GPU
  • Разъем PCI-Express которым карта вставляется в материнскую плату
  • (3-4) Видео выходы VGA и DVI соответственно (сейчас наблюдается массовый переход на новый цифровой стандарт — HDMI)

Примечание: GPU (Graphics Processing Unit или графическое обрабатывающее устройство) — сам графический процессор видеокарты (ее ядро).

Давайте более подробно: ядро видеокарты (в некотором упрощении) такая же микросхема, как и ядро центрального процессора. Только занимается оно своими специфичными задачами — выводом изображения (любого) на экран пользователя. Начиная от вывода текста и заканчивая обработкой трехмерных сцен любимой компьютерной игры.

Сам чип графического процессора на заводе (при помощи BGA метода монтажа) припаивается к текстолиту печатной платы внешней видеокарты (красная «пластмасса» на рисунке выше), сверху на него плотно (либо приклеивается, либо прикручивается) радиатор для отвода тепла и уже на сам радиатор — вентилятор (кулер — cooler) для рассеивания горячего воздуха. Как видите, конструктивно все это очень похоже на процессор с его системной охлаждения.

Внешняя видеокарта подключается к материнской плате через специализированный разъем (слот). Для каждого поколения видеокарт он свой (в зависимости от времени выпуска карты).

Данное утверждение справедливо практически для всего ассортимента компьютерных комплектующих. В данном случае, тут можно достаточно легко определиться чисто визуально «на глаз». Первые видеокарты устанавливались в ISA (Industry Standard Architecture) разъемы, на смену им пришел разъем PCI (Peripheral Component Interconnect — дословно: взаимосвязь периферийных компонентов), затем — AGP (Accelerated Graphics Port — ускоренный графический порт) и вот теперь мы имеем шину и, соответственно, слот PCI-Express. Причем разные ее версии (ревизии) физически и электрически совместимы между собой, а отличаются только пропускной способностью (шириной) шины данных, соединяющей видеокарту и материнскую плату.

Через видео выходы на карте происходит ее физическое подключение к монитору (или телевизору). Здесь, опять же, все зависит от поддерживаемого Вашим монитором/телевизором стандарта.

К примеру, VGA разъем (номер 1 на фото выше) передает сигнал в аналоговом виде. Стандарт DVI (цифра 2) подразумевает исключительно цифровую передачу сигнала (без дополнительных его преобразований). Новый же стандарт HDMI вместе с изображением по кабелю может передавать и звук. Аббревиатура HDMI расшифровывается как «High Definition Multimedia Interface» — мультимедийный интерфейс высокой четкости (высокого качества).

Думаю, основную мысль Вы уловили: смотрим что есть у нас (наличие каких выходов), сверяем с тем что хотим подключить на предмет «подойдет, не подойдет», думаем наличие каких разъемов нам может понадобиться в будущем — берем «на вырост» :) Ну и, конечно, не забываем про переходники, с помощью которых внешняя видеокарта может подключаться к устройству вывода изображения: DVI-VGA или HDMI-VGA (уже не переходник, а полноценный контроллер-конвертер видеосигнала).

Хотелось бы еще сказать пару слов о современных видеокартах, которым для работы требуется дополнительное питание, подающееся на них напрямую от блока питания компьютера.

Ситуация здесь следующая: любая внешняя видеокарта для компьютера (будь то стандарта PCI, AGP или же PCI-Express) получает питание непосредственно от разъема материнской платы, в который она установлена. К примеру, максимальная мощность в ваттах, которую может обеспечить разъем стандарта AGP составляет 42 Вт, PCI-Express версии 1.1 — 76 Вт (Ватт) соответственно.

Как Вы понимаете, многие современные внешние видеокарты (особенно при максимальных нагрузках) потребляют гораздо больше мощности. Именно из-за этого для них и придумали дополнительный разъем питания.

Вот как могут выглядеть эти разъемы:

В комплекте с таким графическим ускорителем обязательно должен быть специальный переходник, который соединяет один из стандартных «molex» разъемов блока питания и дополнительный вход питания карты.

У современных блоков питания подобные дополнительные разъемы присутствуют изначально, так что Вам не нужно будет заботиться о переходниках, но знать о такой возможности нужно! Современные графические ускорители (особенно это касается изделий от компании AMD) могут потреблять изрядное количество энергии (под 250 Ватт), так что учитывайте этот момент при выборе GPU и блока питания компьютера, который должен будет обеспечивать весь этот шик :)

Также заранее нужно подумать и о корпусе компьютера, потому как топовые карты могут достигать более тридцати сантиметров в длину и не в каждый системный блок их можно будет установить.

Если компьютер предполагается использовать в основном для игр или работы с трехмерной графикой, можно приобрести материнскую плату с несколькими разъемами «Pci-Express x16» под графические ускорители. Это позволит задействовать одновременно несколько внешних видеокарт одной модели. Что в сумме даст ощутимый прирост производительности графической подсистемы.

У компании «Nvidia» эта ее фирменная технология называется «SLI» — (Scalable Link Interface — масштабируемый интерфейс связи) и для кооперативной работы здесь нужны абсолютно одинаковые внешние видеокарты, ее прямой конкурент имеет аналогичную разработку, которая называется «AMD CrossFire» и здесь могут использоваться любые графические ускорители, поддерживающие данную технологию. Обе эти разработки позволяют объединять мощности нескольких внешних видеокарт и заставляют их работать, как одно целое.

Если надумаете организовать что-то похожее, имейте в виду что некоторые материнские платы могут быть «заточены» только под одну их этих технологий. Есть и универсальные и этот момент не лишним будет уточнить при покупке. Хотя, справедливости ради: так ли уж нужен режим объединения видеокарт для игр? Я в том смысле, что и одна внешняя видеокарта последнего поколения вполне справляется с любой современной игрой.

Во второй части статьи хотел бы поделиться своим опытом модернизации (апгрейда — upgrade) внешней видеокарты на своем домашнем компьютере. Что в этом интересного? Просто я подумал, что по ходу рассказа будут появляться некоторые новые понятия и описания, которые могут органично дополнить и углубить тему данной статьи. Если нет, то просто похвастаюсь приобретением! :)

Итак, до апгрейда у меня была установлена карта от компании Nvidia: «Asus GeForce 9600 GT» Вот так она выглядела:

Отличная карта, между прочим! Аппаратная поддержка DirectX10, 512 мегабайт видеопамяти, для того времени — очень достойно! Это моя первая внешняя видеокарта, которой требовалось дополнительное питание (6-ти контактный разъем справа). При пиковой нагрузке TDP карты могло приближаться к 96-ти Ваттам, а как мы помним, разъем Pci Express может обеспечить только 76, поэтому без дополнительного питания тут никак! Новый (на то время) 65-ти нанометровый техпроцесс. Видеокарта даже в моем не маленьком корпусе компьютера выглядела довольно внушительно. Скажу так: до этого момента я себя «игрушками» такого класса не баловал :) А дополнительное питание… лично я успокоил себя тем, что современные графические адаптеры, по видимому, просто не могут без него обходиться.

Примечание: TDP — «Thermal Design Power» или «Thermal Design Point» — примерно переводится, как конструктивные требования по теплоотводу. Иными словами, ожидаемая рассеиваемая мощность (количество тепла, выделенного или рассеянного в единицу времени — секунду). Цифра указывает на отвод какой тепловой мощности должна быть рассчитана система охлаждения изделия.

Но все течет, все меняется, а в компьютерной индустрии очень быстро, поэтому пришло время заменить и эту модель внешней видеокарты на более новую. Остановил свой выбор я, опять же, на продукции от компании NVIDIA, — «GeForce GTX 750 Ti», в основу строения графического чипа которой легла новая технология компании под названием «Maxwell». Видеокарта на аппаратном уровне поддерживает версию DirectX11.2, имеет два гигабайта быстрой оперативной памяти для GPU стандарта GDDR5 (Graphics Double Data Rate), сам чип произведен с использованием 28-ми нанометрового технологического процесса (размер одного транзистора кристалла = 28 нанометров). Короче говоря, все игры 2015-го года запускаются с ней на средне-высоких настройках.

Примечание: нанометр — одна миллиардная часть метра.

Почему я останавливаюсь на таких деталях столь подробно? Просто я хочу показать Вам, насколько не сравнимы (в плане производительности) между собой эти два графических адаптера разных поколений. И это логично: на «GTX 750 Ti» быстро работают те игры, которые даже не могли запуститься на «GT 9600», но прелесть здесь не только в этом :) Посмотрите на новую видеокарту в референсном дизайне:

Примечание: референсный дизайн — печатная плата и система охлаждения, разработанные производителем (в данном случае, — Nvidia). Партнеры (Asus, MSI, Gigabyte) имеющие свои производственные мощности, могут помещать графический чип на плату с набором других компонентов и устанавливать свою систему охлаждения.

Просто визуально сравните эти две внешние видеокарты (можно легко сориентироваться по выступающим за слот PciExpress частям) и Вы все поймете:

  • У новинки НЕТ дополнительного питания (просто нет и все!) :)
  • Полноценное современное графическое ядро на базе чипа NVIDIA GM107
  • Два гигабайта быстрой памяти GDDR5
  • Карта помещается в любой системный блок, так как в длину всего имеет 159 миллиметров!
  • Референсной системы охлаждения вполне хватает для рассеивания выделяемого видеокартой тепла: ее TDP заявлен на уровне 60 Ватт. Да что я Вам говорю, еще раз посмотрите на этот кулер на фото выше :)
  • Как результат сложения второго и третье пунктов — отменная производительность в играх 2015-го года
  • Минимально рекомендуемый блок питания для ПК с этой видеокартой — 300 Ватт (для сравнения: рекомендации для моей предыдущей GT 9600 — 400 Ватт!) Устройство потребляет всего 60 Ватт электроэнергии… Обалдеть :)

Это и есть новая архитектура «Maxwell» во всей красе! По заверениям самих производителей, чипы выпущенные на ее основе потребляют, по сравнению, с графическими процессорами прошлого поколения вдвое меньше энергии, при возрастании производительности чуть ли не до 300%.

Конечно, как говорится: «каждый кулик свое болото хвалит», но даже невооруженным глазом видно, что на этот раз инженерам «Nvidia» действительно есть чем гордиться!

До этого, признаюсь, я думал что индустрия игровых видеокарт движется явно не по тому пути. Постоянно увеличивающийся TDP (потребляемая мощность) изделий начала приводить к тому, что блоком питания в 750 Ватт никого не удивишь, а на различных форумах уже мелькают посты навроде: «купил себе БП килловатник, думаю проблем не будет!» Конечно! Какие проблемы?! Только за свет будешь много платить (как будто небольшой электрический чайник постоянно в розетку включен), а так — никаких проблем :)

Чтобы продемонстрировать более наглядно к чему привела постоянная гонка наращивания мощностей и погоня за «попугаями» (количеством очков или рейтингом ускорителя в программах тестирования подобных «3DMark»), продемонстрирую несколько фотографий. Ниже представлен «AMD-Radeon-R9-290X» (при пиковой нагрузке только сама видеокарта может потреблять до 250 Ватт).

Как видите внешней видеокарте уже не хватает конструкции обычной системы охлаждения и используется ее улучшенная версия турбинного типа: вентилятор «прокачивает» воздух через радиатор системы охлаждения и дальше он выбрасывается за пределы корпуса через специальные отверстия на тыльной стороне карты. Чтобы ощутить весь «трагизм» ситуации, давайте посмотрим на еще одного представителя семейства карт от AMD — «Radeon-R9-295X2»:

Для этого двухпроцессорного графического ускорителя TDP составляет 500 Ватт! Рассеивать (язык не поворачивается сказать «тепло» — жар) этой «печки» призвана комбинированная жидкостная система охлаждения. Ага, давайте еще азот туда запустим (он тоже жидким бывает) :) Вот так все это безобразие выглядит в разрезе:

Как видим, первой одумалась именно компания «Nvidia». Вместо того, чтобы тупо наращивать мегагерцы и размер своих внешних видеокарт, они пошли по пути серьезной оптимизации уже имеющихся решений. Результат оказался блестящим! Снижение тепловыделения и энергопотребления при ощутимо возросшей производительности — браво, «Nvidia»! Ситуация мне чем-то напомнила прорыв, который совершила компания «Intel», выпустив на рынок центральных процессоров свой «Core 2 Duo». Тогда ее конкурент (та же компания AMD) вынуждена была в срочном порядке серьезно снизить цену на целый ряд своих продуктов, так как объективно не выдерживала конкуренции с новой технологией.

Конечно, возможно, AMD тоже одумается и скоро перестанет превращать персональные компьютеры пользователей в подобие Мартена, но что-то веры в это мало. Думаю, как всегда, просто цены снизят: видите, в любом случае мы — в выигрыше! :)

Итак, давайте с Вами немного поговорим о том, чем же так хороша технология «Maxwell»? Прежде всего тем, что открывает собой линейку энергоэффективный решений от компании «Nvidia» для мобильных систем (планшетов, смартфонов, игровых приставок, ноутбуков и т.д.). Если будет желание, почитайте о мобильных процессорах «NVIDIA Tegra» — очень интересно!

Политика компании, на данном этапе, заключается в следующем: разработать и оттестировать решение для мобильный устройств, а потом масштабировать его для высокопроизводительных настольных систем. В результате, все энергосберегающие технологии перекочевывают из мобильных решений в производительные графические ускорители, размер последних уменьшается, а производительность увеличивается. Если помните, во времена бурного развития Интернета первые компьютеры тоже были очень большими, а теперь мы можем разместить их на коленях или держать на ладони :)

Например, внешняя видеокарта на архитектуре «Maxwell» автоматически сократит свое энергопотребление до минимума в то время, когда Вы просматриваете на компьютере фильм или работаете в текстовом редакторе или наоборот, поднимет частоту ядра выше номинала, когда это будет нужно требовательному приложению (технология Nvidia GPU Boost).

Возвращаясь к «обновке» :) Я приобрел внешнюю видеокарту от компании MSI. Это тот же чип GM107 на Maxwell-е, но установленный на более массивную печатную плату с измененной (относительно референсного дизайна) элементной базой и системой охлаждения с использованием медных тепловых трубок. Полное название видеокарты выглядит вот так: «GeForce GTX-750-TI-OCV1», ее фото ниже:

Чем она отличается от эталонной разработки? Прежде всего, комплектующими повышенной надежности. Это связано с тем что в названии ускорителя присутствует вот такая аббревиатура — OCV1. Что такое V1 я точно не скажу (возможно, версия 1?), но вот ОС говорит о многом. А именно, что данная внешняя видеокарта поставляется с разогнанной (OverClocking) версией чипа. Вполне естественно, что для обеспечения стабильной работы ей нужна другая (более надежная) элементная база компонентов. Отсюда и увеличение длинны платы и больший размер вентилятора.

Все это при сохранении преимуществ новой технологии, перечисленных выше. К примеру, как я ни старался, но так и не смог нагреть свою карту программой «FurMark» даже до 70-ти градусов Цельсия (без нагрузки ее температура в разгар лета была примерно 31 градус!) Да, и дополнительного питания на видеокарте нет, правда появилось место для установки разъема под него, но за ненадобностью он так и не был распаян.

Если у референсной «GTX 750 Ti» базовая тактовая частота (Base clock) составляет 1020 MHz, а при задействовании технологии ее адаптивного повышения (Boost) — 1085 MHz, то в OverClicking (OC) решении она изначально составляет 1059MHz, а при бусте — 1137MHz. Существуют еще более экстремальный вариант от той же MSI (знаменитая серия с дракончиком). Решение для этой модели называется «GTX 750 Ti Gaming Edition» (игровая редакция).

Как видите, здесь все куда более серьезно: частоты еще больше увеличены, система охлаждения полностью переработана, но это, по сути, все та же «кроха», которую мы рассматривали в середине данной статьи :)

В принципе, я против любого (даже заводского) разгона! Теоретически любой разгон снижает общее время «жизни» устройства. И это логично: ему приходится все время работать в не штатных условиях. Приведу еще один пример: небезызвестная компьютерная игра «Ведьмак 3» от польской студии «CD Projekt» регулярно выдавала, как говорят геймеры, «фризы» — полное замирание картинки на несколько секунд, после чего все приходило в норму. Очень раздражает!

Помогла мне решить проблему утилита для тонкой настройки графических адаптеров семейства «Nvidia», которая называется «NVIDIA Inspector». Саму программу можно скачать с нашего сайта. Интерфейс разделен на два окна: в левой части отображаются текущие значения основных параметров устройства, а правая предназначена для их тонкой настройки.

Нас будет интересовать кнопка «Show Overclocking» (показать настройки разгона), расположенная в правом нижнем углу. После нажатия на нее появится вот такое окно предупреждения:

В нем говорится, что все манипуляции, связанные с разгоном видеокарты мы совершаем на свой страх и риск и если она после этого перестанет работать, то разработчик софта не несет за это никакой ответственности! Солидарен с разработчиком :)

Просто нюанс состоит в том, что мы будем не увеличивать (разгонять) частоту графического ядра, а уменьшать ее! Нажимаем «Да», подтверждая тем самым что мы адекватные пользователи и сам себе админы. После этого нам дают доступ ко второму окну утилиты. Посмотрите на фото ниже:

Обратите внимание на значение «Base Clock Offset» (смещение относительно базового значения) в правой части окна программы. Там выставлено значение «-50» MHz. Именно минус пятьдесят! Т.е. мы уменьшили частоту графического ядра на 50 Мегагерц. После манипуляции со значениями не забудьте нажать на кнопку подтверждения изменений: «Appy Clocks & Voltage».

Примечание: в любой момент Вы можете вернуться к значениям по умолчанию, нажав на кнопку «Apply Defaults».

Посмотрите на левую часть окна и значения частот, выделенные красным цветом: «GPU Clock» и «Default Clock». Первое значение показывает текущую частоту графического адаптера, а второе частоту по умолчанию (заводское значение). Две другие цифры напротив под общим названием «Boost» показывают частоту GPU в режиме ее штатного повышения. Также текущий (верхний) и заводской (нижний) показатель.

Как видите, обе строки показывают снижение частоты на 50 Мегагерц — ровно столько, сколько мы и указали справа. Не знаю почему, но больше «Ведьмак 3» не «фризит» и я могу спокойно в него играть. Так что разгон — далеко не всегда благо!

Примечание: после того, как Вы закрываете программу, все произведенные изменения пропадают. Если они нужны, просто сверните приложение в трей.

Как альтернативу и именно для отображения информации о Вашем 3D ускорителе, могу порекомендовать бесплатную программу «GpuZ». Она показывает очень подробную информацию о GPU, На второй ее вкладке «Sensors» можно увидеть статистику загруженности ядра и памяти, скорость вращения вентилятора, температуру чипа и т.д.

Напоследок, хотелось бы дать несколько банальных советов тем, кто покупает видеокарты для игр, ведь чего греха таить, все мы любим иногда азартно «порубиться» в новый шутер или «зависнуть» в походовую стратегию. Прежде всего, внешняя видеокарта для игр не может быть выполнена на пассивном охлаждении (без вентилятора). В названиях таких решений обычно присутствует слово Silent (тихий) и подходят они для офисных компьютеров, но никак не для игровых.

Регулярно обновляйте драйвера на свой графический ускоритель — реально помогает. Помню, только одна эта процедура смогла существенно исправить ситуацию с проседанием FPS (Frame Per Second — количество кадров в секунду) в одной игре.

Также старайтесь покупать продукцию только хорошо зарекомендовавших себя производителей. В отношении видеокарт это могут быть все те же «AMD», «Asus», «Gigabyte», «MSI». Помню, была у меня долгое время отличная карта от «Sapphire» — ничего плохого сказать не могу или это мне так повезло? На этом пока все, следите за нашими другими статьями.

pkpo.ru

Видеокарты в ноутбуках: справочная информация

Современный мобильный компьютер практически ни в чем не уступает классическому настольному ПК. Разве что вопрос производительности до конца решить пока не получается, поскольку энергопотребление, а точнее тепловыделение самых мощных процессоров превосходит возможности компактных систем охлаждения, устанавливаемых в тонких корпусах ноутбуков. И тем не менее для большинства задач, выполняемых на офисном и домашнем компьютере, быстродействия даже экономичных мобильных процессоров и платформ оказывается более чем достаточно.

Мобильный компьютер подходит в том числе и для игр. Более того, существуют специальные геймерские ноутбуки, оптимизированные именно для игровых задач. Сегодня не существует технических проблем с установкой внутрь компактного корпуса достаточно мощного видеоадаптера, благо с развитием полупроводниковых технологий их производительность (при сохранении прежнего уровня тепловыделения) неуклонно возрастает.

Вместе с тем видеокарта в ноутбуке — это всегда компромисс. Понятно, что энергопотребление графического чипа и видеопамяти вносит весомый вклад в общее энергопотребление системы и присутствие в ноутбуке видеокарты негативно отражается как на времени автономной работы, так и на результатах работы системы охлаждения: либо вентилятор сильно шумит, либо корпус сильно нагревается, либо ноутбук оказывается слишком тяжелым и громоздким.

Конечно, современные графические чипы поддерживают динамическое управление энергопотреблением, могут понижать и свою тактовую частоту, и частоту видеопамяти, но эффект от этого оставляет желать лучшего. Поэтому производители ноутбуков стараются устанавливать в свои модели видеокарты с минимально приемлемой для пользователя производительностью либо не устанавливать их вообще, обходясь только маломощной встроенной графикой.

В последнее время начинает активно использоваться другой подход — применяется переключаемая (гибридная) графика. По сути это использование двух видеокарт — встроенной в чипсет (процессор) и дискретной, состоящей из отдельного графического процессора и микросхем памяти.

Как правило, видеокарты используются не совместно (хотя и такая технология существует), а по очереди: когда возникает необходимость запуска 3D-игр или видео высокой четкости, включается дискретная видеокарта, а когда в этом необходимости нет, за обработку графики отвечает более экономичная встроенная видеокарта. Преимущества очевидны: пусть не одновременно, но мы имеем и производительность, и экономию энергии.

(Справедливости ради следует заметить, что попеременное использование двух видеокарт практикуется уже достаточно давно. Но раньше это решение было технически сложным (дискретную видеокарту требовалось физически обесточивать) и неудобным для пользователя (требовалась перезагрузка). Сегодня переключение производится программным способом, без перезагрузки операционной системы, а в некоторых случаях — даже без вмешательства пользователя).

Еще одним радикальным решением проблемы размещения видеокарты в ноутбуке является внешняя видеокарта, располагающаяся в подключаемом модуле. В этом случае снимаются все ограничения по энергопотреблению (внешний модуль может иметь отдельное питание) и тепловыделению (можно установить качественную систему охлаждения), а также появляется возможность простой модернизации графики. Причем, во-первых, видеокарту (и ее систему охлаждения) не нужно постоянно носить с собой, а во-вторых, она позволяет запускать требовательные 3D-игры даже на самых компактных и легких ноутбуках.

Проблема с внешними видеокартами только одна — их подключение. К счастью, уже разработан внешний разъем для интерфейса PCI Express, и производители видеокарт могут в ближайшее время начать поставки внешних моделей. Но по какой-то причине рынок пока не готов к таким продуктам: внешние решения уже существуют, но спросом не пользуются.

В нашей статье мы рассмотрим предложения ведущих производителей графических чипов по видеокартам для ноутбуков. Стремясь занять как можно бóльшую нишу на рынке, они выпустили огромное количество мало чем отличающихся моделей, и этот процесс ускоряется с пугающей быстротой.

Существует также проблема «перемаркировки», когда в новые линейки включаются старые модели. Со сменой модельного номера «новая» видеокарта в лучшем случае получает новую технологию производства, а зачастую — не получает ничего. В современных ноутбуках можно встретить видеокарты сразу трех, а то и четырех поколений, причем новые модели необязательно будут более производительными (и необязательно будут реально новыми). Попробуем разобраться.

Немного теории

Многие знают, что видеокарты делятся на два больших класса — встроенные (интегрированные) и дискретные (отдельные). Дискретная видеокарта чаще всего имеет вид именно карты — отдельной платы, подключенной к разъемам внутреннего и внешнего интерфейсов. В состав дискретной видеокарты входит графический контроллер (отдельная микросхема), оперативная (локальная) память, схемы стабилизации питания. Все эти компоненты могут быть размещены и на общей системной плате ноутбука, что не меняет сути.

Встроенная видеокарта не существует в виде отдельного устройства. Графический контроллер является частью либо самого процессора, либо чипсета, локальная память присутствует достаточно редко (например, у чипсетов AMD последнего поколения) — обычно для работы графического процессора отводится часть общей оперативной памяти.

По поводу этой памяти следует заметить, что небольшой объем (8—64 МБ) системной оперативной памяти выделяется видеокарте на постоянной основе (dedicated memory), она не доступна процессору и вычитается из общего объема памяти. В режиме 3D встроенной видеокарте выделяется дополнительный, значительно больший объем памяти для хранения текстур и т. п. (shared memory). Объем этот регулируется динамически, а его предел определяется объемом установленной в ноутбуке в данный момент оперативной памяти (чем ее больше, тем большую часть можно отдать видеокарте).

tech.onliner.by

Как переключиться на другую видеокарту на ноутбуке?

Ноутбуки с двумя видеокартами пользуются огромной популярностью в наше время. Встроенный компонент отличается низким энергопотреблением, но часто не может похвастаться повышенной производительностью. Если же воспользоваться дискретной карточкой, то ноутбук сразу же «обрастает» дополнительным функционалом, производительность повышается, что позволяет юзеру использовать устройства для разных целей. Хотите узнать, как переключить видеокарту на ноутбуке? Читайте далее!

Бывают ситуации, когда нужно быстро переключиться со встроенной видеокарты на дискретную

За что отвечает видеоадаптер?

На графическую производительность ПК и ноутбуков отвечает видеокарта, или видеоадаптер. Важно понимать, что мощные компоненты потребляют под нагрузкой огромное количество энергии. Для настольного ПК это не проблема, но ноутбук обязан экономить энергию, чтобы работать без электричества подольше.

Чтобы решить вопрос, специалисты рекомендуют использовать две карты: встроенные и дискретные. Юзер, в свою очередь, сможет выбрать то, что его интересует в конкретный момент — энергосбережение либо производительность.

Интегрированная карта представляет собой устройство, которое отдельным чипом впаивают на материнскую плату или встраивают в процессор. Основным плюсом использования этого адаптера является низкое потребление электричества. Явный минус — невысокая производительность.

Если говорить о дискретном видеоадаптере, то он даёт куда больше возможностей. Дискретный адаптер подключается отдельно, при этом работает он по аналогичным с видеокартой для ПК принципам. В этом случае можно получить отличную производительность, хотя и тратится больше энергии.

Существует ряд методов, воспользовавшись которыми на ноутбуке можно отключить интегрированную карту или активировать только одно из двух подключённых к прибору. Это используется для того, чтобы поиграть в игру с высокими требованиями к графике, или для работы со специальными программами. Итак, переключать карты можно:

  1. При помощи особого ПО, которое устанавливается вместе с драйверами;
  2. Воспользовавшись инструментами Windows (диспетчер устройств);
  3. Посредством UEFI или BIOS.

Диспетчер устройств

В ОС Windows существует возможность поменять активный видеоадаптер, воспользовавшись диспетчером устройств. Если в настройках отображается две карты, к примеру, NVIDIA GeForce и Intel, достаточно нажать по интегрированному видеоадаптеру правой кнопкой и кликнуть «Отключить». Такое решение попросту отключит на ноутбуке экран. Включить его обратно можно, выполнив перезагрузку.

Метод используется в редких целях пользователями, которые точно знают, какого результата они хотят добиться. Использование такого трюка не рекомендуется, если вы используете ноутбук на уровне простого юзера.

Использование BIOS

Метод переключения популярен для настольных ПК, такая опция присутствует практически во всех BIOS системах. Если же говорить о нетбуках, то здесь этот пункт можно отыскать не всегда. Проверить это можно, нажав при загрузке устройства клавишу F2. Для пользователей Windows 8.1 и 8 есть ещё один вариант зайти в БИОС — выбрать пункт «Особые варианты загрузки» в разделе восстановления параметров ПК (через саму систему).

В большинстве случаев переключение активной видеокарты для ПК выполняется в разделе БИОСа Peripherals. Что касается ноутбуков, то этот параметр зачастую помещают в ветку Config либо Advanced. Специалисты рекомендуют искать пункт, который можно отнести к конфигурации графики.

Параметры настройки для смены интегрированного адаптера также могут отличаться. Для одних устройств достаточно кликнуть по полю «Disabled» («Отключено»), для других — переместить необходимую сейчас карту на первую позицию в списке.

БИОС на разных приборах может отличаться, но основная суть общая для всех.

Применение программ для работы с видеокартами

В процессе установки драйверов для дискретного видеоадаптера устанавливаются и специальные программы, которые позволяют настроить работу того или иного элемента. Такими программами называют Catalyst Control Center и NVIDIA Control Center.

Необходимый пункт для карт NVIDIA в этой программе имеет название «Параметры 3D». Саму программу удастся запустить, если нажать в любом свободном месте рабочего стола правую кнопку мыши и выбрать «Панель управления NVIDIA». Ещё один способ – найти её в трее, возле часов. Порядок действий для переключения выглядит так:

  • Выбрать пункт «Управление параметрами 3D»;
  • нажать на «Программные настройки»;
  • добавить нужный *.exe файл. Для этого пропишите к нему путь, выбрав параметр «Добавить».

Теперь при запуске игры система будет переключать вас на дискретный видеоадаптер.

Воспользовавшись утилитой Catalyst, разработанной для карт Radeon/AMD с процессором Intel, также можно переключать карточки с интегрированной на дискретную. Достаточно найти в системном трее значок с этой программой и кликнуть по нему. Затем выберите пункт «Переключаемые графические адаптеры» в разделе «Питание». Следующий шаг – указать путь к файлу, который должен запускаться на другой видеокарте (пункт «Другие приложения»). Для аналогичных карт, работающих под контролем процессора AMD, разработана утилита AMD VISION. Найти её можно в правом нижнем углу возле часов. Здесь всё предельно просто:

  • Выберите «Производительность»;
  • нажмите на Dual Graphics;
  • кликните по «Отключить», сохраните изменения.

nastroyvse.ru


Смотрите также