Меню

Gtx 970 как подключить питание



Подключаем видеокарту к блоку питания

Некоторые модели видеокарт требуют подключения дополнительного питания для корректной работы. Связано это с тем, что через материнскую плату невозможно передать столько энергии, поэтому соединение происходит напрямую через блок питания. В этой статье мы подробно расскажем, как и с помощью каких кабелей осуществлять подключение графического ускорителя к БП.

Как подключить видеокарту к блоку питания

Дополнительное питание для карт требуется в редких случаях, в основном оно необходимо новым мощным моделям и изредка старым устройствам. Прежде чем вставлять провода и запускать систему необходимо обратить внимание на сам блок питания. Давайте рассмотрим эту тему более детально.

Выбор блока питания для видеокарты

При сборке компьютера пользователю необходимо учитывать потребляемое им количество энергии и, исходя из этих показателей, подбирать подходящий блок питания. Когда система уже собрана, а вы собираетесь обновить графический ускоритель, то обязательно проведите расчет всех мощностей, включая новую видеокарту. Сколько потребляет GPU, вы можете узнать на официальном сайте производителя или в интернет-магазине. Убедитесь в том, что вы подобрали блок питания достаточной мощности, желательно, чтобы запас был примерно 200 Ватт, ведь в пиковых моментах система потребляет больше энергии. Подробнее о подсчетах мощности и выбор БП читайте в нашей статье.

Подключение видеокарты к блоку питания

Сначала рекомендуем обратить внимание на свой графический ускоритель. Если на корпусе вы встречаете такой разъем, как приведен на изображении ниже, значит необходимо подключить дополнительное питание с помощью специальных проводов.

На старых блоках питания нет нужного разъема, поэтому заранее придется приобрести специальный переходник. Два разъема Молекс переходят в один шестипиновый PCI-E. Molex подключаются к блоку питания к таким же подходящим разъемам, а PCI-E вставляется в видеокарту. Давайте подробнее разберем весь процесс подключения:

  1. Выключите компьютер и отключите системный блок от питания.
  2. Подключите видеокарту к материнской плате.

  • Используйте переходник в случае отсутствия специального провода на блоке. Если кабель питания PCI-E, то просто вставьте его в соответствующий разъем на видеокарте.
  • На этом весь процесс подключения окончен, осталось только собрать систему, включить и проверить правильность работы. Понаблюдайте за кулерами на видеокарте, они должны запуститься практически сразу после включения компьютера, а вентиляторы будут крутиться быстро. Если возникла искра или пошел дым, то немедленно отключите компьютер от питания. Возникает данная проблема только тогда, когда не хватило мощности блока питания.

    Видеокарта не выводит изображение на монитор

    Если после подключения вы запускаете компьютер, а на экране монитора ничего не отображается, то не всегда об этом свидетельствует неправильное подключение карты или ее поломка. Мы рекомендуем ознакомиться с нашей статьей, чтобы понять причину возникновения подобной неполадки. Там приведено несколько способов ее решения.

    В этой статье мы подробно рассмотрели процесс подключения дополнительного питания к видеокарте. Еще раз хотим обратить ваше внимание на правильность подбора блока питания и проверке наличия необходимых кабелей. Информация о присутствующих проводах находится на официальном сайте производителя, интернет-магазине или указывается в инструкции.

    Источник

    GTX 970 и подключение доп питания

    Вообщем купил новую видео карту — nVidia GeForce GTX970 Gigabyte WindForce 3X PCI-E 4096Mb (GV-N970G1 GAMING-4GD), старая GeForce GTX670.

    Не уверен в правильности подключения дополнительного питания — я просто вставил в новую карту источники питания как стояли на предыдущей (от блока питания для видеокарты на моем БП есть специальные разъемы 6pin+2 отсоеднияющихся + такой же 6pin+2 отсоединяющаяся). В новой видеокарте разъемы для доп питания 6+8.

    Компьютер запустился нормально, драйвера поставил новые, но в игре на фул графики видеокарта начала потрескивать как бы, кроме того компьютер перезагружается и пишет ошибку «power supply surges detected during the previous power on ASUS Anti — surge was triggered to protect system from unstuble power supply unit». у меня когда-то была такая ошибка из-за недостаточно мощного БП, но сейчас БП толи 600, толи 750 вт, в любом случае он соответствует минимальным требованиям новой карты, кроме того при сравнении 670 и 970 последняя потребляет даже меньше энергии.

    Далее что удивительно с каждым новым запуском компа и игры треск становился меньше, потом вообще пропал, а компьютер не перезагружался все дольше и дольше.

    Потом я посмотрел что с видеокартой шли 2 переходника, но по идеи они не нужны если у БП есть свои разъемы для 6 и 8 пин, я сравнил их и заметил что в разъемах от БП есть везде металлические «штучки», а в разъемах 6 и 8 pin переходников для видео карты не везде, у 6 одна пустая, у 8 две пустые. Надеюсь я понятно объяснил. То есть может быть я давал карте лишнее питание так как 6+8pin от БП были заполненны металлическими основаниями полностью, а те переходники в комплекте с видеокартой нет и из-за этого выключался компьютер в игре на макс настройках?

    Замечу что при выключение компьютера все показатели температуры были в норме, процессор 44, видео 60-64 градусов.

    Вообщем я подключил доп питание видеокарты через переходники, которые были к ней (как на фото), к БП, но проблема в том что таким образом задействованны все 4 провода от БП, то есть ничего другого если надо будет я уже подключить не смогу, а проводы от БП специально для доп питания видео карт 6+2 + 6+2 остаются не задействованны. Комп мин 15 работал нормально, в игре на фул не выключался, потом пошел спать, сегодня после работы буду тестить.

    Читайте также:  Правильное питание при кишечной непроходимости

    Может кто что подсказать или посоветовать? Что за треск было в начале работы видео карты, который потом потихоньку начал пропадать и исчез?

    Источник

    БП для GTX 970

    Да,только нормального,а не совсем убогого.

    Минимальная мощность блока питания, Вт 500,а также поддерживать 6-контактный и 8-контактный кабели питания PCIe.

    убогость определяется производителем или какими то другими осязаемыми параметрами?

    Лучше взять 600 и не забивать голову, не каждый тот блок питания на 500В который дает 500В))

    дело в том что у меня стоит БП на 500Вт и gtx 760, которая вроде бы кушает больше энергии чем 970, в общем то хотел узнать про подводные камни, но получается что если сейчас всё норм то и с новой видеокартой будет всё кул

    Желательно всё-же взять на 600 W.

    Норм, это же нвидия, они выпускают самые лучшие и маложрущие карты.

    я не понимаю такие сообщения. если железо будет работать и на 500вт то чем предпочтительниее брать 600вт? производительность? надежность?

    тоже завтра ,буду заказывать gtx 970,думаю взять от strix

    я читал, что 970я вроде даже при пиковых нагрузках не более 250 ватт требует, но конечно еще процессор может у тебя 150 вт или кулеров много

    Энергопотребление
    up to 225W1 additional 8 pin PCIe power required

    по остальным компонентам тоже на официальном сайте посмотри.

    есть еще калькуляторы разные типа http://ru.msi.com/power-supply-calculator/
    но там обычно надо еще добавлять, они как то по минимум считают

    Карта под нагрузкой около 200Вт максимум будет есть, под разгоном теоретически возможно 225. Проц будет потреблять, допустим, 120, плюс мать и вентили с другими мелочами. Выходит около 400Вт в сумме. 500Вт хорошего БП хватит. Но я бы на 600 взял, чтобы БП работал на 60% своей мощности.

    Источник

    NVIDIA GTX 970 — практика ущербности, часть 2

    Всем привет! Это третья, заключительная часть материала о производительности видеокарты NVIDIA GTX 970. В первой части мы говорили о поколениях видеочипов, внутреннем устройстве GTX 970 и причинах шума на тему трёх с половиной гигов, во второй — изучали, насколько это виляет на производительность и что намерили всякие железячные издания, а сегодня займёмся непосредственно испытаниями и посмотрим, в чём GTX 970 хороша, а в чём — не очень.

    Тестовое оборудование

    Для тестов я использовал свой личный ПК: Core i7-3930K (6 ядер @ 4.2 ГГц), 16 гигабайт достаточно редкой памяти Kingston HyperX Beast 2400 МГц в четырёхканальном режиме (быстрее на DDR3 сложно что-либо найти), все игрушки и бенчмарки стояли на PCI-Express SSD диске, чтобы минимизировать влияние остальных компонентов на результаты тестов). Всё это дело подключено к монитору с разрешением 2560х1440 точек. Как видите, упираться особо не во что: игрушек с 64 битной архитектурой и бинарниками — кот наплакал, а остальным, по идее, должно всего хватать. Разумеется, все обновления, патчи, драйвера, хотфиксы и всё такое стояло самое свежее, прямо с грядки.

    В качестве подопытного я использовал ASUS STRIX GTX 970: видеокарту с потрясающе тихой системой охлаждения и отличным железом.

    На чём тестируем?

    Во что там у нас нынче молодёжь играет? А то я слышал, что Battle City из моды немного вышел… В общем, для теста выбраны следующие игры:

    • Batman: Arkham origins
    • Battlefield 4
    • Bioshock Infinite
    • Company of Heroes 2
    • Crysis 3
    • Diablo 3
    • Far Cry 3
    • Far Cry 4
    • Metro: Last Light
    • Tomb Raider (2013)

    Во всех случаях будут применяться максимально возможные настройки графики с отключённой вертикальной синхронизацией и активным сглаживанием х4. Всякие Frame Limiter’ы и прочие «сглаживатели» были выключены, после каждого теста видеокарта остывала до нормальных температур а система перезагружалась.

    Специальный гость — игра, которые не отличаются фантастической графикой или оптимизацией, но может задать жару многим GPU при определённых условиях. Нам она нужна чтобы показать некоторые узкие места архитектуры Maxwell. Использовать будем Dark Souls 2 и выполнять downscale с разрешения 3840×1260 до 2560×1440 и с 5220х2880 до 2560×1440.

    К сожалению, GTA V на момент проведения тестов и написания статьи ещё не скачалась вышла, а после уже не было времени на восстановление тестового окружения, так что простите, в этот раз без неё.

    Результаты тестирования

    Для разрешения 2560х1440 достичь достаточно производительности достаточно сложно. Не так давно (в топике про GTA V) я нашёл человека, для котого «ниже 60 FPS — безумные лаги). Что ж, у каждого вкусы свои, но я считаю, что 30 FPS на таком разрешении с одной видеокартой — вполне играбельный вариант, особенно если в напряжённых сценах количество кадров в секунду не проседает ниже 25. Вот результаты:

    Как видите, почти все игры на супер-настройках и с четырёхкратным сглаживанием показывают приемлемые результаты, за исключением откровенно прожорливых монстров с так себе оптимизацией: Metro Last Light и Company of Heroes 2 ожидаемо стали аутсайдерами чартов.

    Что касается потребления памяти, то «выйти» за трёх с половиной гигабайтовый рубеж удалось только в Battlefield 4 и Far Cry 4, (видимо, магия цифры 4, не иначе). Crysis и Metro даже близко не подошли: самые сложные сцены с трудом занимали 3.2 ГБ видеопамяти.

    Читайте также:  Культура питания вне дома

    Maxwell бонусы

    Помните самый первый пост про GTX 970? Там мы рассматривали все пост-DX9 видеокарты NVIDIA и отметили, что вот уже три поколения как компания бьётся над энергоэффективностью своих чипов. С одной стороны — дело благородное, с другой — на десктопах особо потреблением можно не запариваться: чай, не от батарейки работаем. С другой — если уменьшить энергопотребление и тепловыделение, то в рамках того же теплопакета можно будет выжать больше производительности. И именно в этом Maxwell превзошёл как прошлые поколения, так и красно-белых конкурентов.

    Дело в том, что энергоэффективные чипы GM-204 имеют теплопакет 165 Ватт. А ещё имеют технологию автоматического разгона: пока температура позволяет, а нагрузка — соответствует, частота ядра повышается в определённых разумных пределах. Соответственно, чем надёжнее цепи питания, лучше охлаждение, выше базовая частота чипа и памяти — тем больших результатов может достичь видеокарта на архитектуре Maxwell под нагрузкой: тем самым уменьшая просадки в FPS и увеличивая средний frame rate. Эдакий аналог Intel’овского Turbo Boost.

    Штатные частоты моей видеокарты составляли:
    Ядро, Normal — 1114 МГц
    Ядро, Boost — 1253 МГц
    Память: 7010 (1752.5 х4) МГц

    После некоторого шаманства с софтовым поднятием напряжения, проверкой на стабильность и прочих ухищрений удалось получить следующие результаты:

    Ядро, Normal: 1333 МГц
    Ядро, Boost: 1490 МГц
    Память: 8000 (2000 х4) МГц

    Как это сказалось на производительности? Самым лучшим образом:

    Почти везде графики перевалили за рубеж «комфортных» 25 FPS. Забавно, но разгон совершенно не сказался на производительности Diablo 3: видимо, либо какой-то внутренний лимитер всё же действует, либо игра упирается во что-то другое. А кривую Company of Heroes 2 даже разгон не спас, как были унылые результаты, так и остались.

    Вот сравнение минимальной частоты кадров:

    Здесь прирост наиболее важен и заметен: в самый напряжённых сценах исчезли микрофризы и подлагивания, в целом картинка стала плавнее.

    Средняя частота кадров тоже подросла, но не так сильно, и в целом прирост производительности, скорее, характерен для очень нагруженных сцен, чем для общей динамики:

    А теперь самое главное. Что с разгоном, что без — видеокарта удивительно тихая. Нет, конечно, через час-другой игры в Crysis 3 с такими настройками будет некоторый фоновый шум, но ни в какое сравнение не идёт с шумом и нагревом монстров прошлого поколения типа AMD HD7970, GTX 780 и уж тем более воем референсных турбин. В этом плане ASUS молодцы и сделали отличную систему, которая не шумит и выполняет свою работу на пять с плюсом.

    Личное мнение

    В прошлом посте отдельно жаловались на Far Cry 4, мол, если игра всё же выползает за 3.5 ГБ, то начинаются всякие микрофризы, лаги, выпадения кадров, а на записи и вообще кошмар творится (вторая половина ролика):

    В игре такой красоты с выпавшими кадрами и размазанными цветными пятнами вы не увидите, просто будет незначительная потеря плавности картинки. В том же Crysis 3, если его удаётся вывести за пределы потребления 3.5 ГБ видеопамяти вообще таких проблем не наблюдается и просадка производительности практически не видна, особенно если смотреть в прицел и наслаждаться геймплеем, а не пялиться в FPS-метр, ловить кратковременное падение производительности, делать скриншот и бежать на форум, жаловаться на то, какая NVIDIA плохая. 🙂

    Для разрешения 2560х1440 и 2560х1600 видеокарты хватает во всех играх: если, конечно, вас устраивает средний показатель в 30-40 FPS. Само собой, для 4K2K видеокарты не хватает, и дело здесь не в памяти, а в самих вычислительных возможностях видеоядра. В качестве 4К2К теста я использовал Dark Souls 2 с патчем на даунскейл графики. Сам по себе Dark Souls не блещет ни графикой, ни системными требованиями. На средне-высоких настройках можно спокойно играть в FullHD разрешении с мобильной видеокартой GT650M и 1 ГБ видеопамяти. Основная нагрузка в данном случае ложится на GPU, а не на видеопамять: так как никаких супер-сложных спецэффектов не применяется, постобработка достаточно примитивная, а сама игра разрабатывалась с учётом возможностей консолей прошлого поколения (для тестов использовалась первая версия, без Scholar of the First Sin). С даунскейлом 3840х2160 до 2560х1440 NVIDIA GTX 970 выдаёт уверенных 15-18 FPS, с разгоном — 16-19. То же упражнение, но с разрешением 5120х2880 вовсе приводит к удручающим 12-14 FPS.

    Для сравнения, старый AMD HD7970 с 3 ГБ видеопамяти и работающий с небольшим разгоном (1024 МГц ядро, 5600 (1400х4) МГц память) уверенно выдаёт 25-30 FPS для разрешения 3840х2160 точек и 20-22 FPS для 5120х2880.

    Почему так происходит

    Во-первых, архитектура видеоускорителей AMD и NVIDIA сильно отличается как с точки зрения «общей философии», так и в некоторых частных подходах.

    Видеокарта GeForce GTX 970 имеет базовую частоту ядра 1050 МГц и 4 гигабайта памяти GDDR5, работающую на частоте 1750х4 МГц, подключённую по 256-битной шине, разбитой на 8 сегментов по 32 бита каждый. Общий блок в 3.5 ГБ подключён через 224-битный сегмент, дополнительные 512 МБ подключены через 32-битный сегмент, что и является причиной замедления работы видеокарты, когда приложения вылезают за пределы 3.5 ГБ видеопамяти.

    Читайте также:  Раздельное питание что лучше есть днем

    Ядро видеокарты Radeon R9 280X, работает на частоте в 1000 МГц и использует память 1500х4 МГц, подключённую по 384-битной шине. Она хоть и разделена на 6 двухканальных 64-битных блоков, но ни один из них не отключён, так что вся память доступна на полной скорости, пусть её и всего 3 ГБ.

    Напрямую сравнивать характеристики (например, число TMU — texture mapping units) нет смысла: различная архитектура, частота работы и прочие особенности не могут наглядно отобразить превосходство той или иной видеокарты. Если приводить абстрактную аналогию: что больше займёт места — 20 ящиков какого-то неизвестного объёма или 30 ящиков немного другого? Только измерив объёмы и умножив на число ящиков мы можем точно ответить на данный вопрос.

    Так что для актуального сравнения видеокарт лучше подставим показатели производительности R9 280X (она же 7970 1GHZ Edition) и GTX 970: они уже приведены к общему знаменателю и имеют одинаковую размерность. В обоих случаях будем сравнивать референсные значения стандартных ускорителей, а не разогнанных экземпляров различных вендоров.

    R9 280X GTX 970
    Производительность GPU, ГФЛОПС: 3, 482 3, 494
    Пропускная способность памяти, МБ/сек.: 288 000 224 000
    Скорость заполнения
    пиксельная, МП/сек.: 27 200 58 800
    текстурная, МТекс./сек.: 108 800 109 200

    Как видите, основное отличие производительности в области пиксельной скорости заполнения. Она отвечает за превращение полученных вычислений в готовый кадр: чем выше пиксельная скорость заполнения (pixel fill rate), тем, по идее, быстрее видеокарта может превращать «магию» в двухмерные картинки, которые можно отправлять монитор. Было бы что отправлять, и в этом кроется весь секрет. Если мы запускаем игрушку на невысоком разрешении, скажем, 1280х800, нагрузка на память и вычислительные ядра не высока: количество готовых кадров зашкаливает и видеокарта, допустим, может выдавать 100 или даже 200 FPS в простых сценах, если сможет превратить всё то, что она насчитала в двухмерную картинку и отправить её на монитор.

    Если же мы запускаем игры в высоком разрешении, то каждый кадр становится намного сложнее в расчётах, кадровая частота снижается, а на ROP’ы (модули видеокарты, которые отвечают за перевод картинки в плоский кадр) ложится дополнительная нагрузка: есть разница, считать 1280х720=921 600 точек или 2560х1440=3 686 400 точек. Частота вывода готовых кадров падает, но падение производительности на всех предыдущих этапах сильнее, чем дополнительные потери на ROP’ах, и поэтому на невысоких разрешениях большие показатели pixel fill rate дают огромный прирост к результатам бенчмарков, а на всяких SuperUltraHD и 4K2K игры упираются в производительность самой видеокарты, а не выводящих картинку модулей, и результаты выравниваются.

    Видеокарта от AMD отличается более высокой пропускной способностью памяти (показатели отличаются почти на 30%) и меньшим её объёмом (3 ГБ против 3.5+0.5 у GTX 970), сравнимой производительностью ядра, чуть большим количеством шейдерных процессоров. Именно здесь красно-белые и выиграли у чёрно-зелёных: производительности ROP’ов оказалось достаточно, а вот бонусы в лице высокой пропускной способности памяти и большем количестве вычислительных блоков сделали свою работу: при штатных частотах и высокой нагрузке HD 7970 или R9 280X смогла обогнать GTX 970. С поправкой на то, что игра не требовала больше 3 ГБ видеопамяти. Правда, цена этого превосходства — чудовищное энергопотребление Radeon’ов, и, как следствие, высокий нагрев, не самый приятный акустический режим работы и так себе разгон.

    Итоги

    GTX 970 — отличная видеокарта, которая позволит вам играть пару-тройку лет на высоких настройках во что угодно. Ущербной её назвать язык не поворачивается. 4К2К мониторов пока мало, оптимизация под них так себе, игровые движки развиваются… В общем, через несколько лет будет польза от всех этих нововведений и улучшений архитектуры. Если же вам нужна видеокарта сегодня… Что ж, для разрешения 1920х1080 и 2560х1440 GTX 970 отлично подходит. Она тихая, отлично гонится, не занимает много места и не требует супер навороченный блок питания.

    Что касается памяти и споров 4 гигабайта или 3.5 — знаете, если бы NVIDIA вообще заблокировала этот кусок памяти и написала на видеокарта 3.5 ГБ — было бы намного хуже. Будь я на месте высокого начальства — продавал бы видеокарты с заявленными 3.5 ГБ и фактическими 4, такими, какие они есть сейчас. Как только это бы вскрылось — фанаты бы на руках носили компанию, мол, дарят 512 памяти. Пусть и не быстрой. Но дарят. На халяву! Ну а производительность… честно, в пылу сражений Battlefield’а или Far Cry вы не увидите разницу между «очень высокими» настройками текстур и просто «высокими», и никогда не увидите оверхэд. А во всех остальных играх можно смело ставить максимум. 🙂

    А для фанатов bleeding edge технологий, 4К2К и прочих прелестей неограниченных бюджетов есть всякие Titan’ы и прочие R9 295X2. Пусть покупают и радуются. 🙂

    Выводы

    Выводы каждый волен делать самостоятельно. Как по мне, так истерика с памятью в GTX 970 была надуманной: на производительности это практически не сказывается, а будущее обновление драйверов и патчи к играм позволят что-нибудь подшаманить таким образом, чтобы владельцы GTX 970 не испытывали вообще никаких неудобств.

    Что касается соотношения цены и производительности, то здесь, мне кажется, вариант с R9 280X… куда вы меня тащ…

    Источник