Меню

Gtx 280 как подключить питание



БП для 280 GTX

Хватит нормального 500 ватт , на 600 ватт с большим запасом.

Не рискуй, возьми лучше ватт на 600-650.

Guide
ЛОЛ! Тогда этой системе и 400ватт хватит, да ещё и запас останеться. такой бред!

Лол. Ты здесь чего самый умный ? Я данные же не с потолка беру , а привёл ссылку для человека и заодно для такого умника как ты. Нормального БП 500 ватт хватит легко , а 600 ватт — это чтобы с запасом.

Оо них себе. То что ты ссылку привёл её уже все давно перетрли со всех сторон, и видели её уже практически все! На счёт умника ты бы помолчал, и свою остроту попредержи. Да и то что ты автору пытаешся доказать что 500ватт ему хватит и тут же приводишь ссылку что система с разгоном употребляет не более 350в не лучший пример, с такими советами лучше вообще молчать!

Так товарищ найди БП на 400 ватт как ты сказал , который сможет выдержать постоянную нагрузку 350ватт из них 330-340 будут приходиться на линию 12v. Даже если какой-то 400-ваттник и выдержит то недолго , при этом будет жужжать хуже пылесоса , поэтому нужно брать нормальный 500 ваттник для полной стабильности и комфорта для ушей.

Если ты не понял моего сарказма, то я поясню тебе!
По выше указанной ссылке(тобой) ты указал что система с разгоном потребляет, не больше 350в, а я своим постом хотел сказать что не лучший пример приводить ссылку на то что система потребляет НН количество ватт и упор делать именно на это!
Я просто советую автору перестраховаться и взять ватт на 600-650, что бы потомо не вышло так что через пару дней будет «тема» от автора что мой ПиСи постоянно ребутиться и от чего это может происходить!
ПС: В моих постах речь вообще не шла о рекомендациях в сторону БП на 400в.

Я прекрасно понял что ты хотел сказать , я к тому и привёл ссылку что ситема потребляет 350 ватт и что для нормального и стабильного функционирования его системы хватит хорошего БП на 500 ватт например Thermaltake purepower RX , его будет более чем достаточно для его Core 2 duo 3Ghz + GTX280 (тут максимум потребление составит 300 ватт ) , а 600 ватт если он вдруг в будущем захочет поставить 4 ядра + несколько хардов и прочее.

Кстати из приведенной Гайдом ссылки:
Тестовый конфиг:
.
Блок питания: Thermaltake Toughpower 1500 Ватт (W0218) (штатный 140-мм вентилятор)

Хочется спросит. А чЁ не честный 450W? Ведь хватило бы 😉

Я думаю врядли кому-то хочется так рисковать 🙂 Ведь можно спалить не только БП , а много чего ещё .

С головой? Это с головой по «минимуму»!

Я о чём и говорю, зачем рисковать под такую карту(систему) брать Бп по минимуму.

Я думаю врядли кому-то хочется так рисковать
Воооттт.
То есть запас нужен.
Соответственно, если у человека сть деньги и он готов купить качественный БП с запасом, то зачем ему советовать намного менее мошный?

Вопрос был:
Какой блок надо для этой видухи минимум,или самый оптимальный вариант?
Отсюда. 450W жто уже риск, следовательно 500W это минимум, а самый оптимальный вариант будет в районе 600W.

Источник

Gtx 280 как подключить питание

Сообщений: 1164
Регистрация: 3.2.2004

В интернете полно описаний блоков питания, не говоря уже о подробном разборе всех их плюсов и минусов. Выбираем любую модель без защиты от перебора ампер на линии 12 В и все будет работать.

ЗЫ Любительским форумам не всегда можно верить. Например цитата по вашей ссылке:

«Проверил напряжения на обоих разъёмах доп.питания, как отключенных (т.е. при установленной маломощной старой видюхе), так и подключенных к новой карте. Оно практически одинаково — 12,13 В. Такое впечатление, что GTX 280, будучи установлена в материнку, вообще не потребляет ни ватта энергии! Т.е., мощность блока питания тут как бы и не причём.»

Тут как бы человек похоже вообще не понимает разницы между Вольтами и Ваттами, и тем более организации питания компьютера. У него видители на разных видеокартах на 12 В линии напряжение не меняется — и это значит потребление мощности у них одинаковое. Офигеть какой вывод, человечек перевернул мои представления об электричестве

Сообщений: 569
Регистрация: 29.8.2004
Из: Зеленоград

Сообщений: 137
Регистрация: 19.1.2009

В интернете полно описаний блоков питания, не говоря уже о подробном разборе всех их плюсов и минусов. Выбираем любую модель без защиты от перебора ампер на линии 12 В и все будет работать.

ЗЫ Любительским форумам не всегда можно верить. Например цитата по вашей ссылке:

«Проверил напряжения на обоих разъёмах доп.питания, как отключенных (т.е. при установленной маломощной старой видюхе), так и подключенных к новой карте. Оно практически одинаково — 12,13 В. Такое впечатление, что GTX 280, будучи установлена в материнку, вообще не потребляет ни ватта энергии! Т.е., мощность блока питания тут как бы и не причём.»

Тут как бы человек похоже вообще не понимает разницы между Вольтами и Ваттами, и тем более организации питания компьютера. У него видители на разных видеокартах на 12 В линии напряжение не меняется — и это значит потребление мощности у них одинаковое. Офигеть какой вывод, человечек перевернул мои представления об электричестве

Источник

Как подключить видеокарту к блоку питания?

Как подключить видеокарту к блоку питания?
Видеокарте нужно дополнительное питание, указано 8pin+6pin (PowerColor Radeon R9 280X). Что это.

Как подключить 8 мониторов к одному системному блоку?
Как подключить 8 мониторов к одному системному блоку?

Требования видюхи к блоку питания
моя конфигурация на данный момент: мама-GA 8IPE1000. ОЗУ-1,5 Гб DDR 3200. проц.-Pentium 4 3Ггц.

Как ни странно, при отключенной и вытащенной видеокарте раздается все те же сигналы. Изображение не появляется(

Читайте также:  Академ парк спортивное питание

Добавлено через 7 минут

Короче, брат, это не видеокарта, а оперативная память тебя долбит. Попробуй устанавливать мать по одной планке и определить, какая из них вызывает бздение БИОС. Фот и фсё.

Добавлено через 1 минуту
Только в инструкции к матери почитай, в какой слот надо вставлять память, если ты используешь одну плашку.

Короче, брат, это не видеокарта, а оперативная память тебя долбит. Попробуй устанавливать мать по одной планке и определить, какая из них вызывает бздение БИОС. Фот и фсё.

Добавлено через 1 минуту
Только в инструкции к матери почитай, в какой слот надо вставлять память, если ты используешь одну плашку.

Опечаточка.
То есть к той планке что работала на встоенной видяхе подкидываешь видяху внешнюю и комп начинает пищать?Ты кабель от моника во внешнюю подключаешь?

Добавлено через 1 минуту
Как это не пищит если.

Заказываю контрольные, курсовые, дипломные и любые другие студенческие работы здесь.

Подключение ASUS GTX 670 к блоку питания CORSAIR CX750M
Всем привет.Подскажите,как подключить ASUS GTX 670 к блоку питания CORSAIR CX750M?Достаточно ли.

Как подключить видеокарту GTX 770 к БП
Доброго времени суток,уважаемые форумчане! Хочу приобрести видеокарту Palit GTX770 JetStream.

Как подключить видеокарту zotac Geforce gts250?
Приветствую.Ребят купил видеокарту zotac Geforce gts250. Как её подключить?В разьем.

Как подключить видеокарту в Hewlett-Packard 2B28?
В общем, столкнулся я с такой проблемой, не знаю куда можно или даже нужно подключить видеокарту на.

Источник

Подключаем видеокарту к блоку питания

Некоторые модели видеокарт требуют подключения дополнительного питания для корректной работы. Связано это с тем, что через материнскую плату невозможно передать столько энергии, поэтому соединение происходит напрямую через блок питания. В этой статье мы подробно расскажем, как и с помощью каких кабелей осуществлять подключение графического ускорителя к БП.

Как подключить видеокарту к блоку питания

Дополнительное питание для карт требуется в редких случаях, в основном оно необходимо новым мощным моделям и изредка старым устройствам. Прежде чем вставлять провода и запускать систему необходимо обратить внимание на сам блок питания. Давайте рассмотрим эту тему более детально.

Выбор блока питания для видеокарты

При сборке компьютера пользователю необходимо учитывать потребляемое им количество энергии и, исходя из этих показателей, подбирать подходящий блок питания. Когда система уже собрана, а вы собираетесь обновить графический ускоритель, то обязательно проведите расчет всех мощностей, включая новую видеокарту. Сколько потребляет GPU, вы можете узнать на официальном сайте производителя или в интернет-магазине. Убедитесь в том, что вы подобрали блок питания достаточной мощности, желательно, чтобы запас был примерно 200 Ватт, ведь в пиковых моментах система потребляет больше энергии. Подробнее о подсчетах мощности и выбор БП читайте в нашей статье.

Подключение видеокарты к блоку питания

Сначала рекомендуем обратить внимание на свой графический ускоритель. Если на корпусе вы встречаете такой разъем, как приведен на изображении ниже, значит необходимо подключить дополнительное питание с помощью специальных проводов.

На старых блоках питания нет нужного разъема, поэтому заранее придется приобрести специальный переходник. Два разъема Молекс переходят в один шестипиновый PCI-E. Molex подключаются к блоку питания к таким же подходящим разъемам, а PCI-E вставляется в видеокарту. Давайте подробнее разберем весь процесс подключения:

  1. Выключите компьютер и отключите системный блок от питания.
  2. Подключите видеокарту к материнской плате.

  • Используйте переходник в случае отсутствия специального провода на блоке. Если кабель питания PCI-E, то просто вставьте его в соответствующий разъем на видеокарте.
  • На этом весь процесс подключения окончен, осталось только собрать систему, включить и проверить правильность работы. Понаблюдайте за кулерами на видеокарте, они должны запуститься практически сразу после включения компьютера, а вентиляторы будут крутиться быстро. Если возникла искра или пошел дым, то немедленно отключите компьютер от питания. Возникает данная проблема только тогда, когда не хватило мощности блока питания.

    Видеокарта не выводит изображение на монитор

    Если после подключения вы запускаете компьютер, а на экране монитора ничего не отображается, то не всегда об этом свидетельствует неправильное подключение карты или ее поломка. Мы рекомендуем ознакомиться с нашей статьей, чтобы понять причину возникновения подобной неполадки. Там приведено несколько способов ее решения.

    В этой статье мы подробно рассмотрели процесс подключения дополнительного питания к видеокарте. Еще раз хотим обратить ваше внимание на правильность подбора блока питания и проверке наличия необходимых кабелей. Информация о присутствующих проводах находится на официальном сайте производителя, интернет-магазине или указывается в инструкции.

    Источник

    Обзор новой топовой видеокарты ASUS GeForce GTX 280 c 1 ГБ видеопамяти

    В сегодняшней статье пойдет речь о самом современном и самом мощном в мире графическом чипе от компании NVIDIA под кодовым названием GT200 и о видеоадаптере, выполненным на его основе, GeForce GTX 280. Мы постараемся рассмотреть все наиболее интересные его особенности, новшества и отличия от предыдущих чипов, а также протестировать производительность в равных условиях и сравнить с конкурентами.

    Но не все сразу, давайте немного вернемся во времени и отследим историю развития графических чипов. Ни для кого не секрет, что вот уже много лет на рынке графических плат конкурируют две компании: ATI (в настоящем выкупленная AMD и имеющая брэнд AMD Radeon) и NVIDIA. Конечно, присутствуют и мелкие производители, такие как VIA со своими чипами S3 Chrome или Intel с интегрированными видеоадаптерами, но моду всегда диктовала именно конфронтация ATI (AMD) и NVIDIA. И что примечательно, чем сильнее была эта конфронтация или даже не побоимся этого слова «холодная война», тем сильней шагал вперед научно-технический прогресс, и тем большую выгоду получали конечные пользователи – то есть мы с вами. Ведь одним из механизмов борьбы за кошельки пользователей является техническое превосходство продуктов одного из производителей, а другим – ценовая политика и соотношение цена/возможности. Кстати, нередко второй механизм оказывается намного эффективней первого.

    Когда одна сторона заметно превосходит конкурента в техническом плане, второму ничего не остается кроме как выдвинуть еще более прогрессивную технологию или же «играть ценами» на уже имеющиеся продукты. Наглядный пример «игры ценами» — конкуренция между Intel и AMD в области центральных процессоров. После анонса архитектуры Core 2, AMD не смогла противопоставить что-то более совершенное и поэтому, чтобы не терять долю рынка, вынуждена была снижать цены на свои процессоры.

    Читайте также:  Правильное питание при лимфолейкозе

    Но есть и примеры другого характера. В свое время компания ATI выпустила очень удачную линейку продуктов семейства X1000, которая появилась очень вовремя и очень понравилась многим пользователям, причем, у многих до сих пор стоят видеокарты типа Radeon X1950. NVIDIA тогда не имела в своем распоряжении достойного ответа, и ATI удалось где-то на полугодие просто «выбить» NVIDIA из игры. Но надо отдать должное калифорнийским инженерам, спустя немного времени они выдали на-гора принципиально новое в технологическом плане решение – чип G80 с применением универсальных процессоров. Этот чип стал настоящим флагманом на долгое время, вернул калифорнийской компании пальму первенства и принес рядовым пользователям непревзойденную производительность в играх. Что произошло дальше? А дальше не произошло ничего – ATI (теперь уже под брэндом AMD) не смогла создать что-то более мощное. Ее чип R600 во многом потерпел поражение, заставив канадскую компанию постоянно снижать цены. Отсутствие конкуренции в категории производительных решений позволило NVIDIA расслабится – ведь противников то все равно нет.

    Выход нового флагмана

    Все интересующиеся 3D-графикой долго ждали настоящего обновления архитектуры G80. Разнообразных слухов о следующем поколении чипов хватало всегда, некоторые из них в дальнейшем подтвердились, но в 2007 году мы дождались лишь минорного архитектурного обновления в виде решений на основе чипов G92. Все выпущенные на их основе видеокарты — неплохие для своих секторов рынка, эти чипы позволили снизить стоимость мощных решений, сделав их менее требовательными к питанию и охлаждению, но энтузиасты ждали полноценного обновления. Тем временем AMD выпустила обновленные продукты на базе RV670, которые принесли ей некий успех.

    Но развитие игровой индустрии, новые мощные игры типа Crysis, заставили обе компании разрабатывать новые графические чипы. Только цели у них были разные: у AMD главной целью была борьба за потерянную долю рынка, минимизация затрат на производство и предоставление производительных решений по умеренным ценам, а у NVIDIA была цель сохранить технологическое лидерство, продемонстрировать фантастическую производительность своих чипов.

    Сегодня нам представится возможность подробно рассмотреть результаты работы одной из компаний – самый производительный, самый современный чип GT200 производства NVIDIA, представленный компанией 17 июня 2008 года.

    Архитектурно GT200 во многом перекликается с G8x/G9x, новый чип взял у них всё лучшее и был дополнен многочисленными улучшениями. И сейчас мы переходим к рассмотрению особенностей новых решений.

    Графический ускоритель GeForce GTX 280

    • кодовое имя чипа GT200;
    • технология 65 нм;
    • 1,4 миллиарда (!) транзисторов;
    • унифицированная архитектура с массивом общих процессоров для потоковой обработки вершин и пикселей, а также других видов данных;
    • аппаратная поддержка DirectX 10.0, в том числе шейдерной модели – Shader Model 4.0, генерации геометрии и записи промежуточных данных из шейдеров (stream output);
    • 512-битная шина памяти, восемь независимых контроллеров шириной по 64 бита;
    • частота ядра 602 МГц (GeForce GTX 280);
    • ALU работают на более чем удвоенной частоте 1,296 ГГц (GeForce GTX 280);
    • 240 скалярных ALU с плавающей точкой (целочисленные и плавающие форматы, поддержка FP 32-бит и 64-бит точности в рамках стандарта IEEE 754(R), выполнение двух операций MAD+MUL за такт);
    • 80 блоков текстурной адресации и фильтрации (как и в G84/G86 и G92) с поддержкой FP16 и FP32 компонент в текстурах;
    • возможность динамических ветвлений в пиксельных и вершинных шейдерах;
    • 8 широких блоков ROP (32 пикселя) с поддержкой режимов антиалиасинга до 16 сэмплов на пиксель, в том числе при FP16 или FP32 формате буфера кадра. Каждый блок состоит из массива гибко конфигурируемых ALU и отвечает за генерацию и сравнение Z, MSAA, блендинг. Пиковая производительность всей подсистемы до 128 MSAA отсчетов (+ 128 Z) за такт, в режиме без цвета (Z only) – 256 отсчетов за такт;
    • запись результатов до 8 буферов кадра одновременно (MRT);
    • все интерфейсы (два RAMDAC, Dual DVI, HDMI, DisplayPort, HDTV) интегрированы на отдельный чип.

    Спецификации референсной видеокарты NVIDIA GeForce GTX 280

    • частота ядра 602 МГц;
    • частота универсальных процессоров 1296 МГц;
    • количество универсальных процессоров 240;
    • количество текстурных блоков – 80, блоков блендинга — 32;
    • эффективная частота памяти 2,2 ГГц (2*1100 МГц);
    • тип памяти GDDR3;
    • объем памяти 1024 МБ;
    • пропускная способность памяти 141,7 ГБ/с;
    • теоретическая максимальная скорость закраски 19,3 гигапикселей/с;
    • теоретическая скорость выборки текстур до 48,2 гигатекселя/с;
    • два DVI-I Dual Link разъема, поддерживается вывод в разрешениях до 2560х1600;
    • двойной SLI разъем;
    • шина PCI Express 2.0;
    • TV-Out, HDTV-Out, DisplayPort (опционально);
    • энергопотребление до 236 Вт;
    • двухслотовое исполнение;
    • изначальная рекомендуемая цена $649.

    Отдельно отметим, что DirectX 10.1 семейством GeForce GTX 200 не поддерживается. Причиной назван тот факт, что при разработке чипов нового семейства, после консультаций с партнёрами, было принято решение сконцентрировать внимание не на поддержке DirectX 10.1, пока мало востребованного, а на улучшении архитектуры и производительности чипов.

    В архитектуре GeForce GTX 280 произошло множество изменений в сравнении с видеокартами GeForce 8800 GTX и Ultra:

    • В 1,88 раз увеличено число вычислительных ядер (со 128 до 240).
    • В 2,5 раза увеличено число одновременно исполняемых потоков.
    • Вдвое увеличена максимальная длина сложного шейдерного кода.
    • Вдвое увеличена точность расчетов с плавающей запятой.
    • Намного быстрее исполняются геометрические расчеты.
    • Объем памяти увеличен до 1 Гб, а шина – с 384 до 512 бит.
    • Увеличена скорость доступа к буферу памяти.
    • Улучшены внутренние связи чипа между различными блоками.
    • Улучшены оптимизации Z-cull и сжатие, что обеспечило меньшее падение производительности в высоких разрешениях.
    • Поддержка 10-битной глубины цвета.

    Приведём основную диаграмму чипа GT200:

    Основные архитектурные особенности CUDA

    С момента анонса архитектуры Core 2 и ее триумфального шествия, появилась мода среди разработчиков рекламировать кроме названий продуктов еще и названия архитектуры, по которой они выполнены. Не исключением стала и NVIDIA, активно рекламирующая свою архитектуру CUDA (Compute Unified Device Architecture) — вычислительная архитектура, нацеленная на решение сложных задач в потребительской, деловой и технической сферах — в любых приложениях, интенсивно оперирующих данными, с помощью графических процессоров NVIDIA. Преимуществом такого подхода является значительное превосходство, на порядок или даже два, графических чипов над современными центральными процессорами. Но, сразу же, всплывает недостаток – для этого надо разрабатывать специальное программное обеспечение. Кстати, NVIDIA проводит конкурс среди разработчиков ПО под архитектуру CUDA.

    Видеочип GT200 разрабатывался с прицелом на его активное использование в вычислительных задачах при помощи технологии CUDA. В так называемом расчётном режиме, новый видеочип можно представить как программируемый мультипроцессор с 240 вычислительными ядрами, встроенной памятью, возможностью случайной записи и чтения и гигабайтом выделенной памяти с большой полосой пропускания. Как говорят в NVIDIA, в таком режиме GeForce GTX 280 превращает обычный ПК в маленький суперкомпьютер, обеспечивающий скорость почти в терафлоп, что полезно для многочисленных научных и прикладных задач.

    Довольно большое количество наиболее требовательных задач могут быть перенесены с CPU на GPU при помощи CUDA, и при этом удастся получить заметный прирост производительности. На картинке показаны примеры применения CUDA в реальных задачах, приведены цифры, показывающие кратность прироста производительности GPU по сравнению с CPU.

    Как видите, задачи самые разнообразные: перекодирование видеоданных, молекулярная динамика, астрофизические симуляции, финансовые симуляции, обработка изображений в медицине и т.п. Причём, приросты от переноса расчётов на видеочип получились порядка 20-140-кратных. Таким образом, новый видеочип поможет ускорить множество разных алгоритмов, если их перенести на CUDA.

    Одним из бытовых применений расчётов на GPU можно считать перекодирование видеороликов из одного формата в другой, а также кодирование видеоданных в соответствующих приложениях по их редактированию. Компания Elemental выполнила задачу переноса кодирования на GPU в своём приложении RapidHD, получив следующие цифры:

    Мощнейший GPU GeForce GTX 280 отлично показывает себя в этой задаче, прирост скорости по сравнению с быстрейшим центральным процессором составляет более 10 крат. Кодирование двухминутного видеоролика заняло 231 секунду на CPU и всего лишь 21 секунду на GT200. Важно, что применение GPU позволило добиться выполнения данной задачи не просто в реальном времени, но даже и ещё быстрее!

    Впрочем, интенсивные вычисления с помощью современных графических видеокарт давно не новость, но именно с появлением графических процессоров семейства GeForce GTX 200 компания NVIDIA ожидает значительного повышения интереса к технологии CUDA.

    С точки зрения технологии CUDA новый графический чип GeForce GTX 280 это ни что иное как мощный многоядерный (сотни ядер!) процессор для параллельных вычислений.

    Это, пожалуй, наиболее интересный аспект новых видеоадаптеров NVIDIA для обычных пользователей. Хотя он относится не только к новым решениям на основе GT200, но и ко всем видеокартам семейства GeForce 8 и GeForce 9.

    В современных играх грамотно реализованные физические взаимодействия играют важную роль, они делают игры более интересными. Почти все физические расчёты требовательны к производительности, и соответствующие алгоритмы требуют больших объемов вычислений. До определённого времени эти расчёты выполнялись только на центральных процессорах, потом появились физические ускорители компании Ageia, которые хоть и не получили широкого распространения, но заметно оживили активность на этом рынке. Приобрести такие ускорители могли лишь единицы игроков-энтузиастов.

    Но все изменилось, когда компания NVIDIA купила Ageia и вместе с этим получила всю необходимую информацию о PhysX. Именно информацию, так как сами аппаратные устройства ее не интересовали. Надо отдать должное NVIDIA – она взяла правильный курс и приспособила физический движок PhysX под свою архитектуру CUDA и теперь каждый владелец видеокарты с такой архитектурой получает аппаратное ускорение физических процессов в играх путем простого обновления драйверов.

    При работе с мощным видеочипом, PhysX может предложить много новых эффектов, таких как: динамические эффекты дыма и пыли, симуляция тканей, симуляция жидкостей и газов, погодные эффекты и т.п. По заявлениям самой NVIDIA, новые видеокарты GeForce GTX 280 способны работать в 10 и более раз быстрей, чем 4-х ядерные процессоры при работе с PhysX. В настоящее время поддержка PhysX реализована в более чем 150 играх.

    Улучшенная технология управления питанием

    Новый видеочип использует улучшенное управление питанием, по сравнению с предыдущим поколением чипов NVIDIA. Он динамически изменяет частоты и напряжения блоков GPU, основываясь на величине их загрузки, и способен частично отключать некоторые из блоков. В итоге, GT200 значительно снижает энергопотребление в моменты простоя, потребляя около 25 ватт, что очень мало для GPU такого уровня. Решение поддерживает четыре режима работы:

    • режим простоя или 2D (около 25 ватт);
    • режим просмотра HD/DVD видео (около 35 ватт);
    • полноценный 3D режим (до 236 ватт);
    • режим HybridPower (около 0 ватт);

    Для определения загрузки, в GT200 используются специальные блоки, анализирующие потоки данных внутри GPU. На основе данных от них, драйвер динамически устанавливает подходящий режим производительности, выбирает частоту и напряжение. Это оптимизирует потребление электроэнергии и тепловыделение от карты.

    С новшествами и особенностями мы ознакомились – в этом плане NVIDIA добилась поставленной цели, представив совершенно новый графический чип. Но осталась и вторая цель – доказать превосходство в плане производительности. Для этого мы рассмотрим чип GT200 уже воплощенный в виде готовой видеокарты, проведем ее тестирование и сравним всю заложенную в нее мощь с флагманами предыдущего поколения и решениями конкурентов.

    Видеокарта ASUS ENGTX280/HTDP/1G на NVIDIA GeForce GTX 280

    Подогрев интерес к графическому ускорителю, перейдём непосредственно к его обзору, тестированию, сравнению и, естественно, к разгону. Но для начала еще раз спецификация, теперь уже готового серийного ускорителя.

    Источник