Меню

Geforce gtx 280 подключение питания



GeForce 280 GTX: для вас, богатые маньяки!

Я помню времена, когда за флагманские продукты на чипах NVIDIA просили $200, и эта сумма казалась пределом наглости. Но с каждым годом предел отодвигался и отодвигался, так что сегодня никого не возмутишь и пятью сотнями.

И все же новый акселератор GeForce 280 GTX задел за живое даже самых привычных, потому что в начале продаж за него заряжали аж $900, и только спустя месяц цена опустилась до хоть сколько-то разумных $500. С вашего позволения, я не буду подробно останавливаться на технических различиях GeForce 280 с предыдущим одночиповым флагманом – 9800 GTX. Достаточно сказать, что на смену GPU G92, знакомому многим еще по 8800 GT, наконец-то пришел действительно новый чип GT200 с умопомрачительным числом потоковых процессоров, которых насчитывается аж 240. Число транзисторов выросло в два раза – с «жалких» 754 миллионов у G92 до 1.4 миллиардов, а ширина шины памяти составляет 512 бит вместо 256, плюс ее стандартный объем вырос до гигабайта. Карта получилась, мягко говоря, увесистой, а ее габариты исключают применение GeForce 280 GTX в компактных корпусах – она туда банально не влезет. Причем если 9800 GTX была такой же длинной, скорее, для солидности, потому что практическая аналогичная по мощности 8800 GTS 512 прекрасно работала, будучи гораздо короче, то здесь дополнительные сантиметры используются на полную катушку. Мало того, что компоновка платы весьма плотная, так еще и для борьбы с резко выросшим тепловыделением необходима система охлаждения с радиатором большой площади. Если сказанное вас не напугало, и пять сотен долларов продолжают жечь карман, вот еще одна страшилка. Подобно предшественницам, GeForce 280 GTX снабжена двумя разъемами для подключения дополнительного питания, но один из них не простой, а восьмипиновый. Это значит, что либо придется обзавестись соответствующим БП, либо использовать переходник, который обычно поставляется в комплекте. Кстати, с блоком питания все не так просто. В нашей тестовой станции установлен 700-ваттный FSP Epsilon, снабженный восьмипиновым штекером, так вот с последним видеокарта заводиться отказалась, недружелюбно подмигивая красным диодом, расположенным под радиатором. С тем же БП, но через переходник, все заработало, как надо, однако осадочек-то остался. Да, этой карте действительно нужно качественное питание и в изрядных порциях, так что если в вашем компьютере установлено что-нибудь беспородно-китайское, сначала проапгрейдте его. И лучше, если вместе с корпусом, потому что греется 280 GTX очень сильно.

На мой взгляд, причин для установки такого монстра в домашний компьютер может быть всего две. Первая – желание принять участие в проекте по изучению процесса свертывания белков. Там, благодаря технологии фирменной CUDA, позволяющей использовать видеокарту для подобных расчетов, ваш компьютер быстро войдет в тысячу, если не сотню самых полезных в мире. Вторая причина — игра Crysis, потому что 280 GTX первой из одночиповых видеокарт позволяет играть в нее с приличным количеством FPS даже при разрешении 1600х1200.

Собственно, о производительности в Crysis мы и поговорим, потому что другие современные игры прекрасно обходятся «скромными» возможностями какой-нибудь 8800 GTS 512. Установив в нашу тестовую станцию процессор Core 2 Duo E7300, разогнанный до частоты 3.5 ГГц, и скачав самые свежие на 28 июля официальные драйверы, я приступил к замерам. Стоит подчеркнуть, что в качестве подопытного кролика выступала видеокарта от XFX (модель GX-280N-ZDD9), дизайн которой идеально повторяет референсный, а вот рабочие частоты прямо на заводе немного подняли. Так, ядро под нагрузкой работало на частоте до 670 мегагерц вместо стандартных 600, а память – на 2484 вместо 2200. Оговорка про нагрузку сделана не случайно: карта у NVIDIA получилась очень прожорливая, и, чтобы хоть как-то сэкономить электричество, в 2D-режиме частоты сбрасываются весьма значительно. Если верить всезнающей утилите RivaTuner, частота ядра падает до 300 мегагерц, а памяти до 600. Сильнее же всего экономят на шейдерном домене – он мухой сгоняется почти с с 1450 мегагерц до сотни (!).

Меня, обладателя 20-дюймового монитора, больше всего интересовало поведение Crysis при разрешении 1600х1200. Тем более, что с 1280х1024 недурно справляется и предыдущее поколение GeForce. Результаты, честно говоря, озадачили, потому что во встроенных в игру бенчмарках (GPU, CPU1 и CPU2) среднее число FPS при максимальных настройках качества достигло лишь 25. Очень, очень странно, ведь во время «просто игры» претензий к плавности не возникало вообще, и, пользуясь случаем, я за три рабочих дня прошел Crysis в 12-й раз. Прирост производительности по сравнению с 9800 GTX был заметен невооруженным, что подтверждают и результаты тестов: так, прежний флагман смог обеспечить лишь средние 15 FPS, в сценах со снегом проваливаясь до жалких 11.

Стоит добавить, что чип GT200 под нагрузкой гораздо горячее предшественника (по моим замерам, он прогревался до 90 градусов вместо 75 у G92 в тех же условиях), а тихой GTX 280 нельзя назвать при всем желании. Купил бы я такую плату домой? Честно говоря, сомневаюсь, потому что связка из двух 8800 GTS 512 в том же Crysis работает не хуже, а стоит ощутимо дешевле, да и не слышно ее совсем. GeForce 280 GTX – решение для богатых компьютерных маньяков, у которых гигантские системные блоки с киловаттными БП стоят посредине специальных хорошо проветриваемых помещений. Нам же, домашним пользователям, стоит подождать следующей попытки NVIDIA.

Источник

[Нужна помощь] подключение nvidia geforce gtx 280

3448

[Нужна помощь] подключение nvidia geforce gtx 280

3448

0 Пользователей и 1 Гость просматривают эту тему.

Похожие Темы

Форум Natus Vincere

На форуме Na`Vi пользователи могут найти полезную информацию, касающуюся игровых дисциплин, в которые играют профессиональные игроки нашей команды. Почерпнуть для себя полезные советы и уроки из статей, написанных специально для того, чтобы каждый мог найти ответы на интересующие его вопросы. Также пользователи имеют возможность поделиться полезными сведениями и личным опытом, помочь друг другу и просто пообщаться на интересные темы.

Игровое сообщество «Natus Vincere» состоит из следующих разделов:

  • Natus Vincere
  • Counter-Strike: Global Offensive
  • Dota 2
  • Hearthstone
  • World of Tanks
  • Heroes of the Storm
  • Разное

Каждый из разделов киберфорума включает подразделы, в которых активно обсуждаются популярные игровые дисциплины, видеоматериалы и турнирные подробности, провайдеры и качество предоставляемого хостинга, игровые девайсы, технические проблемы, как с играми, так и с железом, а также другие важные для каждого геймера детали. Специальный раздел форума «Разное» содержит подразделы, в которых можно обсудить темы, не касающиеся игровых дисциплин, например, подраздел мувимейкинга поможет узнать тонкости создания красивых мувиков и хайлайтов, поделиться советами или найти для себя что-то новое.

Источник

GeForce GTX 280 в исполнении LeadTek: обзор карты, температурный режим и разгон, скорость и процессорозависимость

Выход нового графического процессора GT200 от компании NVIDIA геймеры всего мира и оверклокеры, в частности, ждали с нетерпением. Немудрено, так как фактически с далёкой осени 2006 года ничего действительно нового и революционного компания не выпускала. Год и почти восемь месяцев — срок небывалый для данного сектора Hi-Tech. C момента релиза G80 в сегменте высокопроизводительных чипов появился разве что G92, по большому счёту являющийся лишь переводом G80 на более тонкий техпроцесс с несущественными для геймера изменениями и снижением себестоимости. На самом же деле, те, кто в то время приобрел GeForce 8800 GTX (а немногим позже и GeForce 8800 Ultra), ничего лучшего позволить себе не могли, даже при наличии средств и желании вложить их в видеокарту(ы). Как вариант, для роста производительности можно было рассматривать появившуюся недавно GeForce 9800 GX2 или чрезмерно дорогие 3-Way SLI системы, но всё-таки нужно признать, что называть эти решения новыми и уж тем более революционными, было бы по меньшей мере некорректно.

Наконец, 16 июня 2008 года компания NVIDIA представила публике свой новый графический процессор GT200. Выпущенный по 65-нм техпроцессу чип, содержит около 1400 миллионов транзисторов – небывалая доселе величина. Инженеры компании в купе с маркетинговым отделом решили максимально расширить функциональность столь мощного GPU, наделив его наконец возможностями расчётов «физики», расчётов в программе распределённых вычислений Folding@Home, способностью обработки изображений и даже кодирования видеоконтента. Поддержка технологии CUDA (Compute Unified Device Architecture), фактически воплощающая в действительность перенос вычислений с центрального процессора на GPU, также является приятным бонусом нового чипа. В общем, на просторах Интернет даже бытует мнение, что до анонса и выхода на рынок продуктов конкурента, компания NVIDIA решила не раскрывать всю мощь GT200, производительность которого пока ограничена драйверами.

Как бы то ни было, в настоящее время графический процессор GT200 лёг в основу двух видеокарт: GeForce GTX 260 и топовой GeForce GTX 280. Первая представляет собой несколько урезанную версию GTX 280, с меньшим числом потоковых процессоров, TMU и ROP, с пониженными частотами GPU и видеопамяти, объём которой также уменьшен в сравнении с оным у GTX 280, а также с более узкой шиной обмена с видеопамятью. Рекомендованная стоимость на GeForce GTX 260 заявлена на уровне 399 долларов США, а появление в розничной продаже произошло на пару недель позже, нежели GeForce GTX 280. Вторая видеокарта являет собой бескомпромиссное решение класса Hi-End с рекомендованной стоимостью в 649 долларов США. Розничные цены на момент анонса были традиционно завышены и нередко превышали отметку в 850 долларов США. С одной из таких видеокарт мы и познакомим вас в сегодняшней статье.

реклама

1. Обзор LeadTek WinFast GeForce GTX 280 1024 Мбайт

Видеокарта производства компании LeadTek приехала к нам в OEM упаковке, поэтому традиционного «обзора» коробки сегодня не будет. Однако, для полноты картины мы можем привести фото коробки с официального сайта компании:

Зато даже в OEM поставку включены самые необходимые аксессуары:

Источник

Обзор новой топовой видеокарты ASUS GeForce GTX 280 c 1 ГБ видеопамяти

В сегодняшней статье пойдет речь о самом современном и самом мощном в мире графическом чипе от компании NVIDIA под кодовым названием GT200 и о видеоадаптере, выполненным на его основе, GeForce GTX 280. Мы постараемся рассмотреть все наиболее интересные его особенности, новшества и отличия от предыдущих чипов, а также протестировать производительность в равных условиях и сравнить с конкурентами.

Но не все сразу, давайте немного вернемся во времени и отследим историю развития графических чипов. Ни для кого не секрет, что вот уже много лет на рынке графических плат конкурируют две компании: ATI (в настоящем выкупленная AMD и имеющая брэнд AMD Radeon) и NVIDIA. Конечно, присутствуют и мелкие производители, такие как VIA со своими чипами S3 Chrome или Intel с интегрированными видеоадаптерами, но моду всегда диктовала именно конфронтация ATI (AMD) и NVIDIA. И что примечательно, чем сильнее была эта конфронтация или даже не побоимся этого слова «холодная война», тем сильней шагал вперед научно-технический прогресс, и тем большую выгоду получали конечные пользователи – то есть мы с вами. Ведь одним из механизмов борьбы за кошельки пользователей является техническое превосходство продуктов одного из производителей, а другим – ценовая политика и соотношение цена/возможности. Кстати, нередко второй механизм оказывается намного эффективней первого.

Когда одна сторона заметно превосходит конкурента в техническом плане, второму ничего не остается кроме как выдвинуть еще более прогрессивную технологию или же «играть ценами» на уже имеющиеся продукты. Наглядный пример «игры ценами» — конкуренция между Intel и AMD в области центральных процессоров. После анонса архитектуры Core 2, AMD не смогла противопоставить что-то более совершенное и поэтому, чтобы не терять долю рынка, вынуждена была снижать цены на свои процессоры.

Но есть и примеры другого характера. В свое время компания ATI выпустила очень удачную линейку продуктов семейства X1000, которая появилась очень вовремя и очень понравилась многим пользователям, причем, у многих до сих пор стоят видеокарты типа Radeon X1950. NVIDIA тогда не имела в своем распоряжении достойного ответа, и ATI удалось где-то на полугодие просто «выбить» NVIDIA из игры. Но надо отдать должное калифорнийским инженерам, спустя немного времени они выдали на-гора принципиально новое в технологическом плане решение – чип G80 с применением универсальных процессоров. Этот чип стал настоящим флагманом на долгое время, вернул калифорнийской компании пальму первенства и принес рядовым пользователям непревзойденную производительность в играх. Что произошло дальше? А дальше не произошло ничего – ATI (теперь уже под брэндом AMD) не смогла создать что-то более мощное. Ее чип R600 во многом потерпел поражение, заставив канадскую компанию постоянно снижать цены. Отсутствие конкуренции в категории производительных решений позволило NVIDIA расслабится – ведь противников то все равно нет.

Выход нового флагмана

Все интересующиеся 3D-графикой долго ждали настоящего обновления архитектуры G80. Разнообразных слухов о следующем поколении чипов хватало всегда, некоторые из них в дальнейшем подтвердились, но в 2007 году мы дождались лишь минорного архитектурного обновления в виде решений на основе чипов G92. Все выпущенные на их основе видеокарты — неплохие для своих секторов рынка, эти чипы позволили снизить стоимость мощных решений, сделав их менее требовательными к питанию и охлаждению, но энтузиасты ждали полноценного обновления. Тем временем AMD выпустила обновленные продукты на базе RV670, которые принесли ей некий успех.

Но развитие игровой индустрии, новые мощные игры типа Crysis, заставили обе компании разрабатывать новые графические чипы. Только цели у них были разные: у AMD главной целью была борьба за потерянную долю рынка, минимизация затрат на производство и предоставление производительных решений по умеренным ценам, а у NVIDIA была цель сохранить технологическое лидерство, продемонстрировать фантастическую производительность своих чипов.

Сегодня нам представится возможность подробно рассмотреть результаты работы одной из компаний – самый производительный, самый современный чип GT200 производства NVIDIA, представленный компанией 17 июня 2008 года.

Архитектурно GT200 во многом перекликается с G8x/G9x, новый чип взял у них всё лучшее и был дополнен многочисленными улучшениями. И сейчас мы переходим к рассмотрению особенностей новых решений.

Графический ускоритель GeForce GTX 280

  • кодовое имя чипа GT200;
  • технология 65 нм;
  • 1,4 миллиарда (!) транзисторов;
  • унифицированная архитектура с массивом общих процессоров для потоковой обработки вершин и пикселей, а также других видов данных;
  • аппаратная поддержка DirectX 10.0, в том числе шейдерной модели – Shader Model 4.0, генерации геометрии и записи промежуточных данных из шейдеров (stream output);
  • 512-битная шина памяти, восемь независимых контроллеров шириной по 64 бита;
  • частота ядра 602 МГц (GeForce GTX 280);
  • ALU работают на более чем удвоенной частоте 1,296 ГГц (GeForce GTX 280);
  • 240 скалярных ALU с плавающей точкой (целочисленные и плавающие форматы, поддержка FP 32-бит и 64-бит точности в рамках стандарта IEEE 754(R), выполнение двух операций MAD+MUL за такт);
  • 80 блоков текстурной адресации и фильтрации (как и в G84/G86 и G92) с поддержкой FP16 и FP32 компонент в текстурах;
  • возможность динамических ветвлений в пиксельных и вершинных шейдерах;
  • 8 широких блоков ROP (32 пикселя) с поддержкой режимов антиалиасинга до 16 сэмплов на пиксель, в том числе при FP16 или FP32 формате буфера кадра. Каждый блок состоит из массива гибко конфигурируемых ALU и отвечает за генерацию и сравнение Z, MSAA, блендинг. Пиковая производительность всей подсистемы до 128 MSAA отсчетов (+ 128 Z) за такт, в режиме без цвета (Z only) – 256 отсчетов за такт;
  • запись результатов до 8 буферов кадра одновременно (MRT);
  • все интерфейсы (два RAMDAC, Dual DVI, HDMI, DisplayPort, HDTV) интегрированы на отдельный чип.

Спецификации референсной видеокарты NVIDIA GeForce GTX 280

  • частота ядра 602 МГц;
  • частота универсальных процессоров 1296 МГц;
  • количество универсальных процессоров 240;
  • количество текстурных блоков – 80, блоков блендинга — 32;
  • эффективная частота памяти 2,2 ГГц (2*1100 МГц);
  • тип памяти GDDR3;
  • объем памяти 1024 МБ;
  • пропускная способность памяти 141,7 ГБ/с;
  • теоретическая максимальная скорость закраски 19,3 гигапикселей/с;
  • теоретическая скорость выборки текстур до 48,2 гигатекселя/с;
  • два DVI-I Dual Link разъема, поддерживается вывод в разрешениях до 2560х1600;
  • двойной SLI разъем;
  • шина PCI Express 2.0;
  • TV-Out, HDTV-Out, DisplayPort (опционально);
  • энергопотребление до 236 Вт;
  • двухслотовое исполнение;
  • изначальная рекомендуемая цена $649.

Отдельно отметим, что DirectX 10.1 семейством GeForce GTX 200 не поддерживается. Причиной назван тот факт, что при разработке чипов нового семейства, после консультаций с партнёрами, было принято решение сконцентрировать внимание не на поддержке DirectX 10.1, пока мало востребованного, а на улучшении архитектуры и производительности чипов.

В архитектуре GeForce GTX 280 произошло множество изменений в сравнении с видеокартами GeForce 8800 GTX и Ultra:

  • В 1,88 раз увеличено число вычислительных ядер (со 128 до 240).
  • В 2,5 раза увеличено число одновременно исполняемых потоков.
  • Вдвое увеличена максимальная длина сложного шейдерного кода.
  • Вдвое увеличена точность расчетов с плавающей запятой.
  • Намного быстрее исполняются геометрические расчеты.
  • Объем памяти увеличен до 1 Гб, а шина – с 384 до 512 бит.
  • Увеличена скорость доступа к буферу памяти.
  • Улучшены внутренние связи чипа между различными блоками.
  • Улучшены оптимизации Z-cull и сжатие, что обеспечило меньшее падение производительности в высоких разрешениях.
  • Поддержка 10-битной глубины цвета.

Приведём основную диаграмму чипа GT200:

Основные архитектурные особенности CUDA

С момента анонса архитектуры Core 2 и ее триумфального шествия, появилась мода среди разработчиков рекламировать кроме названий продуктов еще и названия архитектуры, по которой они выполнены. Не исключением стала и NVIDIA, активно рекламирующая свою архитектуру CUDA (Compute Unified Device Architecture) — вычислительная архитектура, нацеленная на решение сложных задач в потребительской, деловой и технической сферах — в любых приложениях, интенсивно оперирующих данными, с помощью графических процессоров NVIDIA. Преимуществом такого подхода является значительное превосходство, на порядок или даже два, графических чипов над современными центральными процессорами. Но, сразу же, всплывает недостаток – для этого надо разрабатывать специальное программное обеспечение. Кстати, NVIDIA проводит конкурс среди разработчиков ПО под архитектуру CUDA.

Видеочип GT200 разрабатывался с прицелом на его активное использование в вычислительных задачах при помощи технологии CUDA. В так называемом расчётном режиме, новый видеочип можно представить как программируемый мультипроцессор с 240 вычислительными ядрами, встроенной памятью, возможностью случайной записи и чтения и гигабайтом выделенной памяти с большой полосой пропускания. Как говорят в NVIDIA, в таком режиме GeForce GTX 280 превращает обычный ПК в маленький суперкомпьютер, обеспечивающий скорость почти в терафлоп, что полезно для многочисленных научных и прикладных задач.

Довольно большое количество наиболее требовательных задач могут быть перенесены с CPU на GPU при помощи CUDA, и при этом удастся получить заметный прирост производительности. На картинке показаны примеры применения CUDA в реальных задачах, приведены цифры, показывающие кратность прироста производительности GPU по сравнению с CPU.

Как видите, задачи самые разнообразные: перекодирование видеоданных, молекулярная динамика, астрофизические симуляции, финансовые симуляции, обработка изображений в медицине и т.п. Причём, приросты от переноса расчётов на видеочип получились порядка 20-140-кратных. Таким образом, новый видеочип поможет ускорить множество разных алгоритмов, если их перенести на CUDA.

Одним из бытовых применений расчётов на GPU можно считать перекодирование видеороликов из одного формата в другой, а также кодирование видеоданных в соответствующих приложениях по их редактированию. Компания Elemental выполнила задачу переноса кодирования на GPU в своём приложении RapidHD, получив следующие цифры:

Мощнейший GPU GeForce GTX 280 отлично показывает себя в этой задаче, прирост скорости по сравнению с быстрейшим центральным процессором составляет более 10 крат. Кодирование двухминутного видеоролика заняло 231 секунду на CPU и всего лишь 21 секунду на GT200. Важно, что применение GPU позволило добиться выполнения данной задачи не просто в реальном времени, но даже и ещё быстрее!

Впрочем, интенсивные вычисления с помощью современных графических видеокарт давно не новость, но именно с появлением графических процессоров семейства GeForce GTX 200 компания NVIDIA ожидает значительного повышения интереса к технологии CUDA.

С точки зрения технологии CUDA новый графический чип GeForce GTX 280 это ни что иное как мощный многоядерный (сотни ядер!) процессор для параллельных вычислений.

Это, пожалуй, наиболее интересный аспект новых видеоадаптеров NVIDIA для обычных пользователей. Хотя он относится не только к новым решениям на основе GT200, но и ко всем видеокартам семейства GeForce 8 и GeForce 9.

В современных играх грамотно реализованные физические взаимодействия играют важную роль, они делают игры более интересными. Почти все физические расчёты требовательны к производительности, и соответствующие алгоритмы требуют больших объемов вычислений. До определённого времени эти расчёты выполнялись только на центральных процессорах, потом появились физические ускорители компании Ageia, которые хоть и не получили широкого распространения, но заметно оживили активность на этом рынке. Приобрести такие ускорители могли лишь единицы игроков-энтузиастов.

Но все изменилось, когда компания NVIDIA купила Ageia и вместе с этим получила всю необходимую информацию о PhysX. Именно информацию, так как сами аппаратные устройства ее не интересовали. Надо отдать должное NVIDIA – она взяла правильный курс и приспособила физический движок PhysX под свою архитектуру CUDA и теперь каждый владелец видеокарты с такой архитектурой получает аппаратное ускорение физических процессов в играх путем простого обновления драйверов.

При работе с мощным видеочипом, PhysX может предложить много новых эффектов, таких как: динамические эффекты дыма и пыли, симуляция тканей, симуляция жидкостей и газов, погодные эффекты и т.п. По заявлениям самой NVIDIA, новые видеокарты GeForce GTX 280 способны работать в 10 и более раз быстрей, чем 4-х ядерные процессоры при работе с PhysX. В настоящее время поддержка PhysX реализована в более чем 150 играх.

Улучшенная технология управления питанием

Новый видеочип использует улучшенное управление питанием, по сравнению с предыдущим поколением чипов NVIDIA. Он динамически изменяет частоты и напряжения блоков GPU, основываясь на величине их загрузки, и способен частично отключать некоторые из блоков. В итоге, GT200 значительно снижает энергопотребление в моменты простоя, потребляя около 25 ватт, что очень мало для GPU такого уровня. Решение поддерживает четыре режима работы:

  • режим простоя или 2D (около 25 ватт);
  • режим просмотра HD/DVD видео (около 35 ватт);
  • полноценный 3D режим (до 236 ватт);
  • режим HybridPower (около 0 ватт);

Для определения загрузки, в GT200 используются специальные блоки, анализирующие потоки данных внутри GPU. На основе данных от них, драйвер динамически устанавливает подходящий режим производительности, выбирает частоту и напряжение. Это оптимизирует потребление электроэнергии и тепловыделение от карты.

С новшествами и особенностями мы ознакомились – в этом плане NVIDIA добилась поставленной цели, представив совершенно новый графический чип. Но осталась и вторая цель – доказать превосходство в плане производительности. Для этого мы рассмотрим чип GT200 уже воплощенный в виде готовой видеокарты, проведем ее тестирование и сравним всю заложенную в нее мощь с флагманами предыдущего поколения и решениями конкурентов.

Видеокарта ASUS ENGTX280/HTDP/1G на NVIDIA GeForce GTX 280

Подогрев интерес к графическому ускорителю, перейдём непосредственно к его обзору, тестированию, сравнению и, естественно, к разгону. Но для начала еще раз спецификация, теперь уже готового серийного ускорителя.

Источник

Читайте также:  Питание при очаговой пневмонии у детей

Все о питании © 2021
Внимание! Информация, опубликованная на сайте, носит исключительно ознакомительный характер и не является рекомендацией к применению.