Многие из нас собирали компьютер сами, из комплектующих.
Дело не сложное, соединить с десяток шлейфов, да завинтить столько же винтиков. Но мало кто сталкивался с самостоятельной сборкой серверов, причем не обычных а в промышленном формате под стойку 19 дюймов. В этом небольшом обзоре я опишу свой опыт сборки такого сервера, постараюсь показать что это не сложно, и остановлюсь на главных моментах, на что нужно смотреть. На написание этого обзора меня толкнуло то, что информации о сборке rack 19’ серверов в рунете очень мало, и приходилось её искать буквально по крупицам.
Зачем?
В моем случае такая коробочка мне понадобилась для поднятия веб сервера, и размещения его в датацентре, так как проект вырос за рамки арендованного, размещенного к тому же в штатах. Я бы с удовольствием сделал сервер в обычном копусе tower, но 99% серьезных датацентров просто такой сервер у себя не станут размещать.
Почему самому?
Тут две положительные вещи. Первая – цена. Существенно дешевле чем brand name сервера. И второе – конфигурация зависит исключительно от вас. Если вы знаете что вам понадобится больше места, вы соответственно и акцент сделаете на дисках, а не на памяти или процессоре. А в готовых серверах конфигурация оборудования обычно растет равномерно.
Где я возьму комплектующие для сервера?
Комплектующие для корпусов в формате 19’ ничем принципиальным не отличаются от, тех что стоят в вашем настольном компьютере. Туда прекрасно встанет обычная материнская плата формата ATX или MicroATX, и на неё соответственно вешается все остальное стандартное оборудование с небольшими исключениями о которых ниже.
Какой 19’ корпус выбрать?
Промышленные корпуса стандартизированы по высоте и ширине. Стандартная ширина как мы говорили 19 дюймов, а стандартная высота равняется 1.75 дюйма и называется 1U или rack unit. Но по высоте корпус может дискретно расти, то есть бывают корпуса 2U, 3U, 4U и т.д. Так как я собирал очень бюджетный сервер, а в датацентре вы будете платить за размещение каждого юнита, то лучше всего взять минимальную высоту 1U.
Блок питания.
Опять же из соображений экономии лучше не брать блок питания больше 350W – это стандартное ограничение в датацентрах. За большую мощность вы будете доплачивать. Такого блока питания с запасом хватит на любую однопроцессорную конфигурацию с парой хард дисков. Корпуса могут продаваться как с блоком питания так и без. Никакой сложности самому вставить блок питания в корпус нет, но рекомендую все же в первую очередь смотреть на варианты с блоком.
Глубина корпуса.
Это очень важный параметр. От него напрямую зависит сколько жестких дисков вы сможете разместить, какой DVD привод поставить, как будет охлаждаться внутреннее пространство, можно ли разместить материнскую плату формата ExtendedATX. Так как в датацентре с нас не берут дополнительную плату за глубину сервера, то лучше взять корпус побольше. Все комплектующие будут размещены свободнее и будут лучше вентилироваться. Для двух жестких дисков, одного обычного (не тонкого) DVD привода я взял корпус глубиной 650мм. Больше если вы не будете размещать 4ре жестких диска не понадобится.
Возможность горячей замены дисков.
По умному: HotSwap отсеки. Для моих нужд такая возможность показалась совершенно лишняя. Поэтому я взял корпус без таких отсеков.
Охлаждение внутреннего постранства.
Вот корпус сервера глубиной 650мм. Вентиляция приточно – вытяжная. То есть 6 вентиляторов в середине корпуса тянут воздух с лицевой панели, гонят его к задней, где стоят еще два вентилятора, которые подхватывают его и выносят из сервера. Такая конфигурация позволяет успешно охлаждать жесткие диски, радиатор процессора и материнскую плату. Кстати на этой же картинке видно, что в глубоких корпусах блок питания не «затыкает» собою заднюю стенку оставляя место для вытяжных вентиляторов.
А вот пример неглубокого корпуса:
Как видно, блок питания расположен вплотную к задней панели, не оставляя пространства для вытяжных вентиляторов, и вся работа лежит на 3-х вентиляторах в середине корпуса.
Вот неглубокий корпус у которого вообще всего два вентилятора на передней панели направленных исключительно на отвод тепла от процессора:
Повторюсь, что лучше не брать маленький корпус для самосборных серверов. Могут возникнуть проблемы с совместимостью конфигураций материнской платы и расположения вентиляторов.
Охлаждение процессора.
Охлаждение в корпусах не было настолько важным, если бы не одно обстоятельство. А именно – невозможность разместить вентилятор на процессор в таком тонком корпусе. В корпуса 1U совершенно точно не войдет ни один стандартный десктопный кулер. И я не встретил каких-то специальных процессорных кулеров для 1U корпусов в продаже. Более того в brandname серверных платформах в корпусах 1U и даже 2U так же нет процессорных вентиляторов и стоят только радиаторы, а для охлаждения используются корпусные вентиляторы. Поэтому не покупайте процессор в поставке BOX, и сразу докупайте серверный радитор, примерно такой:
А если подобных радиаторов не продается, посмотрите любой процессорный кулер с тонким радиатором и продольными ребрами, берите и снимайте с него вентилятор.
Материнская плата, нюансы.
В любой серверный корпус 1U входят матери размеров ATX или MicroATX. Как по высоте и так и по габаритам . Но! Вставить в неё какие любо PCI или AGP платы не получится – они будут выпирать из корпуса и у вас просто не закроется крышка. Сразу оговоримся что слоты памяти встают прекрасно, и проблем с габаритами не возникает. Для того чтобы вставить PCI или AGP платы существуют разнообразные переходники типа такого:
Чтобы избежать геморроя, при выборе материнской платы для корпуса 1U совершенно обязательно наличие на этой плате встроенного видео и сетевого адаптера. Если вы будете объединять диски в RAID и этих дисков не больше 4-рех то лучше чтобы чипсет материнской платы сразу поддерживал RAID. Из тех же соображений – чтобы не мучаться с установкой плат.
Установка самой материнской платы совершенно стандартная. Но в 99 процентах случаев родную корпусную заднюю панель для разъемов придется выкинуть из за того что контакты не совпадут. Благо в нормальных корпусах эта панелька легко выкручивается.
С материнской платой в комплекте должна идти подобная панелька раземов из мягкого метала. Просто так она в корпус не встанет, потому как расчитана на Tower конфигурацию. Не стесняясь берем плоскогубцы, и загибаем не влазиющую верхнюю часть. В худшем варианте у вас просто не будет задней панельки, но в дата центрах не пыльно.
DVD привод.
Опять же все зависит от размеров корпуса. Посмотрите на 3 сервера в разделе об охлаждении. В первый корпус войдет совершенно обычный DVD привод, во второй насколько я вижу, только тонкий «ноутбучный», а в третьем его просто негде размешать.
Флоппик.
Как это ни странно звучит он может понадобится. В моем случае когда я создал и настроил RAID массив в BIOSе, инсталлятор системы перестал видеть жесткие диски совсем, и предлагал загрузить драйвер RAID с дискетки. Дискетка это создается с помошью загрузки с CD диска который шел с матерью. Так что когда покупаете комплектующие к серверу не пожалейте $20 на флоппи дисковод.
Направляющие для установки в стойку (rails).
Это комплект железяк которые необходимы для монтажа сервера в стойку.
Они могут быть как совершенно примитивными уголками которые привинчиваются к стойке и сервер на них тупо ставится. Могут быть телескопичекими, прикручиваюшимися к серверу сбоку и цепляющиеся за стойку «ушками». Вариантов много, но покупать эти направляющие лучше сразу с корпусом и желательно того-же производителя что и сам корпус. Без направляющих в датацентре у вас не возьмут сервер.
По деньгам.
Корпус: 1U Chieftec c блоком питания 350W - $270;
Телескопические направляющие: $46
Процессор: Intel Core 2 Quad Q6600 - $307
Мать: ASUS c SVGA, Gb LAN и RAID - $170
Винты: 2 x SATA 250Gb - $146
Память: 8Gb (4x2Gb 6400) - $216
Итого: $1155
Дешевле этого сервер в подобной конфигурации найти очень сложно.
Статья и комменты не редактировались!
----------------------------------------------------------------------------------------------------------------------------------------
Обзор не претендует на полноту и «матерые» системные администраторы скажут «фи», но людям собирающимся покупать сервер он вероятно будет полезен.
PS: на таком сервере сейчас работает venividi.ru
сервер
+140 6 марта 2008, 19:22 Cher комментарии (191)
ShPashok 6 марта 2008, 19:34 # ↓ +1
Спасибо, пригодится zerkalka 6 марта 2008, 19:35 # ↓ +1
спасибо! как раз сейчас подобным занимаюсь
pxx 7 марта 2008, 12:21 # ↑ ↓ 0
Как все ж таки своевременна эта статья. Аналогично собираем сейчас сервер для проекта на работе. Вот кто б еще хороший коллокейшн в Киеве подсказал.
habrich 7 марта 2008, 16:53 # ↑ ↓ 0
Дата центр Воля хороший, знакомый арендует у них сервер около года, пока что проблем не было. ivankin 7 марта 2008, 19:46 # ↑ ↓ 0
wnet.ua
3 года уже там RAMe0 6 марта 2008, 19:39 # ↓ +1
Хорошая статейка, для того чтобы войти в курс дела. Спасибо. dram 6 марта 2008, 19:56 # ↓ 0
Очень разумный обзор, подтверждаю. По железу в смысле.
Не очень понятен посыл- у вас был хостинг в штатах, т.е. вы уже умеете с ними работать- почем не купили выделенный или виртуальную машину там? Это было бы явно дешевле. У вас сейчас- 50 в месяц и очень неторопливая дисковая + оплата 1U + заморочка с соотношением трафика. Вы уже нашли датацентр с нормальным каналом и дешевле 100 в месяц? Зачем было так экономить на сервере тогда? =)
Cher 6 марта 2008, 20:06 # ↑ ↓ +2
хостинг в штатах был изначально на выделенном сервере, но очень слабый + пинг до штатов огого + ограничения по траффику.
Настала пора расти, и так как проект русскоязычный, то логичнее всего его размешать у нас. Поставился в http://datahouse.su/ на безлимитном тарифе ( с соотношениями) за 2950/мес за все. На самом деле это очень дорого за colocation. Но так получилось что я сначала собрал сервер, а уже потом выяснил что в москве и поставится особо негде - все переполненно.
dram 6 марта 2008, 20:54 # ↑ ↓ 0
Ну меня смущает в этом наборе только то, что вы отдали ~1200 и там просто почти что никакая дисковая. И хорошей уже не будет. Да, хорошая стоит- еще столько же. А вообще нормальная- цена трех таких серверов. Не очень понятен вот этот момент. Деньги потрачены уже заметные, а будут и еще большие, а платформа- офисный компьютер по надежности.
Cher 6 марта 2008, 21:00 # ↑ ↓ +3
для критичных банковских к примеру приложений такой сервер конечно непонятно что сляпанное на коленке. Просто для моего проекта и его текушего масштаба больше не надо. khim 6 марта 2008, 21:34 # ↑ ↓ +3
А вы считате что офисный компьютер ненадёжен? Всё зависит от проекта - на примерно таком у нас 5 лет несколько проектов прожили. И ничего - суммарное время простоя по вине сервера за 5 лет - где-то три дня (шлейфы после очередного переезда повыпадали, а случилось это по закону подлости как раз на выходные).
blogman 7 марта 2008, 08:56 # ↑ ↓ +1
Пинками сервак перевозили ? dram 7 марта 2008, 10:20 # ↑ ↓ 0
Он надежен как надежен офисный компьютер. В датацентр в другом городе-стране я бы не отправил.
prmy 7 марта 2008, 13:01 # ↑ ↓ 0
В другом городе-стране лучше брать дедик. И оставить заботу о железе датацентру.
vinzz 7 марта 2008, 12:34 # ↑ ↓ 0
на дисковую при таком количестве оперативной памяти можно сильно снизить обращаения кешированием, memcached, виртуальный диск для temporary таблиц, сессий и т.д. а в дальнейшем если всё упрётся именно в неё диски можно поменять на САС, докупив внешний рейд (если влезет, конечно)
0x62ash 7 марта 2008, 04:59 # ↑ ↓ 0
За такие деньги без проблем дедикейтед где нить в Амстере взять....
Souznik 6 марта 2008, 19:58 # ↓ +1
А как насчет соединения к сети (интернет)? Используется встроенный в мать Ethernet контроллер или внешний? И какая там ширина канала?
Cher 6 марта 2008, 20:08 # ↑ ↓ 0
встроенный гигабитный контроллер. У хостера подключен к 100Мб порту. А как там выходит реально - кто знает, зависит от загруженности канала.
fr0mus 6 марта 2008, 20:19 # ↓ 0
Какая нагрузка на сервер в течении суток в среднем? Сколько хостов в день?
Cher 6 марта 2008, 20:22 # ↑ ↓ 0
в районе 3500 - 4000 загрузок страниц. Сервер взят навырост
dedmazay 7 марта 2008, 01:37 # ↑ ↓ 0
А на вырост это на сколько? Как обычный SATA диск справляется с юзверями? ivankin 6 марта 2008, 20:21 # ↓ 0
Спасибо за статью.
RAID-0 получился?
Какую операционнку будете ставить?
Cher 6 марта 2008, 20:27 # ↑ ↓ 0
с самого начала решил делать RAID1, а) хотелось избыточности для сохранности б) сервер 99% времени работает на отдачу, не знаю кто быстрее в таком режиме работает (RAID0 или 1), но чтение распараллеливается.
SlexPiter 6 марта 2008, 22:16 # ↑ ↓ +1
RAID0 распараллеливает чтение. RAID1для сохранности используется данных. Скорость чтения при RAID1 та же, что и один диск. Просто при неисправности одного из дисков все данные сохраняются. Есть варианты с RAID0+1. Соответственно используется 4 диска (в основном) и это даёт прирост в производительности плюс сохранность данных при неисправности одного из приводов. А по делу использовать обычные комплектующие на сервер... Хотя Вам решать
Cher 6 марта 2008, 22:55 # ↑ ↓ +1
Из википедии "RAID 1 (Mirroring — «зеркало»). Обеспечивает приемлемую скорость записи и выигрыш по скорости чтения за счёт распараллеливания запросов. Имеет высокую надежность - работает до тех пор пока функционирует хотя бы один диск в массиве."
Да и не логично было бы имея два диска читать только с одного
Yura 6 марта 2008, 23:48 # ↑ ↓ +1
Все зависит от контроллера на самом деле Может и с одного читать и вроде как один из винтов беречь от износа (тоже вроде логично).
redconnection 7 марта 2008, 02:21 # ↑ ↓ 0
Гугл год назад писал про диски в своих датацентрах. статистика показала что кореляции между количеством запросов на 1 диск и его датой смерти почти нету. То есть для диска износ это практически фикция.
А про контроллер это верно.
gotch 7 марта 2008, 11:36 # ↑ ↓ 0
RAID 0+1 бывает и на двух дисках, например у HP Cher 6 марта 2008, 20:31 # ↑ ↓ 0
с самого начала решил делать RAID1, а) хотелось избыточности для сохранности б) сервер 99% времени работает на отдачу, не знаю кто быстрее в таком режиме работает (RAID0 или 1), но чтение распараллеливается.
Поставил Windows Server 2003. Получился WAMP Кстати вполне доволен, почтовик (mDaemon) и FTP (Serv U) вообще минут за 10 поднялись
Baaa 6 марта 2008, 21:34 # ↑ ↓ 0
лицензию ставили или можно с пираткой прокатить?
Cher 6 марта 2008, 21:41 # ↑ ↓ +9
не буду говорить что я ставил, но скажу что в датацентрах на это абсолютно не смотрят
SlexPiter 6 марта 2008, 22:18 # ↑ ↓ –4
Значит пиратку ))) kal4evskiy 7 марта 2008, 01:19 # ↑ ↓ 0
отличный ответ, браво! Zerkella 6 марта 2008, 22:00 # ↑ ↓ +3
некорректно такие вопросы задавать ArjLover 9 марта 2008, 17:08 # ↑ ↓ 0
Сервер же не датацентра, в случае чего он сдаст его органам без лишних вопросов и договор колокейта покажет. И никаких забот ему больше. Apostol 6 марта 2008, 22:17 # ↑ ↓ 0
Зачем винду? о_О
Я когда сервер брал, нашёл человека, который практически за символическую плату настроил линукс со всеми нужными мне службами и провёл вводный курс по администрированию. Когда сервер уже работал, у меня было время потихоньку освоиться с линуксом на домашней машине.
Cher 6 марта 2008, 23:09 # ↑ ↓ –1
Такие вопросы как будто баннеров на хабре не читаете
Шутка. Винда - воткнул диск, поставил все часа за 2, настроил апач и MySQL и спокойно администрируешь. Все работает, ничего не тормозит, не виснет. Память никуда не утекает, а такое было на прошлом сервере с FreeBSD, и не знал куда копать. Я не говорю что винда лучше, мне просто работать надо, а не линукс изучать.
Yura 6 марта 2008, 23:52 # ↑ ↓ +7
PHP под виндой (а у вас ведь Drupal вроде) работает медленно, тк основная задача php win кое-как работать и не глючить, те служить для localhost development. А под продакшен нужны никсы имхо. Т.к. все-таки LAMP, а WinAMP это совсем другое
Cher 7 марта 2008, 01:26 # ↑ ↓ 0
есть еще 2008 Server, там обещали какую-то супер скоростную поддержку PHP
altmind 7 марта 2008, 02:13 # ↑ ↓ 0
fastcgi обещали.
но в apache есть и fastcgi и mod_php
да и у IIS есть php_isapi Apostol 7 марта 2008, 03:42 # ↑ ↓ 0
Освоиться Apostol 7 марта 2008, 03:48 # ↑ ↓ 0
Освоиться ≠ изучать.
Знаете, я когда собранный сервер покупал, то тоже брал для работы, а не чтоб в железе поковыряться. Только вы сэкономили на комплектующих, а я на лицензионно чистой оси, грамотно настроенной специалистом.
Ужасно не люблю холиваров. Сам дома работаю под виндой. redchrom 7 марта 2008, 05:43 # ↑ ↓ +3
Ммм, берём Debian, покупаем ISPmanager (вечная лицензия стоит оочень дёшево), 10 минут и у вас полнофункциональный сервер с панелью управления и всеми службами.
П.С. Не минусуйте, не реклама, просто вполне дешёвая по сравнению с Windows альтернатива, и легальная и честная по сравнении с пираткой.
alfa 7 марта 2008, 07:05 # ↑ ↓ 0
можно и бесплатно webmin поставить, для управления субд и апачем с профтпд и экзимом за глаза, и mdadm кстати тоже можно мониторить. yurr 7 марта 2008, 13:46 # ↑ ↓ +1
ISPmanager, извините, говно. Совершенно сырой продукт.
Работал с Plesk, в целом біл доволен, затем месяц поработал с ISPmanager и бежал в ужасе.
Сейчас работаю под InterWorx SiteWorx, доволен и всем рекомендую (получше плеска - более всё прозрачно, и стоимость ниже) monsterzz 7 марта 2008, 13:20 # ↑ ↓ +1
WHY? Зачем для проекта на php/mysql windows. тем более 2003?
попробуйте lighttpd+fcgi+php+mysql на дебиане.
Мы в свое время простым переездом с apache/mod_php на lighttpd/php-fcgi получили двухкратное повышение производительности (кол-во запросов/сек). autopics 6 марта 2008, 23:09 # ↑ ↓ +2
Рейд0 предназначен для хранения только временной информации и не более 24 часов без бэкапа. Во всех других случаях неоправданный риск. defann 6 марта 2008, 20:22 # ↓ 0
Отличная заметка. Ап и плюс карма.
Cher 6 марта 2008, 20:31 # ↑ ↓ 0
спасибо gravity 6 марта 2008, 20:25 # ↓ 0
Для RAID массива вроде как необходимы точно такие же харды для замены. И кстати ещё одна точно такая материнка. Поэтому затраты несколько возрастут
ISpy 6 марта 2008, 20:31 # ↑ ↓ 0
А зачем вторая материнка? И на счет точно таких же хардов не слышал... Неужели правда?
Cher 6 марта 2008, 20:34 # ↑ ↓ 0
да, правда. И для создания (не только замены) любого RAID нужны одинаковые харды. Другое дело что если один диск полетит в RAID1 на втором вся информация должна сохранится, и более того система должна этого не заметить, то есть продолжать работать на одном. А для того чтобы поднять RAID заново уже придется купить новые диски.
agorlov 6 марта 2008, 22:49 # ↑ ↓ 0
Неделю назад купили сервер на платформе Supermicro 5015 кажется МТ-Т, 1u
с RAID контроллером Adaptec 3405. (за 55т.р. кстати) тоже под веб сервер
Настроил тоже RAID1 из 2х SATA винтов.
Для эксперимента выдернул один винт. Пошли всякие сообщения об ошибках (ОС Linux Ubuntu Server 7.10) (в dmesg и messages)
Комп не завис, но все операции записи на жесткий диск заблокировал.
Т.е. реально система стала не рабочей, хотя и не зависла...
Перезагрузился, контроллер завопил о проблеме, предложил сохранить новую конфигурацию или оставить старую... Вобщем, система загрузилась с одного винта.
Попытался вернуть винт, сделал RESCAN (он долго делал операцию verify и fix),
но так и остался в degrade статусе. Говорит bad stripe... как это побороть не знаю.
Все оказалось не так радужно, как раньше казалось, вроде инфа и дублируется, но похоже добраться до нее не так просто... в случае реального сбоя...
Буду еще экспериментировать, хочу понять можно ли и как восстановить RAID1 в случае отказа одного из винтов... без приостановки работы системы
И еще волнует вопрос, в случае выхода из строя raid-контроллера, можно ли будет с этих винтов грузится или хотябы добыть инфу.
autopics 6 марта 2008, 22:59 # ↑ ↓ 0
Вы уверены, что собрали именно рейд1? Причем тут страйп? Все должно работать, если выдернуть на ходу любой из винтов, на то и рейд 1. Информация полностью зеркалиться. Умные контролеры сами ребилд начинают делать при смене одного из винтов. Если не делает автоматом, то вручную ребилд сделать.
Если у вас хот-свап, то без проблем восстановите все на ходу.
agorlov 7 марта 2008, 10:50 # ↑ ↓ 0
Да, уверен на 100% что RAID1. У меня не большой опыт работы с RAID контроллерами (с целью его получить и начал эксперименты). т.е. мне тоже не ясно почему он ругается именно на бэд страйп.
Кстати, после того, как выдернул винт, я загрузился с первого (уже в degrade режиме) убедился что система работает. После этого воткнул винт (не выключая компа, там саласки удобные, но не уверен, что они для хот свопа "на свой страх и риск"), дал команду arconf RESCAN 1 после этого
он увидел его и долго делал толи ребилд, толи verify and fix...
когда закончил, он все равно остался в degrade...
По совету anton_k пойду на 3nity.ru советоваться дальше
autopics 7 марта 2008, 11:22 # ↑ ↓ 0
Появление degrade это нормально, когда рейд разбирается. Но вот после ребилда статус должен поменяться, конечно. Кстати, ребилд может происходить очень долго в зависимости от емкости винтов и рейда. anton_k 7 марта 2008, 01:55 # ↑ ↓ +1
3nity.ru - просто скопируйте свою проблему туда. daem0n 6 марта 2008, 22:56 # ↑ ↓ 0
Неправда ваша. Для RAID1 нужны винты одинакового размера. У меня вполне успешно пашут WD с Seagate на нескольких серверах. Правда, последнее время отказываюсь от RAID в пользу локального rsync. Вертится все под FreeBSD.
Pas 7 марта 2008, 22:30 # ↑ ↓ 0
И с одинаковой геометрией. defann 7 марта 2008, 18:49 # ↑ ↓ 0
Нет, не правда. Можно использовать разные HDD, но размер RAID 1 будет по размеру меньшего.
Про "материнку". Если используется "хардварный RAID" (в кавычках потому, что на материнских такого класса он почти совсем не хардварный), то необходимо иметь в запасе мать с такой же микросхемой RAID на случай выхода её из строя. Решение: использовать "софтовый RAID", который по производительности в linux не уступает (а иногда и превосходит) "хардварный". ArjLover 9 марта 2008, 17:11 # ↑ ↓ 0
А вот теперь скажи честно, ты после того как винду поставил - пробовал у одного винта питание выдернуть на ходу? technowizard 6 марта 2008, 23:54 # ↑ ↓ 0
Для Linux не критично, а в случае Windows лучше иметь резервную материнскую плату, а то потом придётся наматывать круги в поисках материнки с таким же южным мостом/RAID-контроллером ... ну или винду переставлять
leave 7 марта 2008, 11:38 # ↑ ↓ 0
критично, потому что разные контроллеры (интегрированные, они же софтовые) запросто могут работать с винтами по им одним известному способу. посему наш выбор - только внешний рейд-контроллер, и закупка партиями от 2-х штук
technowizard 7 марта 2008, 16:57 # ↑ ↓ 0
Ну, я в общем говорил RAID1 - не страшно, RAID0 практически не страшно, а про RAID5 я просто надеялся, что никому не придёт голову делать RAID5 на интегрированном контроллере.
leave 7 марта 2008, 17:00 # ↑ ↓ 0
хех, таких горе-умельцев у нас на каждом шагу особенно в домосетях и мелких офисах гуру местного разлива. да и в хостинг-бизнесе такие кадры встречаются ISpy 6 марта 2008, 20:28 # ↓ 0
Спасибо большое за статью! Давно хотел собрать сервер себе, домой )) Чтобы он стоял и тихо жужжжжжал в стойке, где-нибудь в непыльном месте, а я ходил и любовался на него, ковырялся, вместо машины в гараже =D Только что-нибудь подешевле наверно надо... Мне хватит для начала..
А на счет всяких Xeon'ов, Itanium'ов и т.п. Они быстрее чем Core 2 Duo Quad? Или еще за счет чего выигрывают? Не охото гуглить, раз есть возможность спросить у знающего человека))
dram 6 марта 2008, 20:36 # ↑ ↓ +2
Он жужжит очень шумно. Cher 6 марта 2008, 20:44 # ↑ ↓ 0
а зачем домой стойка и стоечный сервер? Я бы поставил какой-нибудь Tower с неоновой подсветкой и жужжит он, это да
ISpy 6 марта 2008, 21:22 # ↑ ↓ 0
Tower серверу не помеха)) Не знаю, хочется.. У меня щас дома 5 системных блоков + ноут ) Все старенькое конечно, но работающее Правда включены всего 2 из всех ) Вот, а хочется все старье выкинуть, поставить сервак нормальный, купить комп тоже новенький, мощный + wi-fi, и пусть все это дома работает ) Не знаю зачем... Для души наверно.... =)
ptiss 6 марта 2008, 21:58 # ↑ ↓ 0
стройте кластер.
ISpy 6 марта 2008, 22:05 # ↑ ↓ 0
Blue Gene в домашних условиях сделаю ) Когда-нибудь... =D den_rad 7 марта 2008, 11:08 # ↑ ↓ 0
Ну только не сервер! У нас на работе под него целый кабинет выделили, жужжит страшно! Я подбиваю начальство выкинуть его - он решает задачи, для которого простенького P3 бы хватило
ISpy 7 марта 2008, 18:09 # ↑ ↓ 0
Ого, даже так Ну тогда да, конечно не стоит, хоть и хочется, но здоровый сон дороже foff4ik 7 марта 2008, 21:34 # ↑ ↓ 0
как буите выкидывать коорднатами поделись altmind 7 марта 2008, 02:17 # ↑ ↓ 0
Xeonы может быть. Но итаниумы не рекомендую вообще. Дорогие, и архитектура другая (не x86совместимая) efix 6 марта 2008, 20:29 # ↓ 0
А почему статья называется "Веб сервер за пару вечеров - II"? Где-то есть первая часть? efix 6 марта 2008, 20:31 # ↓ 0
А почему статья называется "Веб сервер за пару вечеров - II"?
Что, где-то есть первая часть?
Cher 6 марта 2008, 20:35 # ↑ ↓ 0
http://habrahabr.ru/blog/sysadm/36047.ht… - не моя, но как бы в продолжение темы efix 6 марта 2008, 20:33 # ↓ 0
Тю блин. Гейтвей таймаут был khekkly 6 марта 2008, 20:34 # ↓ 0
Хммм.. а все комплектующие получилось купить в магазинах или же что то подзаказ?
Cher 6 марта 2008, 20:37 # ↑ ↓ 0
да, а там ничего такого особенного нет кроме корпуса и направляющих. Да и корпуса сейчас можно найти в обычных местах (sunrise, nix). cmd 6 марта 2008, 20:43 # ↑ ↓ 0
В магазине или у дестебьюторов можно купить без проблем.
Только вот на что-то важно я бы такой сервер не ставил.
khim 6 марта 2008, 21:01 # ↑ ↓ 0
А почему нет? Это так кажется, что "настоящее серверное оборудование" много надёжнее. Да, разница есть, я не спорю, но отнюдь не до уровня что "что-то важно я бы такой сервер не ставил"... Зависит от проекта, конечно, но если backup есть и возможный простой в день или два вас не пугает - почему бы и нет? У нас подобный сервер отпахал 5 лет и сейчас у меня в щкафу от него живая мама лежит... tsepelev 6 марта 2008, 20:43 # ↓ 0
Большое вам человеческое Спасибо!
Передумал покупать сервер, но лучше соберу EvRiaL 6 марта 2008, 20:54 # ↓ 0
Статья супер, осталось только найти поблизости дата-центр jobterra 6 марта 2008, 21:13 # ↓ 0
Статья хорошая, но...
АХТУНГ!
сейчас не доступен. Не пингуется.
Cher 6 марта 2008, 21:17 # ↑ ↓ 0
DNS еще не везде обновились, только вчера переехал
zencd 6 марта 2008, 21:29 # ↑ ↓ 0
а расскажите, это неизбежное зло (что не пингуется) или есть способы?..
Cher 6 марта 2008, 21:34 # ↑ ↓ 0
можно до IP'шника достучаться если интересно
89.188.109.82
но сам venividi на IP в Апаче не прописан khim 6 марта 2008, 21:38 # ↑ ↓ +1
Самый простой способ - сначала поставить новый сервер, а через несколько дней отключить старый. На то время пока работают оба пробросить ssh-туннель. Но для проектов, которые имеет смысл ставить на такой сервер - это перебор. Если же вам важен каждый час простоя, то у вас, скорее всего, найдутся деньги на пару-тройку нормальных серверов и эта статья для вас представлять интереса не будет...
zencd 6 марта 2008, 21:47 # ↑ ↓ 0
(Про ssh-туннель.)
Я правильно понимаю что при таком сценарии старый сервер полностью забывает о своих прежних обязанностях и начинает работать этаким прокси-сервером между посетителем сайта и новым сервером?
khim 7 марта 2008, 00:26 # ↑ ↓ 0
Угу. Работает, понятно, только если у вас нагрузка не очень большая, но зато настойка - одна команда. Для серъёзной нагрузки можно использовать что-то типа VTun, но там больше возни с настройкой... Apostol 6 марта 2008, 22:26 # ↑ ↓ 0
Мне кажется, на хостинге он туннель не создаст. Можно, в крайнем случае, сделать редирект на новый IP и некоторое время поработать без домена.
khim 7 марта 2008, 00:32 # ↑ ↓ 0
Там вроде речь шла про виртуальный сервер - должон. Если был какой-нибудь виртуальный сервер - пробросьте 80й порт с нового сервера на XXXX порт на старом, а оттуда - вытяните контент через mod_proxy (если он инсталлирован, конечно) или через скрипт на PHP (тут уже вопросы загрузки сервера встают, конечно).
Всё делается. Другой вопрос - а она вам надо? Без опыта всё рассыпется, скорее всего, то есть надо проводить эксперименты "на кошках" - а где их взять... alfa 7 марта 2008, 07:01 # ↑ ↓ +1
А по мне так самый простой способ, врубить на старом nginx с прокси на ip нового сервера
location / {
proxy_pass http://новый_ip/;
}
Mastyf 7 марта 2008, 12:49 # ↑ ↓ 0
У автора Windows.
p.s. я сам на nginx DicsyDel 6 марта 2008, 21:16 # ↓ +2
Отличная статья. Автору спасибо. Но флопик за 20 баксов - это перегиб. Он же в районе 7 баксов новый стоит.
SlexPiter 6 марта 2008, 22:24 # ↑ ↓ +2
Так ещё ж на дискетку надо денег twi 6 марта 2008, 23:30 # ↑ ↓ –4
в жо.у флопик. blue ray! anton_k 7 марта 2008, 01:45 # ↑ ↓ 0
Статья-то хорошая, но только ввергает читателей в искушение сэкономить там где не нужно.
Slim FDD - это не "флопик". zencd 6 марта 2008, 21:27 # ↓ 0
ставить внутрь сервера двд/флоппи, это по-моему на айс
может лучше (один раз) приобрести и то, и другое в юсб-версии?
что "поставить негде" - вот не думал что так бывает о_О
Cher 6 марта 2008, 21:38 # ↑ ↓ 0
Я кстати не знаю можно ли с USB флопика или DVD загрузить систему.
Про "поставить негде" - пообзванивайте ради интереса colocation в России, все сразу станет понятно , включая то почему мастер хост поднял цену с 3х тыщ до 5ти
khim 6 марта 2008, 21:40 # ↑ ↓ +2
С USB-floppy и/или можно загрузить систему. Но не со всякого. Я просто снял на несколько часов DVD с рабочего компа, настроил систему и вернул всё взад. За 5 лет операцию не пришлось повторять ни разу... dimokrat 6 марта 2008, 22:21 # ↓ 0
Спасибо, очень познавательно. Хотел бы собрать что-то подобное, или купить б/у не очень мощное, со старым (но хорошо поддерживаемым всеми драйверами и ОС) железом. Может кто посоветует, где такой б.у. сервер поискать?
khim 7 марта 2008, 00:40 # ↑ ↓ +1
Б.у. на сервер не надо ставить. По прошествии определённого времени (на хороших матерях - лет через 5, на плохих - через 2-3) начинают "пухнуть" конденсаторы, дохнуть процы (если их в "ранней" жизни гнали да ещё и плохо охлаждали) и т.д. и т.п.
Лучше всего купить новое железе, но не гнаться за самыми новыми моделями ни в коем случае - на сервере оно почти никогда не надо: лишние 20-30% производительности почти никогда роли не играют (если уж вам не хватает мощности, то вам нужны не лишние 100MHz частоты, а второй сервер), а вот срок службы разгон может сократить очень существенно. К винтам это, понятно, не относится - тут всё очень индувидуально...
anton_k 7 марта 2008, 01:43 # ↑ ↓ 0
С трудом представляю себе задачу, с которой справится сервер пятилетней давности, способный окупить коллокейшен сегодня.
Caesar 7 марта 2008, 09:04 # ↑ ↓ 0
так он не предлагает ставить пятилетний. он предлагает не ставить топовое оборудование типа сверхбыстрой памяти, матерей со сверхбыстрой шиной и сверхрзогнанных процов. т.е. всё что появилось за последние полгода-год (-:
спорный, в общем, момент. я например не согласен. ибо если оборудование начнет глючить, то в первый год, пока оно на гарантии. mitko 6 марта 2008, 22:23 # ↓ 0
1U корпус такой, как на верхней картинке, несмотря на астрономическое количество вентиляторов имеет серьезные проблемы с охлаждением.
Cher 6 марта 2008, 23:22 # ↑ ↓ 0
как на самой первой не знаю, а тот что с 6тью вентиляторами...нууу не знаю, из него тянет очень серьезно, а спереди лучше не проходить ближе 2-ух метров - затянет в решетку. Если без шуток, то тестировал его дома - процессор как был 52-53C, так примерно и оставался на протяжении работы. khim 7 марта 2008, 00:44 # ↑ ↓ +1
1. Да, 100% правда - плохо оптимизированы воздушные потоки и в результате нормально охлаждается один винт и, если повезёт, проц. Остальное всё греется жутко.
2. Всё это фигня: современные винты нормально работают при температуре 50-60 грудусов. Если в этом корпусе монстров на 10'000-15'000RPM не ставить - проблем быть не должно.
Сдохнуть может разве что DVD-привод, но его на сервере, в общем-то просто не надо: если приспичит - захватите с собой... fenst 6 марта 2008, 22:41 # ↓ 0
меня смущет флоппик за 20 баксов
больше, чем за 7 никогда не встречал...
anton_k 7 марта 2008, 01:41 # ↑ ↓ 0
Slim FDD? За 7 баксов? Срочно телеграфируйте - куплю партию в тысячу штук. Для начала.
fenst 7 марта 2008, 09:08 # ↑ ↓ 0
ах, slim..
извиняюсь autopics 6 марта 2008, 22:52 # ↓ +1
Если уж и собирать на коленках, то хотя бы из supermicro.
anton_k 7 марта 2008, 01:36 # ↑ ↓ 0
По опыту - Supermicro делает отличное железо, но все равно - при установке дополнительных контроллеров возникает масса вопросов совместимости. Вплоть до того что стандартные кабеля не влезают, а не стандартные не купить ни за какие деньги. Yura 6 марта 2008, 23:04 # ↓ 0
насчет охлаждения процессора. xeon'ы напр. продаются с охлаждением и в рассчете как раз на корпус, т.е. коробочка с надписью 1u active или 2u passive - ну и содержимое внутри соответствующие. Интел - думает о нас
anton_k 7 марта 2008, 01:38 # ↑ ↓ 0
Они продаются в расчете на конкретную продувку и конкретную температуру окружающей среды. На все есть свои строгие "ГОСТы". Сам по себе "сферический кулер в вакууме" не имеет никакого значения. vak 6 марта 2008, 23:11 # ↓ +4
как глянул на картинку, так вспомнил прикол из своей жизни. меня в гугл приглашал один их рекрутер после прочтения вот этого прикола:
piroJOKE 7 марта 2008, 11:49 # ↑ ↓ 0
Кстати странный прикол. (( Я удивляюсь, зачем афтар засунул туда мышь _целиком_ - ведь достаточно было одной платы с электроникой. Sharper 6 марта 2008, 23:13 # ↓ 0
Очень хорошая статья. Своевременно, с картинками и замечательно. А плюсы я, как новичок, похоже, ставить не умею ( silencer 6 марта 2008, 23:36 # ↓ 0
Спасибо за статью, весьма познавательно и актуально. Caesar 7 марта 2008, 00:45 # ↓ 0
а разве серверные блоки питания совсем не имеют вентилятора внутри?
если имеют, то в чем проблема установки впритык к задней стенке? только экономия пары вентиляторов (-:
Cher 7 марта 2008, 01:22 # ↑ ↓ 0
имеют и даже 2, втяжной и вытяжной (тот что будет торчать наружу). Даже если предположить что воздух внутри блока никак не задерживается:
- вентилятор один а не два.
- посмотрите где будет засасываться воздух в блок питания - это точка в середине, корпуса. Получается что поток через сервер по какой-то коротенькой диагонали протекает в блок питания, и оттуда сразу на выход, совершенно не задевая процессор.
- в нормальных корпусах в том месте где промежуток между вытяжным вентилятором блока питания и двумя вентиляторами задней панели, ставится диагональная перегородочка, и горячий воздух из блока питания гонится в боковые прорези, без лишней циркуляции по корпусу.
Cher 7 марта 2008, 01:28 # ↑ ↓ 0
"- вентилятор один а не два" всмысле на выходе получается один вентилятор dolotov 7 марта 2008, 00:59 # ↓ +1
Вообще очень не хочется на привод место (и деньги) тратить. Поэтому лучше использовать его альтернативу - USB-DVD. Когда надо, подключаешь и всё что надо заливаешь/устанавливаешь. Все новые материнские платы поддерживают такие приводы и загрузку с них. anton_k 7 марта 2008, 01:26 # ↓ 0
Если рассматривать сервер как офисный компьютер в 1U корпусе - то безусловно проще собрать самому. Хотя даже в этих условиях всплывет такое количество нюансов, что карма (не хабракарма) отяготится в любом случае.
Ну а уж если вы хотите собрать сервер с нормальным RAID под серьезный проект... Те несколько сотен долларов, которые вы переплатите в серьезной фирме - с лихвой окупят тот геморрой, который обязательно получится при неудачном сочетании прошивок, драйверов и парт-намберов.
Если через какое-то время RAID начнет разваливаться без видимых причин - все эти советы по поводу самостоятельного изобретения велосипеда - разгонят колесо Сансары до сверхсветовых скоростей.
piroJOKE 7 марта 2008, 01:50 # ↑ ↓ 0
Из моего скромного опыта - фирменные сервера "разваливаются" точно так же само. khim 8 марта 2008, 13:22 # ↑ ↓ 0
Можете почитать как ведут себя сервера от серьёзной фирмы с нормальным RAID. Да они чуток понадёжнее, но если вас интересует сохранность данных, то backup они не заменят, а если у вас уже есть backup... то вы можете придти и к подобному решению. Сейчас, правда, процы греются сильнее - по две материнки в один ряд класть не стоит, наверное... Osa 7 марта 2008, 01:29 # ↓ 0
На самом деле есть возможность собрать ещё почти долларов на 200 дешевле, на 150 так точно
Корпуса украинского производства http://rackmount.net.ua/ru/catalog/
Чуть меньше 100$ за ящик и около 20$ за уголки с полкой, правда 2U повлечет дополнительную плату за колокейшн, но просторнее что тоже плюс, все же в 1U довольно таки жарко )
Osa 7 марта 2008, 01:35 # ↑ ↓ 0
*Кстати, надо добавить, что не все провайдеры взымают доп. плату за 2U , некоторые, причем солидные, даже за 3U не просят.
khim 8 марта 2008, 13:30 # ↑ ↓ 0
Интересно - где вы нашли таких провайдеров в Москве. Человек говорил про datahouse.su - там за 2U придётся доплачивать $100 в месяц, masterhost вообще хочет $150, думаю минимум что вам удастся найти - лишние $70 в месяц, что уничтожит ваш "выигрыш" за три месяца, а дальше вы будете платить, платить, платить...
Osa 8 марта 2008, 14:21 # ↑ ↓ 0
Да, увы.. я про Украину говорил, Wnet например по 20$ за каждый U, или ColoCall где одна цена за размещение сервера до 3U. Osa 8 марта 2008, 14:31 # ↑ ↓ 0
На самом деле "выигрыш" не сиюминутный, в 2U не так жарко, ведь это безусловное преимущество, откинем даже тот момент, что в него легче все подобрать/собрать, но это конечно, если не 150$ в месяц доплачивать, тут я с вами абсолютно согласен.
P.S.
Вообще не думаю, что Мастерхост стоит таких денег, мне кажется это больше бренд чем действительность, но это лишь мое ИМХО, я не претендую на истинность в последней инстанции. piroJOKE 7 марта 2008, 01:42 # ↓ 0
О! Вот это ты, парень, правильную статью задумал.
Потому что оборудование дорогое, просто так с ним не поэкспериментируешь.
И тут как нельзя сильнее нужен чужой опыт. Спасибо - пиши ещё! alexanderr 7 марта 2008, 01:52 # ↓ 0
Господа! А сколько стоит нанять умельца (при условии что все комплектующие я ему дадут). За сколько долларов или рублей он соберет этот серв? Меня интересует средняя цена. И сколько по времени он будет все это дело скручивать.
ISpy 7 марта 2008, 18:22 # ↑ ↓ 0
Ну скрутить то недолго, а вот все правильно настроить и установить ПО - тут возможно и помучаться придется Хотя по ценам я не в курсе.. khim 8 марта 2008, 13:32 # ↑ ↓ 0
Нисколько. Ибо не надо так делать - если не хотите сами возиться лучше арендовать dedicated server. Ибо умелец вам что-то и скрутит, положим, но что вы будете делать через полгода если его скрутки рассыпятся? Cher 7 марта 2008, 02:22 # ↓ +2
Хотел бы ответить сразу всем записывающим самособранные сервера в "несерьезные".
Путем быстрого гуглинга нашел вот такое описание некоторых возможностей сервера IBM:
"Предусмотрена возможность комплектации 2,5" жестким диском SAS емкостью 73 или 146 Гб со скоростью вращения шпинделя 10 тыс. об./мин., без возможности горячей замены. На борту имеется контроллер P5IOC2, реализующий два хост-адаптера Ethernet. Опционально поддерживается установка дочерней платы с двумя портами Gigabit Ethernet. К числу доступных опционально соединений относятся также 4 Гбит/с Fibre Channel, 1 или 10 Gigabit Ethernet, 1х или 4х Infiniband, iSCSI и Myrinet. Для установки этих и других контроллеров предлагается использовать слоты PCI Express, имеется также разъем, совместимый с дочерними платами старого образца."
А вот DELL:
"Сервер PowerEdge 1950 III содержит стандартный в отрасли доверенный платформенный модуль (TPM), который обеспечивает безопасное создание криптографических ключей и управление ими, а также предоставляет генератор случайных чисел, позволяющий выполнять аутентификацию в системе и шифрование. В серверах PowerEdge 1950 III внутренние компоненты блокируются на физическом и логическом уровнях, предотвращая несанкционированный доступ. Например, заказчики, использующие USB-ключи безопасности, могут устанавливать их во внутренний порт USB. Кроме того, теперь контроллер RAID-массива PERC 6/i сервера PowerEdge 1950 III поддерживает технологию RAID уровней 6 и 60, обеспечивая устойчивость к сбоям даже в случае выхода из строя сразу двух жестких дисков."
Мне не нужна поддержка 10 Гбит/с Fibre Channel так как я буду воткнут в 100Мб порт
Мне не нужно по 4ре Ethernet контроллера на плате, мне нужен один на 100Мб.
Мне не нужна поддержка SAS, так как у меня будут SATA диски.
Мне не нужен разъем, совместимый с дочерними платами старого образца.
Мне не нужен доверенный платформенный модуль TPM.
Мне не нужен RAID уровней 6 и 60.
И так можно продолжать до бесконечности. Многие люди почему-то считаю что чем больше ненужных им технологий будет в их сервере тем круче.
Я так же не хочу оплачивать годовые бонусы огромной армии маркетологов коих уже больше инженеров:
"Масштабируемая производительность благодаря поддержке технологий, соответствующих отраслевым стандартам, что позволяет максимально увеличить пропускную способность и надёжность при минимальных затратах" (с сайта HP). Лично меня это не убеждает отдать лишние деньги.
Я тоже считаю что сервер сделанный в DELL лучше сервера сделанного у меня дома. Но не в 2-3 раза, сколько за него просят.
ArjLover 9 марта 2008, 17:16 # ↑ ↓ 0
Даже не парься, у тебя отличный сервер и отличная статья! Я на гораздо худшем тянул 5 лет 200 сайтов и ничего. Им действительно не надо 10 гигабит, они 3 мегабита в пике делают. И при нынешнем развитии интернета такие сервера, где избыточность заложена только на диски - очень востребованы. Инфа не пропадет, а все остальное чинится за два часа на Савеловском рынке, методом покупки новой памяти или БП. Действительно не банк - сайты переживут. Честно говоря сам недавно прошел эпопею апгрейда нескольких серверов в ДЦ - тема очень близка. iLearner 7 марта 2008, 04:13 # ↓ 0
Когда-то мечтал о собственном сервере. Проблема в том что я hopeless (лох) в том, что касается серверов. Хочу сконцентрироваться на том что я знаю (английский язык, немного) и не парить себе мозги тем, что мне недоступно. За статью спасибо. Со своей стороны предпочту dedicated hosting или co-location. Чувствую, что скоро придется переходить с VPS дальше, но пока все в тумане. Скажите, есть какая нибудь контора, которая за ежемесячную абонентную плату (менее 30 евро в час) готова взять на обслуживание сервер, допустим, в Германии? neGODnick 7 марта 2008, 04:40 # ↓ 0
Очень интересно, спасибо автору и комментаторам.
А вот у меня другая задача — собрать не сервер, а «суперкомпьютер». НЕ ДЛЯ ИГР! Для графики и др. разработки. Надоели тормоза.
Что требуется:
— 2 процессора Intel. Какие именно — не могу решить, но нужна будет возможность запуска второй ОС в Xen. Понятно, что достаточно мощные.
— Поддержка двух мониторов: основной 22—24" и второй 19" (в перспективе 2х22—24"). Какие нужны видеокарты, одна или лучше две, пока не разберусь.
— Чем больше влезет SATA-дисков, тем лучше.
По идее подошёл бы Mac Pro, но всего 4 диска в бандуре такой мощи и за такие деньги считаю издевательством. Да и по другим причинам не устраивает.
Упёрся в ряд проблем, главное — двухпроцессорные материнки слабы по части поддержки видеокарт.
Кто-нибудь может что-нибудь посоветовать?
Кто-нибудь видал что-либо подобное в дизайн-студиях или ещё где-нибудь?
norguhtar 7 марта 2008, 07:57 # ↑ ↓ 0
Ждите Intel SkulTrail ISpy 7 марта 2008, 18:26 # ↑ ↓ 0
Вот это монстр получится, прикольно! Удачи norguhtar 7 марта 2008, 07:45 # ↓ 0
DEPO Storm 1110A1
Стоит меньше тысячи баксов. Есть ColdSwap для винчестеров. Для небольшого вебсервера этой конфигурации за глаза.
z00 7 марта 2008, 17:49 # ↑ ↓ 0
последние 7 серверов заказанных в депо оказались самыми настоящими супермикро, перепечатанными в коробки с символикой депо компутерс. Предполагаю что тоже самое и со всеми их серверами. Согласитесь, смешно было думать, что в России собирают сервера.
norguhtar 9 марта 2008, 07:30 # ↑ ↓ 0
Сервера я думаю как раз собирают в России. А вот комплектуху везут оттуда, насколько помню недавно был принят закон о уменьшении налоговой пошлины на комплектующие (для стимуляции создания сборочных производств). Тот сервер что я привел это перелицованный MSI Server Nitrogen 7 марта 2008, 08:19 # ↓ 0
я бы не советовал использовать raid встроенный в материнскую плату, в случае каких нибудь проблем - возникнут затруднения с восстановление информации - можете почитать на том же хоботе, какие случаются проблемы
по этому настоятельно рекомендую купить нормальный аппаратный рейд-контроллер.
symbix 7 марта 2008, 10:14 # ↑ ↓ +2
+1. и еще - не знаю, как в windows, но в нормальных:) ОС производительность "fakeraid"-ов (если удастся найти и "завести" драйвер) обычно ничуть не выше, чем при использовании стандартных для ОС softraid (lvm/gmirror).
piroJOKE 7 марта 2008, 11:32 # ↑ ↓ 0
Да ты попробуй щас найти честный рейд, щас их имхо вообще не выпускают!
Pas 7 марта 2008, 23:16 # ↑ ↓ 0
Выпускают ))
Например, SATA Promise серии Fast Track (стоимость около 15т.р.): основные уровни RAID, включая пятый; Intel X-Scale на борту, шина PCIex4. О SCSI и SAS контроллерах я вообще молчу, если брать именно "RAID-controller" - это нормальная железка с нормальным чипом, XOR'ом, памятью и батарейкой. Из популярных: Adaptec и LSI Logic. Есть еще т.н. "Host-controllers" - это не рэйды, а платы-контроллеры, они бывают и поддерживают какие-то уровни RAID (как правило 0, 1 и их совокупности), но это уже чистой воды фейковая функция.
Кстати, не забывайте, к SAS-контроллерам можно подцепить SATA-винты.
Рэйды на южномостных решениях (ICH, nVidia...), контроллерах на SiL и им подобным (какого бы бренда сама карта не была) - это чистой воды фейк, собирать массивы на таких как минимум опасно. Также, приготовьтесь, что нормальных контроллеров под шины PCI и PCIex1 не делают, как правило они на шинах PCI-X и PCIex4-8.
Также, не забывайте, что ресурс дисков очень сильно зависит от средней температуры, при которых они работают, в нормальных rack-mount корпусах этому уделяется большое внимание (практически весь воздух сосётся через морду из "холодного коридора", равномерно проходит через харды, проходит через дырки в back-plane дисковой корзинки и далее через всю комплектуху, после этого выплевывается в "горячий коридор" через дырки сзади сервера и б.п.)
piroJOKE 8 марта 2008, 03:08 # ↑ ↓ 0
Замечу, что вообще-то PCI-X платы чудесно втыкаются в PCI.
Pas 8 марта 2008, 12:33 # ↑ ↓ 0
Да, и даже работают. Но не более того, все вкусности шины PCI-X сразу пропадают (( khim 8 марта 2008, 13:15 # ↑ ↓ 0
Ресурс дисков очень слабо зависит от средней температуры. Другое дело что 15-тысячник может и до 80 градусов нагреться без приличного охлаждения - а это уже критично.
PCI-X платы вставляются в PCI, PCI-Express x4-x8 - в PCI-Express x1 (при наличии лобзика).
Pas 8 марта 2008, 13:50 # ↑ ↓ 0
По поводу ресурса дисков - личные наблюдения, когда температура выше 60-ти, диски через три года начинают ремапить сектора, а это уже однозначный сигнал для замены. Тем более в дата-центрах не всегда тепличные условия, вот, сколько московских дата-центров страдало от перебоев с кондиционированием прошлым летом...
"PCI-Express x4-x8 - в PCI-Express x1 (при наличии лобзика)" - ужас какой О_О. На подобный самопал нагляделся вдоволь, правда укорачивание PCIe лобзиком еще не видел...
norguhtar 9 марта 2008, 07:32 # ↑ ↓ 0
Там не укарачивание, а распиливание слота. Сейчас даже продают готовые материнки с незакрытыми слотами. В результате туда можно поставить карту с PCI-E x4. Хотя работать она будет на x1. khim 8 марта 2008, 13:34 # ↑ ↓ 0
Собственно результатом является парадоксальный факт: для малого сервера лучше всего простой softraid. v1000 7 марта 2008, 11:20 # ↓ 0
а можно узнать точные названия всех комплектующих?
а то "ASUS c SVGA, Gb LAN и RAID" звучит как-то слишком абстрактно...
khim 8 марта 2008, 13:35 # ↑ ↓ 0
А смысл? Приди в магазин, открой каталог - там будет пяток материнок, которые этому определению удовлетворяют. Бери любую (собственно ту, которая подешевле). zzeus 7 марта 2008, 11:34 # ↓ 0
"Поэтому не покупайте процессор в поставке BOX, и сразу докупайте серверный радитор, примерно такой"
а что, коробочные серверные процессоры с пассивным охлаждением в коробке отменили? O_o
khim 8 марта 2008, 13:38 # ↑ ↓ 0
К сожалению да. "Коробочные серверные процессоры" - это Xeon'ы. Если вы их два ставите, то в них есть смысл, но одиночный Xeon будет иметь только два отличия от десктопного проца: он будет иметь "правильный" радиатор и он будет заметно дороже. Лучше купить OEM проц и отдельно - радиатор...
Pas 8 марта 2008, 14:11 # ↑ ↓ 0
Значит, Вы утверждаете, что нет смысла в multicore-Xeon 3000-й серии (LGA-775), которые работают в одноголовом режиме? Тогда зачем Intel их делает? А по поводу multicore-Xeon 5000-й серии (LGA-771): я согласен, раз есть такая возможность, надо ставить две головы, тогда получается восемь полноценных ядер. Только в случае с Ксеонами - тут уже матери нужны на подходящих чипсетах, да и память с коррекцией, а под 5000 - буферированную FBDIMM, а это уже другие цены, тут уже и корпус нормальный купить можно, тот же Intel SR-1530 или SR-1500 norguhtar 9 марта 2008, 07:34 # ↑ ↓ 0
В 2U входят большинство бюджетных куллеров, а так же боксовые куллеры. Это тут товарищ слукавил.
PS У меня за плечами сборка около десятка таких серверов. Пришествие SATA избавила от основного геммороя, укадки шлейфов. Sap_ru 7 марта 2008, 11:41 # ↓ 0
А Core Quad с таким маленьким радиатором и сомнительным обдувом не греется? Если тролинг срабатывает, то, возможно, лучше взять Core2Duo на меньшей частоте, зато он будет работать под нагрузкой 100%.
mocksoul 9 марта 2008, 17:10 # ↑ ↓ 0
уважаемый, там вот пачка промышленных кулеров в середине корпуса жрет по десятку ватт каждый и работают на 15000rpm. Все это дело сосздаёт огромный поток воздуха, способный даже 2-4 горячих четырехядерника остужать.
Правда это всё к брендовым серверам, я в своё время сановские очень кропотливо рассматривал. А насколько проивзодительные кулеры в корпусе Chieftec сказать сложно - ибо по уму каждый из кулеров 30$ стоит =) medgimet 7 марта 2008, 11:47 # ↓ 0
Хорошая статья. В Киеве все это можно и дешевле собрать. Если у колокола корпуса брать.
Впрочем у _http://onix.kiev.ua/product.asp?id=SVR5015M-Tplus примерно теже деньги получаются.
ЗАчем так много ОЗУ? Держу пари, что Ваши проекты больше двух гб не займут, раньше CPU юсадж замучает...
prmy 7 марта 2008, 13:13 # ↑ ↓ 0
Лучше брать не у Колокола, а "Индустриального компьютера" (wwwinpc.kiev.ua). Ценовая политика примерно одинаковая, выбор намного больше, сертификаты, да и качество намного лучше (у Колокола оно, к сожалению, на уровне консервной банки).
Собственно, делать свои корпуса и стойки Колокол начал ввиду отсутствия желания продолжать покупать их у INPC (длительное время он был у них крупнейшим клиентом). defann 7 марта 2008, 19:02 # ↑ ↓ 0
Там же венда. khim 8 марта 2008, 13:40 # ↑ ↓ 0
На четырёх-то ядрах? У меня и на одном были проблемы с нехваткой 2GiB памяти. Запас карман не тянет - пусть будет... kost 7 марта 2008, 13:03 # ↓ +1
...и загибаем не влазиющую верхнюю часть...
Если «не влазиющую», то надо писать «загинаем». nixil 7 марта 2008, 14:30 # ↓ 0
http://wit.ru/products/intel/sr1530ah.pd…
Проще эту платформу было использовать, по деньгам примерно тоже самое получилось бы. z00 7 марта 2008, 17:37 # ↓ 0
хорошая рекламу венивиди делаете, мне нравится, честно.
Ну и по делу, надо же выпендрится.
Чтобы не говорили, но делы и хп стоят тех денег, что за них просят (я про их настоящую цену, а не бесбожные накрутки в России). Открываешь корпус и глаз радуется: все на своем месте, легко достается, меняется, устанливается. Кстати, то что вы показали это называется сервер от агавы за 40 бачей в месяц, которые собираются на декстопных асусах студентами по ночам. Впринципе пойдет, но только для начала.
переходники типа такого, называются райсер. Бывает под pci, pcie всех размеров, левые правые и так далее.
Встроенный рейд, тем более на таких материнках это в 99% hostraid, не имеющий своего процессора, поэтому за рейд все равно будет отвечать ОС, а в 50% ОС может вообще проигнорировать созданный этим всевдо рейдом массив, это так, для успокоения. Кто действительно дорожит данными, ставит нормальные "железные" карты рейдовские.
Салазки тоже не угадаешь какие брать, в каждом дц стойки собраны по-разному. У меня 12 пар уже валяется, не знаю кому отдать.
А вообще в России беда с серверным оборудованием. Максимально что могут поставить — это ширпотребный супермикро, только богатенькие конторы могут позволить себе тот же hp или делл.
Ну и на бюджетные деньги могут себе стойку укомплектованную айбиэмовскую купить. grey_kristy 7 марта 2008, 19:05 # ↓ 0
Хорошая статья, как раз тему - тоже себе сервер подбираю.
Но собирать конечно не буду. На мой взгляд не имеет смысла - no name сервера российской сборки стоят на пару сотен дороже, а свое время тоже не дармовое. (пару дней то на сборку потратили?)
В связи с этим вопрос - есть где-нибудь в сети обзоры/тесты одно юнитных серверов начального уровня от dell/hp/ibm?
В рунете я ничего не нашел, может кто на английском видел. Alexus 7 марта 2008, 21:59 # ↓ 0
Собирал в таком же корпусе, только купил за 150 или 200 зеленых, не помню уже.
И вообще все существенно дешевле, даже оценочная стоимость при постановке в ДЦ $600.
Последний сервер просто купили б/у HP Proliant уже на площадке. Brim 8 марта 2008, 01:13 # ↓ 0
К слову об 1юнитовых кулерах, вот навскидку 2:
$47.50
CPU: Intel® Core™ 2 Extreme, Core™ 2 Duo, Selected Pentium® D Dual-Core Solution and all Single-Core socket 775 for 1U server
Specification:
Overall Dimension: 83 x 94 x 28 mm
Weight: 453g
Heat Sink:
Material: Copper
Dimension: 83.0 x 90.8 x 11.3 mm
Fan:
Dimension: 70 x 70 x 16 mm
Speed: 7000 rpm
Bearing: 2xBall
Rated Voltage: 12 V
Power: 8.4 W
Air Flow: 12.833 cfm
Noise Level: 54.4 dBA
Air Pressure: 1.70 inch-H2O
$45.60
CPU: Intel®LGA775 1U server active cooler up to 3.4GHz for 630 / 640 /650 / 520 / 520j / 530 / 530j / 540 / 540j / 550j
Specification:
Overall Dimension: 83 x 87.0 x 26.5 mm
Weight: 420g
RoHS Compliance
Heat Sink:
Material: Copper
Dimension: 83.0 x 84.0 x 26.5 mm
Fan:
Dimension: Blower 60x60x15 mm
Speed: 6000 rpm
Bearing: 2 Ball
Rated Voltage: 12 V
Power: 5.64 W
Air Flow: 7.4 cfm
Noise Level: 49.8 dBA
Air Pressure: 1.12 inch-H2O
Дабы не было рекламы ссылок не даю, но в путях к картинкам все есть. У них и китайские дешевые сервера рековые есть.
khim 8 марта 2008, 13:46 # ↑ ↓ 0
Не надо таких зверей ставить! Они могут решить любую из проблем:
1. Влезть в 1U корпус.
2. Охладить проц.
Но есть одна маааленькая беда: они не могут сделать этого одновременно! Забор воздуха в них сверху - а там в 1U-корпусе нет воздуха, там железная стенка!
mocksoul 9 марта 2008, 17:07 # ↑ ↓ 0
а может там дырку в крышке вырезать надобно? )
piroJOKE 9 марта 2008, 22:04 # ↑ ↓ +1
Так там будет железный низ следующего блока, что меняется-то? ))
mocksoul 9 марта 2008, 22:19 # ↑ ↓ 0
блин. Внатуре. Посчитал - расстояние между направляющими юнитов от 2мм до 4мм (взял два шкафа в инете наугад, у обоих - 3мм примерно).
Значит это актуально для двухюнитовых и выше серверов может быть только. piroJOKE 9 марта 2008, 01:05 # ↑ ↓ 0
Да нахрен это надо?! Туннели надо делать, туннели! Чтобы продувался радиатор. И что самое смешное - их легко сделать даже на коленке. )
mocksoul 9 марта 2008, 17:06 # ↑ ↓ 0
ну это видимо в тех случаях когда с туннелями проблематично.. ) symbix 8 марта 2008, 15:04 # ↓ 0
вот еще вспомнил, кстати - надо быть внимательным при выборе материнки (если решили сэкономить и взять "хомячную").
моя неосмотрительность однажды привела к тому, что я сидел и выпиливал напильником в низкопрофильных радиаторах отверстия для конденсаторов, оказавшихся на материнке в самом неподходящем месте voidMan 9 марта 2008, 01:41 # ↓ 0
Отличная статья, спасибо!
P.S. На сайте в разделе ? опечатка "ТИП МАТЕРАИЛА" mocksoul 9 марта 2008, 17:16 # ↓ 0
если уж собирать такие сервера - то явно не для "собираем хороший сервак за дешево". Если корпус за две сотни - то набор компл. которые туда безопасно запихать должен стоить баксов 500 в сумме.
Дело в том, что очень легко объяснить как у вас могут рассыпаться винты. Кулеры которых много скорее всего без всяких водных подушек или резиновых подложек. Если один из них сдохнет, то он по всему корпусу такую дрожь сделает, что в течении пары месяцев объёт винты (сначала сдохнут именно они).
Вот ентот мч http://www.casemods.ru/section10/item265… в статье исследовал просто дофига таких нюансов. Блок 350w в сервере - сродни самоубийству.
mocksoul 9 марта 2008, 17:19 # ↑ ↓ 0
т.е. тут http://www.casemods.ru/section10/item265…
dimokrat 9 марта 2008, 19:57 # ↑ ↓ 0
Спасибо, очень интересно! Хотя и не согласен с таким категорическим мнением насчет самосбора - в конце концов, есть масса примеров обычных десктопов, стабильно работающих в качестве серверов в SoHo с немалой нагрузкой по несколько лет. Есть, конечно, и обратные примеры.
mocksoul 9 марта 2008, 20:26 # ↑ ↓ 0
Я вот один раз где-то читал как какой-то там дядька взял купил сервер Sun и распотрошил его целиком рассказывая что как и зачем. Цель была как раз научится себе серваки собирать =). Так вот я как почитал, сразу понял - что все эти корпуса стоят настолько много совсем не просто так. Конечно, можно то же самое собрать самому и дешевле, но вряд ли сам будешь тестировать его по сотне тысяч часов =). К сожалению, оригинал статьи как то не найти . А жалько. Doctorrr 12 марта 2008, 15:43 # ↓ 0
респект за статью! SOLEI 24 марта 2008, 14:16 # ↓ 0
Спасибо, очень познавательно и важно для меня сейчас Vitaly 25 марта 2008, 23:56 # ↓ 0
Простите что задним числом. У меня был самосборный сервер. Могу сказать, что это поиск на жопу приключений ради сотни-двух долларов. Меня частично извиняет то, что 4 года назад было заметно похуже с дешевыми серверными комплектующими.
Сейчас не проблема взять дешевую супермикровскую платформу. Если сильно хочется сэкономить - корпус отдельно, мать отдельно. Выйдет практически в ту же сумму, что вы озвучили.
Плюсы имеем следующие:
1. Точно не будет проблем с раскладкой кабелей, если вдруг окажется, что мать фигово стыкуется с конструктивом корпуса. Не будет чудес, когда задняя часть матери не соответствует заднице сервера и в итоге остается дырка.
2. Не прийдется с удивлением обнаружить, что на выбранной матери память стоит поперек и весь обдув (в т.ч. процессора) летит к чертям. Кстати, на большинстве десктопных матерей память стоит именно поперек корпусных вентиляторов, а не вдоль.
3. Не будет чудес с креплениями в стойку, если корпус умудрились продать без них. Частая ситуация.
4. Обдува точно хватит, чтобы не ставить кулер на процессор. Кулер на процессоре в 1U - это зло. Слишком низкая надежность: накроется процессорный кулер - жахнется весь сервер. А если обдув корпусными вентиляторами, то там их от 4 штук, запас большой. Кстати, с поиском радиатора проблем тоже не будет.
Это все вроде мелочи, но зачем рисковать за практически те же деньги, когда можно взять нормальный набор и не париться?
5. Принципиальный момент. В самопальный сервер вы точно не поставите плату IPMI. Про KVM я вообще молчу. IPMI - must have. Примочка стоит меньше 100 долларов, и с ней НАМНОГО комфортнее, чем без нее.
То что я описываю - это не таинство навороченных и дорогих брендов. Народные супермикры вполне доступны и избавляют от массы головных болей.
Из мелких замечаний - если вы не ставите в сервер серьезный контроллер - не надо использовать поделки, которые стоят на матери. Толку от них нет. Плюс, в случае проблем у вас не будет драйверов под юникс, чтобы сделать горячую замену диска и свести RAID заново. Тут нас выруливает софтовый рейд.
Ну вот как-то так. Удачи.
mariii 18 мая 2008, 12:24 # ↑ ↓ 0
В целом написано правильно,надо брать только фирменные или кому удобнее брэндовые комплекты.
НО по нескольким пунктам хочется прокомментировать ( в данном случае возьму Супермайкро) :
1.Абсолютно верно заметил,НО у того ж типового http://www.supermicro.com/products/chas … 1T-300.cfm
можно крутить как хочешь,в рамках модельного ряда,например PDSML,c целью снижения издержек и.т.п.,просто прежде чем брать,читаем докуху.
2.Для этого умные компании придумали другие корпусы,какие - ноу-хау,но есть и для бокового обдува,но опыте страрого ДЦ,могу сказать,что если у тебя в рабочей зоне 19-21 градус на входе - поверь пофигу,не одна сотня серверов была сделана по образу и подобию.
3. На "диком западе" этого не бывает .
4.На 50 % согласна,опять таки,существует масса "специализированых кулеров,но к сожалению у нас были 2-3 % отказов их,после года работы.
5.КВМ - в большинстве случаев лучше ставить внешний,как и Ремот-ребут,не будет проблем с унификацией...IPMI - слот во многих матерях - имхо барсто,при наличии внешнего доступа,просто хорошо оборудованный ДЦ,обязательно имеет обвяз.
А в целом абсолютно зравая мысль,об использовании специализиорованного оборудования.
2 Автор топика,идея хороша,но ... kex 8 октября 2008, 19:58 # ↓ 0
Несколько раз был на вашем сайте и заметил, что подтормаживает на загрузке больших фоток. Раз уж вы здесь , предложу вариант взять дешевый plain хостинг на mh (к примеру) и выкладывать (дублировать) часть фоток (например за последние N дней) туда.