Предыдущая тема :: Следующая тема |
Автор |
Сообщение |
Sol
Зарегистрирован: 05.12.2003 Сообщения: 427 Откуда: Томск
|
Добавлено: Пт Фев 11 2005 08:26 Заголовок сообщения: Хотелось бы услышать мнение об этой статье! |
|
|
Кластеры высокой готовности..
http://www.opennet.ru/docs/RUS/ha_cluster/index.html
Может кто уже использовал в своей работе эту штуку..?? _________________ In My Humble Opinion |
|
Вернуться к началу |
|
|
squirL
Зарегистрирован: 05.01.2005 Сообщения: 371 Откуда: Одесса
|
Добавлено: Пт Фев 11 2005 10:25 Заголовок сообщения: |
|
|
статья хорошая, грамотная и подробная. вещь полезная, хотя стоить отказоустойчивый кластер для бесперебойной работы описанных автором сервисов, ИМХО - стрельба по воробьям из стингера. хотя все зависит... |
|
Вернуться к началу |
|
|
and3008
Зарегистрирован: 12.10.2001 Сообщения: 14893 Откуда: Н.Новгород
|
Добавлено: Пт Фев 11 2005 19:28 Заголовок сообщения: |
|
|
Через несколько месяцев подобное решение будет запущено в одной весьма немаленькой телекоммуникационной компании.
Сейчас идет активное тестирование.
Перенесена будет почтовая система.
По статье:
Автор лукавит, когда говорит, что при падении сервера "музыка будет играть". Наглая ложь. Играть она не будет, т.к. вместе с серваком умрет SMB-процесс, который клиента обслуживал. Через несколько секунд поднимется второй сервер, но он ничего не знает о старых клиентах упавшего сервака. И юзверям нужно будет перезапускать софт или нажимать в софте какие-то доп.кнопочки для того, чтобы их ПО возобновило свою работу.
Вот уж во истину "быстро поднятый сервак, не считается упавшим".
Heartbeat с этим чудно справляется.
А юзверей надо либо предупредить о таких возможных делах, либо разрабатывать ПО, учитывающее такие падения, либо вообще никому ничего не рассказывать и делать изумленные глаза. Всех водить в серверную и показывать исправную работу как сервера, так и приложений.
Кластеризация - довольно сложное дело и не надо ждать от него чудес. Поставьте сперва реальную цель и попробуйте ее добиться.
Есть довольно много реальных применений и довольно реальных задач, которые подобный кластер будет нормально обрабатывать.
Еще совет. При создании кластера придерживайтесь правила "одна служба - один общий диск". Зачем так? Больше гибкости. Оцените в процессе освоения.
Если вы собираетесь кластеризовать таким макаром тяжелую СУБД, то рекомендую даже не начинать. Угробите данные. Для тяжелых СУБД есть более правильные решения. Например Oracle 10G |
|
Вернуться к началу |
|
|
squirL
Зарегистрирован: 05.01.2005 Сообщения: 371 Откуда: Одесса
|
Добавлено: Сб Фев 12 2005 17:28 Заголовок сообщения: |
|
|
and3008! вы мешаете в одну кучу разные понятия - Oracle 10g - система для посторения кластеров с балансировкой нагрузки (улучшеный RAC). а в статье говориться про отказоустойчивые кластера. |
|
Вернуться к началу |
|
|
and3008
Зарегистрирован: 12.10.2001 Сообщения: 14893 Откуда: Н.Новгород
|
Добавлено: Сб Фев 12 2005 18:35 Заголовок сообщения: |
|
|
Моя ремарка про Oracle призвана остудить некоторые горячие головы от неоправданных шагов.
А если Oracle 10G развернуть на системе хранения от EMC и использовать их решения по аппаратному зеркалированию? Тогда это будет какой кластер?
|
|
Вернуться к началу |
|
|
and3008
Зарегистрирован: 12.10.2001 Сообщения: 14893 Откуда: Н.Новгород
|
Добавлено: Сб Фев 12 2005 18:36 Заголовок сообщения: |
|
|
Моя ремарка про Oracle призвана остудить некоторые горячие головы от неоправданных шагов.
А если Oracle 10G развернуть на системе хранения от EMC и использовать их решения по аппаратному зеркалированию? Тогда это будет какой кластер?
|
|
Вернуться к началу |
|
|
squirL
Зарегистрирован: 05.01.2005 Сообщения: 371 Откуда: Одесса
|
Добавлено: Сб Фев 12 2005 19:06 Заголовок сообщения: |
|
|
два раза для убедительности запостили :)))
точно также можно развернуть все что угодно. и Oracle 9i и Oracle 8 и Sybase и еще туеву хучу всего.
было написано:
Цитата: | Если вы собираетесь кластеризовать таким макаром тяжелую СУБД, то рекомендую даже не начинать. Угробите данные. Для тяжелых СУБД есть более правильные решения. Например Oracle 10G |
не знаю что вы имели ввиду, но, возможно в силу инерционности мышления, фраза воспринимается как "для организации отказоустойчивых кластеров тяжелых СУБД не надо применять всякие Heartbeat, а надо ставить родные средства например Oracle 10g"
Oracle10g, как вы знаете, разрабатывалась, в частности, для GRID вычислений. к отказоустойчивости grid отностится слабо |
|
Вернуться к началу |
|
|
and3008
Зарегистрирован: 12.10.2001 Сообщения: 14893 Откуда: Н.Новгород
|
Добавлено: Сб Фев 12 2005 19:31 Заголовок сообщения: |
|
|
Согласен немного подискутировать дабы для самого себя уяснить некоторые вещи.
Отказоустойчивые серверы предназначены для непрерывной работы какой-го либо сервиса. В случае сбоя сервис запускается на аналогичном железе. Так делают HA-кластеры сейчас.
GRID-системы разделяют нагрузку между собой, что позволяет повысить скорости вычислений на порядки.
Я все правильно понимаю?
Внимание вопрос. Если в GRID-системе откажет узел, что будет? Наверно примут его нагрузку на себя. Чем же это кардинально отличается от отказоустойчивых серверов?
Наверно тем, что GRID используют для "параллельных" программ, а отказоустойчивые серверы предназначены для обеспечения непрерывной работы "обычных" (обычно не параллельных) программ.
Если я ошибаюсь, просьба поправить. |
|
Вернуться к началу |
|
|
squirL
Зарегистрирован: 05.01.2005 Сообщения: 371 Откуда: Одесса
|
Добавлено: Вс Фев 13 2005 16:39 Заголовок сообщения: |
|
|
совершенно верно.
основное очевидное отличие в том, что при выпадении узла из того же GRID производительность всего кластера уменьшится. а при умирании узла в отказоустойчивом кластере этого не случится. |
|
Вернуться к началу |
|
|
Sol
Зарегистрирован: 05.12.2003 Сообщения: 427 Откуда: Томск
|
Добавлено: Пн Фев 14 2005 07:06 Заголовок сообщения: |
|
|
Большое спасибо за отзывы!
Жизнь подталкивает к действиям по осваиванию кластеризации..
Восстановление из бэкапов - это слишком долго в наше время..
Планируем к концу февраля взять машинки для опробования кластеризации..
Не знаю правда, по силам ли будет.. Не утонем ли в тонкостях настроек.. или следствиях побочных эффектов..
squirL:
Не очень понятно про стингеры...
А какие сервисы стоят того, что бы их переносить на кластер?? _________________ In My Humble Opinion |
|
Вернуться к началу |
|
|
and3008
Зарегистрирован: 12.10.2001 Сообщения: 14893 Откуда: Н.Новгород
|
Добавлено: Пн Фев 14 2005 22:18 Заголовок сообщения: |
|
|
Как уже отмечалось - кластеры бывают разные.
1. Пуленепробиваемые (за счет избыточности)
2. Числодробильные
3. Смешанные
Числодробильные требуют соответствующего хорошо паралелилизуемого ПО.
Пуленепробиваемые годятся практически для любого ПО. Главное свыкнуться с мыслью, что часть вычислительной мощи (обычно 50%) курит бамбук, но оно всегда готово ринуться в бой, если товарищ упадет, сраженный некачественной железкой или ошибкой в ПО.
Что в первую очередь кластеризовать? Что наиболее критично для вас. Потери от чего самые большие, с того и начните.
Смешаные кластеры можно делать довольно осторожно. С пониманием что делаешь и чего хочешь достичь.
Перед покупкой компов сперва продумайте дисковое хранилище. DRBD решение не самое лучшее. Возможно вас не устроит производительность. Внимательно протестируйте его. Возможно лучше будет разориться на кластерный JBOD от того же EMC.
Кластеризация не отменяет резервное копирование! Не заблуждайтесь на этот счет. |
|
Вернуться к началу |
|
|
совсем незнакомый
Зарегистрирован: 24.12.2003 Сообщения: 183 Откуда: Israel
|
Добавлено: Ср Фев 23 2005 01:10 Заголовок сообщения: |
|
|
очень интересная дискуссия....
я бы разбил кластеры на 3 независимых параграфа:
1. HA ( High Availability ["ванька-встанька"] ) - это когда нужно, чтобы стоял всегда, без перебоев... ;-)
2. HTC ( High Throughput Computing ["дальнобойщик"] ) - это когда нужно загрузить как можно больше и везти как можно дальше и до следующей зимы.
3. HPC ( High Performance Computing ["спринтер"] ) - это когда нужно в любой момент быстро и сильно отреагировать.
если не видна разница между 2 и 3: в случае 2 не важно, что часть бастует - те кто не снами, не против нас ( мы других позовём ). это GRID.
в случае 3 - главное: если не с нами, то на фига ты нам нужен... т.е. все машины - dedicated, только для отряда быстрого реагирования. |
|
Вернуться к началу |
|
|
Ersh
Зарегистрирован: 20.01.2004 Сообщения: 107
|
Добавлено: Пт Фев 25 2005 12:27 Заголовок сообщения: |
|
|
GRID - это не кластер, и впихивать его сюда не считаю нужным. Это никак не замена клесторов и используются они для разных целей, то есть кластер предполагает распараллеливание вычислительной мощности, а основная задача грида - избавить от "простаивания". Именно поэтому кластер научно-исследовательского вычислительного центра МГУ(160 процессоров), также как и другие класетры не был включен в грид сеть, которая строится на базе CERN'a., и по полощади эта сеть занимает почти все европу.
Кому интересно что такое вообще грид, и куда суется советую почитать: http://www.globus.org/research/papers/anatomy.pdf _________________ Анархия - мать порядка!!!!!!!!! |
|
Вернуться к началу |
|
|
совсем незнакомый
Зарегистрирован: 24.12.2003 Сообщения: 183 Откуда: Israel
|
Добавлено: Вт Мар 01 2005 00:30 Заголовок сообщения: |
|
|
Если тов. Ёрш ( или Ерш? ) хочет сказать, что МГУ - за простаивание комп. ресурсов.... (.... а европейский ГРИД разрастается....)
начнём с того, что 160 процессоров даже очень сильных - это неплохо. а более сотни тысяч наверное лучше. не знаю как в МГУ, но в общем у каждого универа есть несколько сот процессоров.. в России может не в каждом, но есть.
Допустим, в МГУ запускают проекты. допустим они бегут половину года.
даже 2/3. Неужели не понятно, что если присоединиться к ГРИДУ,
время пробега долгих процессороедливых батничков слкратится ... ну чуточку.
Кстати, насколько жители МГУ знакомы с проектом "Кондор" и подобными ? Ведь, он позволяет, именно распараллеленные задачи запускать в ГРИД.
А ну, марш в Церн записываться!
Советую, пгисоедидиться ... "копьютарии всех стран, соединяйтесь!"
П.С.
Ессно, есть проблемы безопасности.. но, в таких случаях можно объявить "все ушли, будут через пол года." - пока чувствительный материал бежит. |
|
Вернуться к началу |
|
|
Ersh
Зарегистрирован: 20.01.2004 Сообщения: 107
|
Добавлено: Вт Мар 01 2005 10:40 Заголовок сообщения: |
|
|
Прочитай получше зачем создавался грид(цели и т.д.), а потом сам отвечишь на вопрос почему 4-тий по мощности суперкомпьютер http://parallel.ru/news/Top_50.html не входит в грид и никогда не войдет)
З.Ы. То что такой компьютер войдет в какую-нить грид сеть, все вычисления проходящиеся на нем будут только медленее))
З.Ы.Ы. А проэкт типа кондора, таких полно по всему миру, даже в Зимбабве на базе какого-то из института был. Как щас не знаю, но года 2 назад был. _________________ Анархия - мать порядка!!!!!!!!! |
|
Вернуться к началу |
|
|
|