Logo Море(!) аналитической информации!
IT-консалтинг Software Engineering Программирование СУБД Безопасность Internet Сети Операционные системы Hardware
Архив форумов ЦИТФорума
Море(!) вопросов - Море(!) ответов
 
 FAQFAQ   ПоискПоиск   ПользователиПользователи   ГруппыГруппы   РегистрацияРегистрация 
 ПрофильПрофиль   Войти и проверить личные сообщенияВойти и проверить личные сообщения   ВходВход 
Как правильно задавать вопросы

Хотелось бы услышать мнение об этой статье!

 
Перейти:  
Этот форум закрыт, вы не можете писать новые сообщения и редактировать старые.   Эта тема закрыта, вы не можете писать ответы и редактировать сообщения.    Список форумов Архив форумов ЦИТФорума -> Unix
Предыдущая тема :: Следующая тема  
Автор Сообщение
Sol



Зарегистрирован: 05.12.2003
Сообщения: 427
Откуда: Томск

СообщениеДобавлено: Пт Фев 11 2005 08:26    Заголовок сообщения: Хотелось бы услышать мнение об этой статье! Ответить с цитатой

Кластеры высокой готовности..
http://www.opennet.ru/docs/RUS/ha_cluster/index.html

Может кто уже использовал в своей работе эту штуку..??
_________________
In My Humble Opinion
Вернуться к началу
Посмотреть профиль Отправить личное сообщение
squirL



Зарегистрирован: 05.01.2005
Сообщения: 371
Откуда: Одесса

СообщениеДобавлено: Пт Фев 11 2005 10:25    Заголовок сообщения: Ответить с цитатой

статья хорошая, грамотная и подробная. вещь полезная, хотя стоить отказоустойчивый кластер для бесперебойной работы описанных автором сервисов, ИМХО - стрельба по воробьям из стингера. хотя все зависит...
Вернуться к началу
Посмотреть профиль Отправить личное сообщение Отправить e-mail
and3008



Зарегистрирован: 12.10.2001
Сообщения: 14893
Откуда: Н.Новгород

СообщениеДобавлено: Пт Фев 11 2005 19:28    Заголовок сообщения: Ответить с цитатой

Через несколько месяцев подобное решение будет запущено в одной весьма немаленькой телекоммуникационной компании.
Сейчас идет активное тестирование.

Перенесена будет почтовая система.

По статье:

Автор лукавит, когда говорит, что при падении сервера "музыка будет играть". Наглая ложь. Играть она не будет, т.к. вместе с серваком умрет SMB-процесс, который клиента обслуживал. Через несколько секунд поднимется второй сервер, но он ничего не знает о старых клиентах упавшего сервака. И юзверям нужно будет перезапускать софт или нажимать в софте какие-то доп.кнопочки для того, чтобы их ПО возобновило свою работу.
Вот уж во истину "быстро поднятый сервак, не считается упавшим".
Heartbeat с этим чудно справляется.
А юзверей надо либо предупредить о таких возможных делах, либо разрабатывать ПО, учитывающее такие падения, либо вообще никому ничего не рассказывать и делать изумленные глаза. Всех водить в серверную и показывать исправную работу как сервера, так и приложений. Smile

Кластеризация - довольно сложное дело и не надо ждать от него чудес. Поставьте сперва реальную цель и попробуйте ее добиться.
Есть довольно много реальных применений и довольно реальных задач, которые подобный кластер будет нормально обрабатывать.

Еще совет. При создании кластера придерживайтесь правила "одна служба - один общий диск". Зачем так? Больше гибкости. Оцените в процессе освоения.

Если вы собираетесь кластеризовать таким макаром тяжелую СУБД, то рекомендую даже не начинать. Угробите данные. Для тяжелых СУБД есть более правильные решения. Например Oracle 10G Smile
Вернуться к началу
Посмотреть профиль Отправить личное сообщение
squirL



Зарегистрирован: 05.01.2005
Сообщения: 371
Откуда: Одесса

СообщениеДобавлено: Сб Фев 12 2005 17:28    Заголовок сообщения: Ответить с цитатой

and3008! вы мешаете в одну кучу разные понятия - Oracle 10g - система для посторения кластеров с балансировкой нагрузки (улучшеный RAC). а в статье говориться про отказоустойчивые кластера.
Вернуться к началу
Посмотреть профиль Отправить личное сообщение Отправить e-mail
and3008



Зарегистрирован: 12.10.2001
Сообщения: 14893
Откуда: Н.Новгород

СообщениеДобавлено: Сб Фев 12 2005 18:35    Заголовок сообщения: Ответить с цитатой

Моя ремарка про Oracle призвана остудить некоторые горячие головы от неоправданных шагов.

А если Oracle 10G развернуть на системе хранения от EMC и использовать их решения по аппаратному зеркалированию? Тогда это будет какой кластер?
Cool
Вернуться к началу
Посмотреть профиль Отправить личное сообщение
and3008



Зарегистрирован: 12.10.2001
Сообщения: 14893
Откуда: Н.Новгород

СообщениеДобавлено: Сб Фев 12 2005 18:36    Заголовок сообщения: Ответить с цитатой

Моя ремарка про Oracle призвана остудить некоторые горячие головы от неоправданных шагов.

А если Oracle 10G развернуть на системе хранения от EMC и использовать их решения по аппаратному зеркалированию? Тогда это будет какой кластер?
Cool
Вернуться к началу
Посмотреть профиль Отправить личное сообщение
squirL



Зарегистрирован: 05.01.2005
Сообщения: 371
Откуда: Одесса

СообщениеДобавлено: Сб Фев 12 2005 19:06    Заголовок сообщения: Ответить с цитатой

два раза для убедительности запостили :)))
точно также можно развернуть все что угодно. и Oracle 9i и Oracle 8 и Sybase и еще туеву хучу всего.
было написано:
Цитата:
Если вы собираетесь кластеризовать таким макаром тяжелую СУБД, то рекомендую даже не начинать. Угробите данные. Для тяжелых СУБД есть более правильные решения. Например Oracle 10G

не знаю что вы имели ввиду, но, возможно в силу инерционности мышления, фраза воспринимается как "для организации отказоустойчивых кластеров тяжелых СУБД не надо применять всякие Heartbeat, а надо ставить родные средства например Oracle 10g"
Oracle10g, как вы знаете, разрабатывалась, в частности, для GRID вычислений. к отказоустойчивости grid отностится слабо
Вернуться к началу
Посмотреть профиль Отправить личное сообщение Отправить e-mail
and3008



Зарегистрирован: 12.10.2001
Сообщения: 14893
Откуда: Н.Новгород

СообщениеДобавлено: Сб Фев 12 2005 19:31    Заголовок сообщения: Ответить с цитатой

Согласен немного подискутировать дабы для самого себя уяснить некоторые вещи.

Отказоустойчивые серверы предназначены для непрерывной работы какой-го либо сервиса. В случае сбоя сервис запускается на аналогичном железе. Так делают HA-кластеры сейчас.

GRID-системы разделяют нагрузку между собой, что позволяет повысить скорости вычислений на порядки.

Я все правильно понимаю?

Внимание вопрос. Если в GRID-системе откажет узел, что будет? Наверно примут его нагрузку на себя. Чем же это кардинально отличается от отказоустойчивых серверов?
Наверно тем, что GRID используют для "параллельных" программ, а отказоустойчивые серверы предназначены для обеспечения непрерывной работы "обычных" (обычно не параллельных) программ.

Если я ошибаюсь, просьба поправить.
Вернуться к началу
Посмотреть профиль Отправить личное сообщение
squirL



Зарегистрирован: 05.01.2005
Сообщения: 371
Откуда: Одесса

СообщениеДобавлено: Вс Фев 13 2005 16:39    Заголовок сообщения: Ответить с цитатой

совершенно верно.
основное очевидное отличие в том, что при выпадении узла из того же GRID производительность всего кластера уменьшится. а при умирании узла в отказоустойчивом кластере этого не случится.
Вернуться к началу
Посмотреть профиль Отправить личное сообщение Отправить e-mail
Sol



Зарегистрирован: 05.12.2003
Сообщения: 427
Откуда: Томск

СообщениеДобавлено: Пн Фев 14 2005 07:06    Заголовок сообщения: Ответить с цитатой

Большое спасибо за отзывы!

Жизнь подталкивает к действиям по осваиванию кластеризации..
Восстановление из бэкапов - это слишком долго в наше время..

Планируем к концу февраля взять машинки для опробования кластеризации..
Не знаю правда, по силам ли будет.. Не утонем ли в тонкостях настроек.. или следствиях побочных эффектов..

squirL:
Не очень понятно про стингеры...
А какие сервисы стоят того, что бы их переносить на кластер??
_________________
In My Humble Opinion
Вернуться к началу
Посмотреть профиль Отправить личное сообщение
and3008



Зарегистрирован: 12.10.2001
Сообщения: 14893
Откуда: Н.Новгород

СообщениеДобавлено: Пн Фев 14 2005 22:18    Заголовок сообщения: Ответить с цитатой

Как уже отмечалось - кластеры бывают разные.
1. Пуленепробиваемые (за счет избыточности)
2. Числодробильные
3. Смешанные

Числодробильные требуют соответствующего хорошо паралелилизуемого ПО.

Пуленепробиваемые годятся практически для любого ПО. Главное свыкнуться с мыслью, что часть вычислительной мощи (обычно 50%) курит бамбук, но оно всегда готово ринуться в бой, если товарищ упадет, сраженный некачественной железкой или ошибкой в ПО.

Что в первую очередь кластеризовать? Что наиболее критично для вас. Потери от чего самые большие, с того и начните.

Смешаные кластеры можно делать довольно осторожно. С пониманием что делаешь и чего хочешь достичь.

Перед покупкой компов сперва продумайте дисковое хранилище. DRBD решение не самое лучшее. Возможно вас не устроит производительность. Внимательно протестируйте его. Возможно лучше будет разориться на кластерный JBOD от того же EMC.

Кластеризация не отменяет резервное копирование! Не заблуждайтесь на этот счет.
Вернуться к началу
Посмотреть профиль Отправить личное сообщение
совсем незнакомый



Зарегистрирован: 24.12.2003
Сообщения: 183
Откуда: Israel

СообщениеДобавлено: Ср Фев 23 2005 01:10    Заголовок сообщения: Ответить с цитатой

очень интересная дискуссия....
я бы разбил кластеры на 3 независимых параграфа:
1. HA ( High Availability ["ванька-встанька"] ) - это когда нужно, чтобы стоял всегда, без перебоев... ;-)
2. HTC ( High Throughput Computing ["дальнобойщик"] ) - это когда нужно загрузить как можно больше и везти как можно дальше и до следующей зимы.
3. HPC ( High Performance Computing ["спринтер"] ) - это когда нужно в любой момент быстро и сильно отреагировать.

если не видна разница между 2 и 3: в случае 2 не важно, что часть бастует - те кто не снами, не против нас ( мы других позовём ). это GRID.
в случае 3 - главное: если не с нами, то на фига ты нам нужен... т.е. все машины - dedicated, только для отряда быстрого реагирования.
Вернуться к началу
Посмотреть профиль Отправить личное сообщение
Ersh



Зарегистрирован: 20.01.2004
Сообщения: 107

СообщениеДобавлено: Пт Фев 25 2005 12:27    Заголовок сообщения: Ответить с цитатой

GRID - это не кластер, и впихивать его сюда не считаю нужным. Это никак не замена клесторов и используются они для разных целей, то есть кластер предполагает распараллеливание вычислительной мощности, а основная задача грида - избавить от "простаивания". Именно поэтому кластер научно-исследовательского вычислительного центра МГУ(160 процессоров), также как и другие класетры не был включен в грид сеть, которая строится на базе CERN'a., и по полощади эта сеть занимает почти все европу.
Кому интересно что такое вообще грид, и куда суется советую почитать: http://www.globus.org/research/papers/anatomy.pdf
_________________
Анархия - мать порядка!!!!!!!!!
Вернуться к началу
Посмотреть профиль Отправить личное сообщение
совсем незнакомый



Зарегистрирован: 24.12.2003
Сообщения: 183
Откуда: Israel

СообщениеДобавлено: Вт Мар 01 2005 00:30    Заголовок сообщения: Ответить с цитатой

Если тов. Ёрш ( или Ерш? ) хочет сказать, что МГУ - за простаивание комп. ресурсов.... (.... а европейский ГРИД разрастается....)
начнём с того, что 160 процессоров даже очень сильных - это неплохо. а более сотни тысяч наверное лучше. не знаю как в МГУ, но в общем у каждого универа есть несколько сот процессоров.. в России может не в каждом, но есть.
Допустим, в МГУ запускают проекты. допустим они бегут половину года.
даже 2/3. Неужели не понятно, что если присоединиться к ГРИДУ,
время пробега долгих процессороедливых батничков слкратится ... ну чуточку.

Кстати, насколько жители МГУ знакомы с проектом "Кондор" и подобными ? Ведь, он позволяет, именно распараллеленные задачи запускать в ГРИД.

А ну, марш в Церн записываться!
Wink
Советую, пгисоедидиться ... "копьютарии всех стран, соединяйтесь!"

П.С.
Ессно, есть проблемы безопасности.. но, в таких случаях можно объявить "все ушли, будут через пол года." - пока чувствительный материал бежит.
Вернуться к началу
Посмотреть профиль Отправить личное сообщение
Ersh



Зарегистрирован: 20.01.2004
Сообщения: 107

СообщениеДобавлено: Вт Мар 01 2005 10:40    Заголовок сообщения: Ответить с цитатой

Прочитай получше зачем создавался грид(цели и т.д.), а потом сам отвечишь на вопрос почему 4-тий по мощности суперкомпьютер http://parallel.ru/news/Top_50.html не входит в грид и никогда не войдет)
З.Ы. То что такой компьютер войдет в какую-нить грид сеть, все вычисления проходящиеся на нем будут только медленее))
З.Ы.Ы. А проэкт типа кондора, таких полно по всему миру, даже в Зимбабве на базе какого-то из института был. Как щас не знаю, но года 2 назад был.
_________________
Анархия - мать порядка!!!!!!!!!
Вернуться к началу
Посмотреть профиль Отправить личное сообщение
Показать сообщения:   
Этот форум закрыт, вы не можете писать новые сообщения и редактировать старые.   Эта тема закрыта, вы не можете писать ответы и редактировать сообщения.    Список форумов Архив форумов ЦИТФорума -> Unix Часовой пояс: GMT + 3
Страница 1 из 1

 
Перейти:  
Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете голосовать в опросах


Powered by phpBB © 2001, 2002 phpBB Group
Русская поддержка phpBB

 

IT-консалтинг Software Engineering Программирование СУБД Безопасность Internet Сети Операционные системы Hardware

Информация для рекламодателей PR-акции, размещение рекламы — adv@citforum.ru,
тел. +7 495 6608306, ICQ 232284597
Пресс-релизы — pr@citforum.ru
Послать комментарий
Информация для авторов
This Web server launched on February 24, 1997
Copyright © 1997-2000 CIT, © 2001-2006 CIT Forum
Внимание! Любой из материалов, опубликованных на этом сервере, не может быть воспроизведен в какой бы то ни было форме и какими бы то ни было средствами без письменного разрешения владельцев авторских прав. Подробнее...