ScaleIO — антикризисная СХД

Scale-IO.jpg

ScaleIO это софт для организации общего кластерного хранения на базе стандартных x86 серверов.Сейчас на рынке представлен целый ряд подобных решений. ScaleIO на нем занимает верхнюю нишу, в первую очередь, благодаря своей масштабируемости и гибкой управляемости.

На первый взгляд этот софт похож на VSAN, и на кое-какие другие аналоги (HP, Nutanix, итп). Но, разумеется, на второй взгляд становится ясно, что он гораздо лучше!

Зачем вообще нужно городить огород с программными СХД? У этого есть вполне экономические причины, которые сводятся к снижению стоимости владения инфраструктурой, более гранулярным затратам на технологическое обновление, отсутствие привязки к поставщику железа, возможности плавного масштабирования, и так далее.

Коротко об основных возможностях ScaleIO :

  • ПО для создания  общего хранилища на основе серверов x86 и ethernet коммутаторов
  • Масштабируемость от трех узлов до тысяч узлов
  • Многотенантность (изоляция нагрузок, fault доменов, QoS)
  • Поддержка кэширования на флэши
  • Возможность как совместной так и раздельной работы приложений и СХД на общих вычислительных ресурсах
  • Гибкость – добавление/удаление узлов «на лету»
  • Производительность – сотни миллионов IOPS
  • Можно ставить на отечественные сервера
  • Есть вариант исполнения в виде готового Appliance — VXRack Node
  • Интегрируется с Openstack
  • Полнофункциональную версию можно скачать бесплатно (не для продуктива)

Нужно еще такой момент обозначить, что поскольку ScaleIO и VSAN — суть продукты двух очень близких друг другу компаний, то их специально развели по двум нишам, чтобы снизить конкуренцию. Сравнение их возможностей, пожалуй, стоит вынести в отдельный пост. Но интересующиеся могут почитать тут.

Дальше я предлагаю вашему вниманию видео нашего замечательного партнера — Дмитрия Ширяева, инженера  иркутской компании Сетевые Технологии

ScaleIO — антикризисная СХД: Один комментарий

  1. Thin выделение в ScaleIO интересно работает. По сравнению с классическими СХД. Так как идет работа с довольно маленькими чанками в 1мб и их выделением в тонкие тома рулит сам ScaleIO. То после удаления например 1Gb файла с файловой системы в OS, которая использует тонкий том, почти мгновенно наблюдается добавление 1Gb свободного места на уровне пула в самом ScaleIO. Т.е. освободившиеся чанки тут же возвращаются в общий пул.
    Про вывод серверов в режим обслуживание не совсем правильно рассказано. Нет смысла переливать на время обслуживания несколько Tb данных с этого сервера, а после обслуживания заливать обратно. Это может занять много времени, плюс создает дополнительную и в общем-то бессмысленную нагрузку на сеть передачи данных. По этом на уровне ScaleIO сервер выводится в maintenance mode, а затем выключается и обслуживается. При этом система ScaleIO знает что часть копий слайсов данных будут временно недоступны, но через некоторое время вернутся в работу. А значит, после выключения сервера, ScaleIO не начнет экстренно процесс ребилда и восстановления копий этих слайсов на других серверах кластера. Соответственно все новые данные, которые будут писаться в тома, затронутые выключением сервера, будут спокойно распределять копии слайсов по работающим серверам. А временно недоступные копии слайсов будут введены в работу после окончания обслуживания и включения нашего сервера.

Добавить комментарий

Заполните поля или щелкните по значку, чтобы оставить свой комментарий:

Логотип WordPress.com

Для комментария используется ваша учётная запись WordPress.com. Выход / Изменить )

Фотография Twitter

Для комментария используется ваша учётная запись Twitter. Выход / Изменить )

Фотография Facebook

Для комментария используется ваша учётная запись Facebook. Выход / Изменить )

Google+ photo

Для комментария используется ваша учётная запись Google+. Выход / Изменить )

Connecting to %s