Один из ключевых тезисов в пользу преимуществ виртуализации — повышение управляемости ИТ-инфраструктуры и решение проблем унаследованных ИТ-зоопарков. Он довольно строго доказывается на теоретически-логическом уровне, и отзывы заказчиков о своем практическом опыте также в целом его подтверждают.

Действительно, тут всё представляется почти очевидным. До недавнего времени основная задача виртуализации сводилась к обеспечению возможности использования одного физического сервера (в общем случае — просто компьютера, но сейчас речь чаще всего идет именно о серверах) для исполнения нескольких виртуальных машин (ВМ). Однако по мере того, как предприятия всё шире применяют средства виртуализации, круг проблем и расстановка акцентов на этом рынке существенно изменились. Физических ВМ-серверов в организациях стало слишком много, и потому ключевые задачи управления сместились от управления отдельным компьютеров к управлению всем множеством серверов*. Именно это объясняет ставшую очевидной еще в 2008 г. тенденцию перевода собственно гипервизоров в разряд бесплатных продуктов: конкурентная борьба между поставщиками сместилась в сферу управления физически-виртуальной ИТ-инфраструктурой в целом.

Однако тут пришла новая “беда, откуда не ждали”. Дело в том, что решая вопрос управляемости “зоопарка” ОС и прикладного ПО, заказчики теперь столкнулись с проблемой “зоопарка” на виртуальном уровне. Это вполне понятно: если есть много поставщиков технологий, то в процессе развития компании ее виртуальная ИТ-инфраструктура (даже при самом идеальном планировании) неминуемо станет в той или иной мере гетерогенной. А раз так, то нужно будет решать задачи интероперабельности ИТ.

Вопросы интероперабельности являются для любой рыночной отрасли очень непростыми, поскольку речь идет о необходимости сотрудничества между конкурентами — той самой coopetition. В целом тут можно выделить два основных подхода: взаимодействие на широком отраслевом уровне (тогда речь идет о создании каких-то открытых отраслевых стандартов) или в режиме более закрытой работы в узком составе (обычно в двустороннем варианте).

Тут надо подчеркнуть, что проблема интероперабельности для технологий виртуализации выглядит намного серьезнее, чем это было раньше, скажем, для прикладного ПО. Ведь приложения по своей сути работают автономно в изолированных средах. Их разработка также ведется совершенно независимо друг от друга, а обеспечение взаимодействия с другими приложениями является скорее пожеланием, но не обязательным условием. Обязательна тут лишь совместимость с ОС, в которой приложение должно работать, но при этом очевидно, что спецификации ОС (API) должны быть общедоступными для разработчиков прикладного ПО.

В случае виртуализации все выглядит гораздо сложнее, поскольку речь идет об использовании ОС в качестве приложения, функционирующего в среде гипервизора. Понятно, что эта задача не относится к категории массовых (как в случае с прикладным ПО), что она технически сложна и даже при наличии спецификаций требует двустороннего сотрудничества разработчиков, хотя бы потому, что многие тонкие проблемы могут быть выявлены и решены только в режиме тестирования и отладки.

Итак, с учетом сказанного посмотрим, как идут процессы отраслевого сотрудничества в сфере средств виртуализации. Для начала отметим, что тут есть две категории вендоров — поставщики гипервизоров и поставщики средств управления гипервизорами. Как правило, разработчики гипервизоров создают и средства управления (не только своими, но и чужими виртуальными средами). Но есть и независимые поставщики инструментов управления, правда, те, кто делает компьютеры, привязаны к собственным аппаратным платформам.

И тем не менее очевидно, что ведущую роль в вопросах интероперабельности играют разработчики гипервизоров. Их уже довольно много — число только “ведущих” приближается к десятку. Однако если посмотреть на проблему конкуренции поверхностно (например, на уровне заголовков и первых абзацев публикаций по теме), то может создаться впечатление, что главными противоборствующими сторонами являются VMware и Microsoft. А более глубокий анализ показывает, что это первое впечатление было правильным.

Конечно, Microsoft сама по себе сильный игроком. Но дело в том, что она же в связке Vmware — Microsoft представляет не только себя самоё, но и сообщество поставщиков ОС, а точнее, ОС-ориентированных гипервизоров.

То, что VMware является лидером направления средств виртуализации, — факт общепризнанный. Но при этом нужно подчеркнуть, что сегодня это фактически единственный поставщик, который придерживается технологической стратегии создания гипервизора, полностью независимого от конкретной ОС. Все остальные разработчики придерживаются другой линии, используя на уровне ядра средства той или иной ОС (например, Xen — Linux, Hyper-V — Windows).

О достоинствах и недостатках одного и другого варианта можно говорить отдельно, но именно такое различие в технологических подходах является объективной основой для создания альянсов на рынке средств виртуализации. И нарастающий процесс формирования таких отраслевых взаимосвязей мы уже сейчас можем наблюдать в явном виде на примере объявлений о сотрудничестве поставщиков ОС-ориентированных гипервизоров (при этом центром кристаллизации тут выступает Microsoft, что вполне понятно, так как с другой стороны находятся представители Linux).

Напомним, что полгода назад VMware открыто объявилао планах создания ОС качественно нового типа — для виртуальных дата-центров (virtual datacenter OS, VDC OS). И хотя в публичной риторике глава компании Пол Мариц говорил о Microsoft, всем понятно, что его угроза “отправить традиционные ОС на задворки истории” относится ко всем поставщикам таких операционных систем.

Эту тему мы уже обсуждали в рамках вопроса, а можно ли вообще говорить об автономном рынке средств виртуализации или лучше рассматривать его в качестве составной, более того — неотъемлемой части рынка ОС. И, кстати, ответы него сами поставщики дают принципиально разные: фактически только VMware настаивает на первом варианте, в том время как производители ОС (и в первую очередь Microsoft) предпочитают второй. И речь тут идет, конечно, не о сугубо терминологическом споре, а о серьезных вещах: кто будет определять стандарты в формирующейся виртуализационной ИТ-среде.

Здесь хотелось бы привести довод поставщиков ОС в пользу своих решений в контексте решения вопросов интероперабельности. Они говорят о том, что в этом случае заказчики будут иметь дело с уже существующими и в целом известными стандартами и интерфейсами. А как будут обстоять дела с открытостью в VDC OS — вопрос пока остается открытым. Впрочем, у VMware тоже есть аргументы в свою пользу: для инновационных решений лучше в максимальной степени отказаться от груза унаследованных технологических проблем.

* В этом плане, наверное, вполне уместно для характеристики текущего этапа развития средств виртуализации использовать термин Virtualization 2.0, уже появившийся в зарубежных профессиональных СМИ.