Еще два-три года назад на рынке средств виртуализации произошли некоторые качественные изменения, позволившие аналитикам говорить о начале нового этапа его развития, который, не мудрствуя лукаво, назвали Virtulization 2.0. В целом это вполне соответствовало действительности, поскольку заказчики, освоив технологии виртуализации отдельных серверов, как раз тогда стали переходить к решению задачи комплексного управления виртуальной ИТ-инфраструктурой в целом. В конце 2006 г. IDC сформулировала свое представление об этапе Virtualization 2.0, согласно которому компании, решив в основном вопросы эффективности использования вычислительных ресурсов, на данном этапе сконцентрируются на вопросах повышения надежности и доступности сервисов. Правда, эти оценки IDC относились к американскому рынку, поскольку у нас этап V2.0 только еще наступает.

Мы, со своей стороны, отметим, что отличие V2.0 от версии 1.0 заключается и в том, как организации решают задачу выбора методов реализации ИТ-проектов. Если на первом этапе они выбирали между вариантами традиционных физических и виртуализованных серверов, то теперь им приходится искать оптимальное решение в рамках виртуализационного варианта. И задача стала совсем не простой, поскольку появился собственно выбор: в 2007-08 гг. существовавшая до того фактическая монополия VMware была нарушена выходом на рынок серверной виртуализации целой группы новых серьезных игроков во главе с Microsoft.

Итак, одна из ключевых идей (и преимуществ) виртуализации – переход от статической структуры дата-центров с использованием исключительно физических серверов к динамической организации на базе смешанной виртуально-физической инфраструктуры (см. рисунок). Важно отметить, что использование средств виртуализации не отменяет (по крайней мере, в видимой перспективе) необходимости в физических серверах (один компьютер – одна ОС). Причина вполне очевидна: наряду с достоинствами (гибкость управления, оптимизация нагрузок) виртуальные машины имеют и недостатки по сравнению с автономными ОС (некоторые ограничения в использовании ресурсов, снижение производительности, возможные проблемы с совместимостью).

Посмотрев на структуру такого динамического дата-центра, легко оценить важность задачи управления всей этой сложной системой. До сих пор обсуждение проблем виртуализации сводится преимущественно к теме среды функционирования ВМ (в частности гипервизоров). Однако следует четко понимать: гипервизоры – это хотя и базовый, но всего лишь один из компонентов ПО виртуализации. Второй компонент – который, по сути, сегодня выходит на первый план проблематики в целом, -- это средства управления.

В свою очередь ПО для управления включает две основные категории инструментов:

  • средства управления виртуальными машинами внутри отдельного сервера;
  • средства управления системой виртуальных и физических серверов в целом.

Тут стоит подчеркнуть, что если первая категория инструментов довольно жестко связана с конкретным гипервизором и соответственно обычно поставляется самим производителем гипервизора, то вторая представляет собой сферу пересечения интересов как поставщиков виртуальных сред, так и независимых разработчиков.

Сложность задачи управления динамической ИТ-инфраструктурой в целом легко себе представить, если учесть, что речь идет о сугубо неоднородной системе, в которой имеется несколько групп поставщиков (оборудования, ОС, приложений, ПО виртуализации), причем в каждой группе существует своя неоднородность (например, могут использоваться виртуальные среды от разных разработчиков). Понятно, что в этой ситуации независимые (от конкретных гипервизоров) вендоры (такие как HP, IBM, CA) могут иметь определенные преимущества в сфере управления ИТ по сравнению с поставщиками, озабоченными продвижением своих базовых технологий.

И дальше – в «облака»

В 2008 г. стало также очевидно, что тематика серверной виртуализации стала рассматриваться в контексте концепции «облачных вычислений» (Cloud Computing), что позволило аналитикам говорить о грядущем наступлении нового этапа Virtualization 3.0.

Тут стоит напомнить, что согласно определению Wikipedia, Cloud Computing — это стиль разработки и использования компьютерных технологий (вычислений), при котором динамично масштабируемые ресурсы предоставляются через Интернет как сервис. Примерно такую же формулировку предлагает Gartner, делая акцент на высокую масштабируемость ИТ-ресурсов и на то, что средства поддержки предоставляемых заказчику сервисов скрыты от него, а сами cloud-ресурсы оплачиваются клиентом по мере их использования. Подчеркивается еще, что реализация Cloud Computing базируется не на одной какой-то технологии, а на множестве отдельных технологий. Важный аспект модели облачных вычислений — возможность оптимального сочетания внутренних и внешних вычислительных сред, между которыми можно легко перемещать ИТ-ресурсы.

Вполне очевидно, что виртуализация – это как раз та технология, которая обеспечивает переход к «облачной» организации ИТ. Именно на это делает акцент виртуализационный лидер, компания VMware. Действительно, если приложения переведены в среду виртуальных машин, то дальше их будет легко перемещать между физическими серверами для балансировки нагрузки оборудования или проведения профилактических работ. Но оторвав приложения от конкретных компьютеров, их можно переместить на исполнение в какой-то внешний ЦОД на условиях аутсорсинга (если провайдер предлагает выгодные условия аренды и коммуникационные возможности позволяют). Если компании нужно развернуть новые сервисы, то у нее появляется реальный выбор – наращивать ли собственную ИТ-инфраструктуру или арендовать нужные ресурсы в «облаке».

Все это так, но дело в том, что виртуализация – не единственный подход к реализации облачной модели и, возможно, не самый перспективный. Тут можно вспомнить, что само появление виртуализации в свое время было во многом связано с задачей поддержки унаследованных приложений. Вот и описанный выше механизм построения «облака» – это попытка переноса туда традиционной статической модели организации ИТ.

Именно на этом настаивают Google и Amazon, говоря о том, что для реализации настоящих современных облаков нужно создавать системы на качественно новых архитектурных принципах, и в этом случае никакая виртуализация не нужна вообще. Их тезис можно проиллюстрировать историческим примером перехода от файл-серверной модели к клиент-серверной схеме: для быстрого решения такой задачи можно использовать механизм терминального доступа, но более эффективный способ – создание нового приложения в настоящей клиент-серверной архитектуре.

На последней конференции VMworld руководитель VMware Пол Мариц фактически предложил всему сообществу поставщиков средств виртуализации объединиться вокруг идеи о том, что без виртуализации решить задачи масштабирования и доступности ресурсов в любом случае не удастся, выступив единым фронтом против "чужаков" из стана провайдеров Интернет-услуг. Но удастся ли сформировать такой единый фронт – сложно сказать. Во всяком случае, Microsoft придерживается несколько иной точки зрения на реализацию «облаков», скорее промежуточной между позициями VMware и Google. И это вполне понятно: для Редмонда сегодня компания VMware не менее опасный конкурент, чем Google.

Кто главнее – гипервизоры или ОС?

Несмотря обилие публикаций по теме виртуализации, нетрудно заметить, что даже ведущие аналитики явно избегают темы лидерства на этом рынке. Точнее, все признают лидирующие позиции VMware, но перевести разговор в традиционную плоскость долей рынка не спешат. Объясняется это просто: ситуация в сфере виртуализации динамично развивается, меняется само представление о рынке, его структуре. Еще вчера в центре внимания на нем были средства виртуализации, а сейчас вперед вышли инструменты управления при том, что первые быстро переходят в разряд бесплатных.

Однако главная интрига оценки ситуации в виртуализационном сегменте заключает в вопросе – можно ли вообще говорить об этом рынке как о самостоятельном? При этом речь идет не о простом маркетинге, а о принципиальных стратегических аспектах развития технологий.

В начале нашего обзора мы выяснили, что виртуализация – это средство расширения возможностей традиционных ОС. И оставили в стороне вопрос: зачем нужны какие-то дополнительные средства, не проще ли реализовать новые возможности в ОС?

На самом деле именно этот вопрос и составляет основную интригу развития рынка виртуализационных платформ. Сегодня число только «ведущих» игроков на нем уже приближается к десятку, однако главными противоборствующими сторонами остаются VMware и Microsoft. И дело тут не только в конкуренции продуктов – речь тут идет противостоянии двух принципиально разных концепций позиционирования ОС и средств виртуализации в будущей системе инфраструктурных ИТ.

Как известно, особый статус ОС заключается в том, что они занимают ключевое положение в комплексе компьютерных средств, обеспечивая связь между аппаратурой и ПО. В результате еще в 90-е гг. именно ОС стали определять важнейшие стандарты де-факто и для “железа”, и для софта. Кроме того, получилось так, что доминирующую позицию в сфере ОС на самом массовом рынке x86-систем со своей Windows заняла Microsoft, что не только создает ей комфортные условия для продажи своих продуктов, но и позволяет играть ведущую роль в формировании отраслевых стандартов.

Стратегия VMware нацелена фактически на радикальное изменение этой ситуации, позиционируя гипервизоры не просто как отдельное направление инфраструктурного ПО, а как альтернативу существующим ОС как таковым, в том числе Windows.

В сентябре 2008 г. VMware открыто объявила о планах создания ОС качественно нового типа — для виртуальных дата-центров (virtual datacenter OS, VDC OS). И хотя в публичной риторике глава компании Пол Мариц говорил о Microsoft, всем понятно, что его угроза «отправить традиционные ОС на задворки истории» относится ко всем поставщикам таких ОС. Вполне понятно, что Microsoft (впрочем, как и другим поставщикам ОС) такая постановка вопроса совсем не нравится, и потому корпорация развивает свой Hyper-V именно как компонент Windows Server.

Борьба этих двух подходов находит отражение и в спорах аналитиков по поводу того, можно ли вообще говорить об автономном рынке средств виртуализации или лучше рассматривать его в качестве составной, более того — неотъемлемой части рынка ОС. Понятно, что сами поставщики дают принципиально разные ответы: фактически только VMware настаивает на первом варианте, в том время как производители ОС (и в первую очередь Microsoft) предпочитают второй. И это, конечно, не о сугубо терминологический спор, а серьезный вопрос: кто будет определять стандарты в формирующейся виртуализационной ИТ-среде.