Развитие событий на мировом и российском ИТ-рынке говорит о том, что идеи виртуализации становятся все более актуальными и востребованными у заказчиков, в том числе и в нашей стране.

Тема использования технологий виртуализации стала популярной три-четыре года назад, в первую очередь применительно к вычислительным системам на базе архитектуры x86. Термин «виртуализация» все чаще возникал в публикациях западных специализированных СМИ (через них выплескиваясь и в российскую профессиональную прессу), эту тему стали активно обсуждать эксперты, а главное — появлялось все больше компаний, предлагающих решения в этой области. При этом, как часто случается в ИТ-отрасли, суть вопроса (что такое виртуализация, зачем это нужно, что реально дает пользователям) порой отходила на второй план, и потому довольно сложно было отследить, где действительно имели место инновации, а где — тривиальная смена названий уже известных продуктов в соответствии с веяниями моды.

Осознавая сильное влияние маркетинга, мы тем не менее хорошо понимали, что за всей этой порой откровенной шумихой стоят очень серьезные изменения на ИТ-рынке — в плане как требований заказчиков, так и новых возможностей технологий, и что «виртуализация» — это не мода, а действительно нужная вещь. Именно поэтому еще тогда в качестве «темы номера» у нас фигурировала не очень понятная и загадочная проблема «технологии виртуализации» (см. «BYTE/Россия» № 5’2005 и № 7’2006).

Однако тогда «выстрел» оказался в значительной степени преждевременным. Анализ ситуации на российском рынке показал, что в 2006 г. отечественные заказчики, да и системные интеграторы не были готовы к широкому использованию технологий виртуализации (точнее сказать, еще не поняли необходимости в них). Тем не менее мы не сомневались в перспективности этого направления и внимательно следили за его развитием и нарастающей конкурентной борьбой в данном сегменте на мировом ИТ-рынке (имеется в виду массовый рынок вычислительных средств архитектуры x86, о котором ниже и пойдет речь).

Для отображения динамики развития той или иной идеи/технологии исследовательская компания Gartner обычно использует кривую, часто называемую ее именем, хотя даже на интуитивном уровне такой схемой уже давно пользуются для понимания реальной ситуации в ИТ-мире. Не претендуя на абсолютную достоверность и лишь для того, чтобы описать свое понимание текущей ситуации с использованием технологий виртуализации, мы также применили кривую Gartner (рис. 1). В плане общего комментария к ней нужно отметить два важных момента. Во-первых, ИТ-отрасль только сейчас перешла к этапу «получения эффекта»; во-вторых, наша страна несколько отстает от всего мира, и мы пока находимся в полосе «преодоления завалов».

Еще в ноябре прошлого года, планируя тематику номеров на год 2008-й, мы не собирались специальным образом выделять направление виртуализации. Но развитие событий на мировом и российском ИТ-рынке (в том числе заметная активизация западных вендоров в нашей стране) заставила нас уделить больше внимания данной теме. Судя по всему, время виртуализации наступает и в России.

Если есть ОС, то зачем виртуализация?

Начнем с того, что термин «виртуализация» имеет довольно широкое толкование и в общем случае означает отделение логического процесса от физического способа его реализации. Отсюда понятно, что виртуализация — это одна из ключевых концептуальных идей в сфере ИТ. В упрощенном виде она подразумевает, что пользователь отделен от реальных вычислительных процессов и работает с ними в удобном для себя виде, а не в том, в каком они происходят на самом деле.

Учитывая, что с логической точки зрения вычислительная система состоит из двух основных компонентов — данных и программ, которые их обрабатывают, — в узком понимании сразу можно выделить два различных (но взаимосвязанных!) направления виртуализации. В этом обзоре мы будем рассматривать вопросы виртуализации ПО, более конкретно — операционных сред. Хотя сразу обратим внимание, что виртуализация ОС — это почти тавтология: ведь ОС уже сама по себе выступает как виртуализационный слой, который отделяет прикладные программы от физического способа их исполнения на конкретной аппаратной платформе...

Основная цель использования виртуализации формулируется вполне банально: повышение эффективности использования ИТ, снижение затрат, связанных с приобретением и эксплуатацией программных и аппаратных средств. Несколько упрощая проблему, можно сказать, что с точки зрения надежной эксплуатации ПО идеальный вариант — это использование отдельного компьютера под каждое приложение и работа в монопольном режиме. Но такая организация явно неоптимальна с точки зрения затрат на технику. Отсюда возникает задача использовать один компьютер для работы нескольких разных программ.

В принципе поддержка многопользовательского и многозадачного (это не одно и то же) режимов — это функция любой современной ОС, тем более серверной. Почему же возможностей ОС не хватает и требуются дополнительные средства виртуализации? Тут видятся две основные причины: недостаточный уровень изоляции приложений внутри одной ОС и невозможность использовать на одном компьютере разнородные среды (разным приложениям могут требоваться различные ОС).

Здесь опять возникают вопросы. А почему бы не повысить уровень изоляции в ОС? Почему не сделать специальную ОС, которая поддерживала бы разнородные среды? Для ответа на эти вопросы нужно понимать, каково соотношение общих и специальных средств. В упрощенном виде продукты общего назначения должны содержать функции, нобходимые 80% пользователей, а специального — удовлетворять изысканные потребности остальных 20% (классический закон статистики 20/80: «20% людей выпивают 80% пива»). Со временем идет естественный процесс перехода изысканных потребностей в общие и соответственно включение специальных средств в универсальные решения. Именно это мы сейчас наблюдаем на примере ОС, в плане повышения надежности работы в многозадачном режиме.

Что касается использования разнородных систем, то как раз эти задачи реализует механизм поддержки виртуальных машин, который опять-таки может быть автономным или интегрированным компонентом ОС. Ну а то, что сегодня называется гипервизором (об этом подробнее говорится ниже), — это фактически и есть специализированная ОС, в среде которой функционируют виртуальные машины.

Но прежде чем обратиться к технологическим вопросам виртуализации, посмотрим, как развивался этот сегмент рынка в плане активности его участников.

Мэйнфреймы — ПК — серверы — ПК

История технологий виртуализации среди прочего любопытна тем, что отлично иллюстрирует диалектический принцип спиралевидного развития, а применительно к ИТ — еще и периодическое перемещение акцентов между серверной и клиентской частями корпоративных информационных систем.

Концепция виртуальных машин (ВМ) впервые была реализована в начале 70-х гг. прошлого столетия корпорацией IBM на мэйнфреймах System 360/370. Тогда это было в основном связано с необходимостью поддержки работы различных версий ОС (в том числе устаревших) в системах коллективного пользования. Появление мини-ЭВМ, а потом и ПК, казалось бы, сделало проблему неактуальной: гораздо проще использовать подход «каждому экземпляру OC — по выделенному компьютеру». Однако на рубеже веков в силу обстоятельств к необходимости тех же идей подошла и доминирующая на компьютерном рынке платформа x86.

Спрос на ВМ-технологии для ПК проявился еще в середине 90-х. Дело в том, что одновременно с увеличением числа версий клиентских ОС постоянно росло и количество людей (разработчиков ПО, тестеров, специалистов по технической поддержке, экспертов по софту), которым в силу специфики их профессии нужно было иметь на своей рабочей станции сразу несколько копий различных ОС. Именно на эту категорию пользователей были ориентированы появившиеся в конце прошлого десятилетия первые профессиональные виртуальные решения для ПК от компаний Connectix и VMware.

Но, как известно, все последние годы 20-го столетия прошли под знаком продвижения архитектуры x86 в направлении серверных решений, и как раз на рубеже веков именно они начали доминировать в сфере создания центров обработки данных и систем коллективного пользования. И с этого момента развитие виртуализационных технологий на несколько лет оказалось связано преимущественно с x86-серверами. При этом нужно было решать как уже хорошо знакомые (по опыту мэйнфреймов и настольных станций) задачи обеспечения работоспособности унаследованных приложений и поддержки неоднородных вычислительных сред, так и новые, связанные именно со спецификой ПК-серверов. Сюда относятся задачи оптимизации используемого оборудования (программная консолидация и виртуализация серверов) и снижения затрат на внедрение и сопровождение информационных систем.

Пионером освоения серверной виртуализации стала компания VMware (www.vmware.com), которая в 2002 г. представила свои серверные продукты GSX Server и ESX Server, фактически приступив к формированию полномасштабной виртуальной софтверной платформы. Однако, если посмотреть на сферу применения серверов, то можно увидеть, что здесь сформировалось два достаточно независимых направления: виртуализация в корпоративных информационных системах (используется заказчиками) и хостинг приложений (используется провайдерами услуг).

Второе направление активно стало развиваться с конца 90-х гг. и на протяжении нескольких лет было в основном связано с Web-хостингом. Специфика этого направления заключалась в том, что традиционные задачи поддержки унаследованного ПО и разнородных сред в этой сфере были совсем не актуальны. Фактически на тот момент здесь доминировала Linux с использованием очень ограниченного набора Web-серверов (в основном Apache). А вот вопросы консолидации и снижения затрат на сопровождение были весьма важны.

Именно на использование в хостинг-системах была ориентирована технология Virtuozzo, с которой в начале этого десятилетия на рынок вышла компания Swsoft (ныне Parallels, www.parallels.com). Характерно, что Virtuozzo долгое время работала только с Linux, и лишь в 2005 г. вышла версия для Windows. Это объяснялось двумя обстоятельствами: более широким использованием Windows для хостинга и намерением компании начать продвижение Virtuozzo в сторону корпоративных систем.

Следует сказать и еще об одном направлении, которое в целом можно отнести к виртуализационным. Речь идет о широком использовании с конца 90-х гг. технологии терминального доступа, или, как принято сейчас говорить, виртуализации представлений. Ее появление во многом было связано с задачей использования устаревших ПК и унаследованного ПО: настольные приложения исполнялись на серверах, а рабочие станции выступали фактически лишь как терминалы, обеспечивающие пользовательский интерфейс. Здесь пионером и лидером была и остается компания Citrix (www.citrix.com).

Следующий жизненный этап технологий виртуализации начался в 2005– 2006 гг. и был связан с началом их массового применения. Движение здесь шло в трех направлениях. Первое — это широкое использование виртуализации для корпоративных серверных решений. Второе — повышение спроса со стороны индивидуальных пользователей (но если в 90-х годах это были разработчики и тестеры, то теперь речь уже шла просто о пользователях, как профессиональных, так и домашних). Наконец, третье и главное, определяющее направление — это интеграция первых двух для построения виртуализационной корпоративной ИТ-инфраструктуры.

На этом этапе к проблематике виртуализации подключилось несколько новых групп участников — разработчиков технологий. Это были производители аппаратуры, в первую очередь микросхем (для широкого применения виртуализации нужно было преодолеть некоторые унаследованные ограничения архитектуры x86), поставщики средств управления ИТ-инфраструктурой (тут можно выделить две задачи: управления виртуализационными, в том числе неоднородными, средами и обновления прикладного ПО) и конечно же разработчики операционных систем.

Подводя итог сказанному выше, выделим следующие основные сценарии применения технологий виртуализации заказчиками.

Консолидация для разработки и тестирования ПО. Разработчики ПО при использовании виртуальных машин получают гарантию, что фатальные ошибки при отладке приложений не приведут к зависанию других приложений. Это позволяет им быстро создавать различные конфигурации ОС, а также тестировать программы, спроектированные для различных ОС.

Поддержка и миграция унаследованных приложений. Чаще всего эта задача возникает при замене оборудования, когда используемое в организациях ПО нужно переносить на новые серверы, работающие под управлением современных ОС.

Демонстрация и изучение нового ПО. Эксперты, изучающие новые продукты (особенно в их бета- или ознакомительных версиях), могут не опасаться, что установка и последующее удаление этого ПО повлияют на работоспособность основной системы и приведут к заполнению внешней памяти информационным мусором.

Консолидация серверов. Это наиболее динамично развивающаяся область применения виртуализационных технологий, направленная на повышение эффективности использования ИТ-ресурсов. Выигрыш здесь получается за счет как экономии аппаратуры, так и снижения затрат на администрирование систем.

Развертывание и обновление прикладного ПО. Это направление стало активно развиваться в последние два-три года с целью повысить безопасность работы вычислительной системы за счет дополнительного слоя изоляции приложений, решить проблему конфликта одновременно работающих программ, обеспечить высокий уровень совместимости с различными версиями ОС.

Рыночные процессы

Чтобы понять, насколько востребованы технологии виртуализации, посмотрим на процесс формирования данного рынка, появления на нем новых игроков и перестановки сил за последние годы.

Известный маркетинговый принцип гласит: если продукт предлагает лишь один поставщик, значит, этот товар на рынке пока не очень востребован. Отражением реального спроса становится усиление конкуренции между вендорами, появление как минимум трех серьезных игроков. Все это мы можем наблюдать на примере технологий виртуализации для компьютеров архитектуры x86.

Первопроходцами, как уже отмечалось выше, в конце 90-х тут стали Connectix и VMware, которые поставляли решения для рабочих станций. В 2002 г. VMware приступила к освоению серверного x86-пространства, выпустив сразу два продукта — GSX Server и ESX Server. В тот момент средства для серверной виртуализации Intel-компьютеров предлагала еще SWsoft, но ее технология Virtuozzo решала частную, хотя и очень интересную с практической точки зрения задачу создания однородных виртуальных сред на базе ядра Linux.

Точкой отсчета для реального формирования сектора виртуализационного ПО нужно считать 2003 г.: в марте на этот рынок, купив Connectix, вышла Microsoft (www.microsoft.com). Маркетинговая реакция на данное событие последовала через несколько месяцев: в декабре корпорация EMC (www.emc.com) купила VMware за 635 млн долл. (деньги не очень большие даже по тем временам). Год спустя Microsoft представила свои серверные средства виртуализации, выпустив Virtual Server 2005. Через небольшой промежуток времени на рынке появился еще один технологический игрок — открытый проект под названием Xen (www.xen.org).

В 2004 г. к работам по поддержке технологий виртуализации на архитектурном уровне приступили ведущие поставщики микропроцессоров — Intel (www.intel.com) и AMD (www.amd.com). В 2006-м о реализации механизмов виртуализации (в обоих случаях на базе Xen) в новых версиях своих ОС объявили ведущие поставщики Linux-систем — Novell (www.novell.com), а потом и Red Hat (www.redhat.com). В том же году SWsoft представила вариант Virtuozzo для Windows и начала освоение технологий виртуальных машин для рабочих станций в виде продуктов Parallels. Появился еще один перспективный независимый проект — Virtual Iron (www.virtualiron.com). Частные решения для относительно нового направления — виртуализации приложений — выпустил целый ряд специализированных разработчиков. Примерно тогда же активизировала свою работу в этом направлении Sun (www.sun.com), которая сначала реализовала поддержку механизма виртуальных контейнеров в Solaris 10, а через год предложила свой вариант управления разнородными виртуальными машинами в виде решения xVM (на основе Xen) для своих компьютеров Sun Fire x64.

В августе прошлого года на рынок технологий виртуализации ОС вышел еще один серьезный игрок: Citrix приобрела Xen за 500 млн долл. (в комментариях наблюдателей в качестве претендента на покупку фигурировали также Sun и Symantec). Перспективность этого шага сразу оценил фондовый рынок: акции Citrix выросли в цене почти на 40%, и, что еще симптоматичнее, цена акций VMware также увеличилась — на 30%.

Далее события пошли по нарастающей. В ноябре о своих планах в сфере виртуализации заявила корпорация Oracle (www.oracle.com): она представила ПО для виртуализации серверов Oracle VM, поддерживающее приложения Oracle и других производителей при использовании Linux в качестве хост-системы и Linux и Windows как гостевых ОС. Microsoft выпустила новое средство управления виртуальными средами и объявила о предстоящем выходе технологии гипервизора, получившей официальное название Hyper-V. SWsoft, незадолго до этого официально признавшая свои родственные связи с компанией Parallels, решила с 2008 г. взять имя «дочки», представив обновленный набор своих технологий для серверов и рабочих станций. VMware активно пополняла и без того широкий спектр предложений...

Основные методы виртуализации

В нашу задачу не входит детальное рассмотрение различных способов реализации идей виртуализации, тем более что терминология в этой области окончательно не устоялась (в том числе и на английском), а конкретные средства виртуализации часто включают комбинацию разных методов. Мы попробуем выделить лишь некоторые базовые моменты, которые должны помочь пользователям в оценке возможностей и применимости предлагаемых на рынке продуктов для решения тех или иных задач.

В самом общем случае виртуализационная инфраструктура включает три компонента: аппаратную платформу (компьютер), программную платформу виртуализации (хост-ПО) и исполняемое гостевое ПО (рис. 2). Задача хост-ПО — обеспечить максимальную независимость гостевого ПО от конфигурации аппаратных средств и возможность параллельной и независимой работы нескольких гостевых программ на одном компьютере. Нетрудно увидеть, что под это определение попадает вариант обычной многозадачной ОС (хост-ПО) и работающих в ее среде приложений (гостевое ПО).

В самом общем случае хост-ПО обеспечивает полную независимость гостевого ПО от аппаратуры, в том числе и от архитектуры и набора команд процессора. В этом случае обычно используются термины «эмуляция» или кросс-платформенная виртуализация. Такой режим применяется крайне редко для исполнения кода на машинном языке, но довольно часто — для программ, написанных на языках высокого уровня. Например, именно эмуляция (в том числе в варианте интерпретации кода) используется в таких современных системах, как Java и .NET (ограничения переносимости кода .NET определяются не технологическими аспектами, а маркетинговой стратегией ее автора, Microsoft).

Виртуальные машины (неоднородные среды)

Исторически появление самого термина «виртуализация» связано с возможностью параллельно применять несколько ОС, в том числе разнородных, на одном компьютере. Именно этот вариант соответствует понятию «виртуальная машина» (ВМ), когда гостевое ПО включает и собственную ОС (рис. 3).

С точки зрения теории для варианта ВМ специальный слой хост-ПО необязателен: его функции могут выполняться на аппаратном уровне (что, например, реализовано в продвинутых Unix-платформах). Но x86-архитектура исторически не имеет таких возможностей. Более того, она не обеспечивает параллельной работы нескольких ОС (упомянутые выше технологии виртуализации Intel и AMD решают эту проблему не в полной мере, опять же из-за особенностей унаследованной архитектуры x86). В связи с этим возникает необходимость в создании виртуализационного слоя, который модифицирует работу каждой гостевой ОС, обеспечивая ее параллельную работу с другим гостевыми ОС.

Для решения этой задачи существует два варианта реализации режима виртуальных машин.

Полная виртуализация (Full, Native Virtualization). Используются немодицифированные экземпляры гостевых ОС, а для поддержки их работы применяется общий для всех гостевых ОС слой эмуляции их исполнения в среде хостовой ОС (рис. 4). Таким образом, каждая виртуальная машина работает под управлением хостовой ОС, взаимодействует с аппаратурой только через нее и с точки зрения хостовой ОС представляет собой обычное приложение. Это исторически традиционный вариант виртуализации и на сегодняшний день наиболее широко используемый. Он, в частности, применяется в системах VMware Workstation, VMware Server (бывший GSX Server), Parallels Desktop, Parallels Server, Microsoft Virtual PC, Microsoft Virtual Server, Virtual Iron. Достоинство данного подхода — относительная простота реализации, универсальность и надежность решения, все функции управления берет на себя хостовая ОС. Недостаток — высокие дополнительные накладные расходы на используемые аппаратные ресурсы, не учитываются особенности гостевых ОС, недостаточно гибко используются аппаратные средства.

Паравиртуализация (paravirtualization). Ядро гостевой ОС модифицируют, включая в него новый набор API, через который ОС может напрямую работать с аппаратурой, не конфликтуя с другими ВМ (рис. 5). В этом случае хост-ПО выступает уже не как среда исполнения ВМ, а лишь как инструмент управления виртуальными машинами. Таким образом, нет необходимости использовать полноценную ОС в качестве хост-ПО. Данный вариант виртуализации получил название «гипервизор» (hypervisor). Именно таково наиболее актуальное сегодня направление развития серверных технологий виртуализации. Этот вариант применяется в VMware ESX Server, Xen (и решениях других поставщиков на базе этой технологии), Microsoft Hyper-V. Достоинство — нет необходимости в хостовой ОС, ВМ устанавливается фактически на «голое железо», высокая эффективность использования аппаратных ресурсов. Недостаток — сложность в реализации, необходима специализированная ОС — гипервизор.

Рынок виртуализации глазами IDC

Рынок средств виртуализации архитектуры x86 находится на этапе бурного развития, и его структура еще не устоялась. Это усложняет оценку его абсолютных показателей и сравнительного анализа представленных в данном сегменте продуктов. Подтверждением этого тезиса служит опубликованный в ноябре прошлого года отчет IDC Enterprise Virtualization Software: Customer Needs and Strategies («Корпоративное виртуализационное ПО: потребности заказчиков и стратегии»). Наибольший интерес в этом документе представляет вариант структуризации серверного виртуализационного ПО, в котором IDC выделяет четыре основных компонента (рис. 8).

Платформа виртуализации. Ее основу составляет гипервизор, а также основные элементы управления ресурсами и программный интерфейс приложений (API). В качестве ключевых характеристик выделяются число сокетов и количество процессоров, поддерживаемых одной виртуальной машиной, число гостевых систем, доступных по одной лицензии, и спектр поддерживаемых ОС.

Управление виртуальными машинами. Включает средства управления хостовым ПО и виртуальными серверами. Сегодня здесь наиболее заметны различия в предложениях вендоров — как по составу функций, так и по масштабированию. Но IDC уверена, что возможности инструментов ведущих поставщиков быстро выравниваются, управление физическими и виртуальными серверами будет выполняться через единый интерфейс.

Инфраструктура виртуальных машин. Широкий набор дополнительных средств, выполняющих такие задачи, как миграция ПО, автоматический перезапуск, балансировка нагрузки виртуальных машин и т. п. По мнению IDC, именно возможности этого ПО будут решающим образом влиять на выбор поставщиков заказчиками, и как раз на уровне этих средств будет вестись борьба между вендорами.

Решения для виртуализации. Набор продуктов, которые позволяют связать упомянутые выше базовые технологии с конкретными типами приложений и бизнес-процессов.

В общем анализе ситуации на рынке IDC выделяет три лагеря участников. Первый водораздел проходит между теми, в чьих продуктах виртуализация реализована на верхнем уровне ОС (SWsoft и Sun) или же на нижнем уровне (VMware, XenSource, Virtual Iron, Red Hat, Microsoft, Novell). Первый вариант позволяет создавать самые эффективные с точки зрения производительности и дополнительных затрат решения, но они допускают только однородные вычислительные среды. Второй позволяет запускать на одном компьютере несколько ОС разного типа. Внутри второй группы IDC проводит еще одну границу, которая разделяет поставщиков автономных продуктов виртуализации (VMware, XenSource, Virtual Iron) и производителей ОС, в состав которых входят средства виртуализации (Microsoft, Red Hat, Novell).

На наш взгляд, предложенная IDC структуризация рынка не очень точна. Во-первых, почему-то IDC не учитывает наличие двух принципиально разных типов виртуальных машин — с использованием хост-ОС (VMware, Virtual Iron, Microsoft) или гипервизора (VMware, XenSource, Red Hat, Microsoft, Novell). Во-вторых, если говорить о гипервизоре, тут полезно отличать тех, кто использует собственные базовые технологии (VMware, XenSource, Virtual Iron, Microsoft) и кто лицензирует чужие (Red Hat, Novell). И наконец, нужно сказать, что SWsoft и Sun имеют в своем арсенале не только технологии виртуализации на уровне ОС, но и средства поддержки виртуальных машин.

Однородные виртуальные среды

В данном случае для всей системы используется один экземпляр хостовой ОС. Тут также можно выделить два варианта реализации: в одном случае виртуальный слой создается вокруг ОС, в другом — вокруг приложения.

Виртуализация на уровне ядра ОС (operating system-level virtualization). Этот вариант подразумевает одно ядро хостовой ОС для создания независимых параллельно работающих операционных сред (рис. 6). Для гостевого ПО создается только собственное сетевое и аппаратное окружение. Такой вариант используется в Virtuozzo (для Linux и Windows), OpenVZ (бесплатный вариант Virtuozzo) и Solaris Containers. Достоинство — высокая эффективность использования аппаратных ресурсов, низкие накладные технические расходы, высокая управляемость, минимизация расходов на приобретение лицензий. Недостатки — можно реализовать только однородные вычислительные среды.

Виртуализация приложений подразумевает модель сильной изоляции прикладных программ с управляемым взаимодействием с ОС, при которой виртуализуется каждый экземпляр приложений и все его основные компоненты: файлы (включая системные), реестр, шрифты, INI-файлы, COM-объекты, службы (рис. 7). Приложение исполняется без процедуры инсталляции в традиционном ее понимании, его можно запускать прямо с внешних носителей (например, с флэш-карт или из сетевых папок). С точки зрения ИТ-отдела такой подход имеет очевидные преимущества: ускорение развертывания настольных систем и возможность управления ими, сведение к минимуму конфликтов между приложениями и потребности в тестировании их на совместимость. Фактически именно такой вариант виртуализации используется в Sun Java Virtual Machine, Microsoft Application Virtualization (ранее называлось Softgrid), Thinstall (в начале 2008 г. вошла в состав VMware), Symantec/Altiris.

Лучшие виртуализационные продукты 2007 г.

Авторитетный в области виртуализационных технологий независимый информационный Web-портал SearchServerVirtualization.com подвел итоги прошедшего года в этом сегменте ИТ-рынка, объявив результаты собственного, проведенного впервые исследования с целью определить лучшие продукты — Best Virtualization Products of 2007. В исследовании приняли участие продукты, выпущенные в 2007 г.; анализ проводился по четырем категориям — виртуализационные платформы, аппаратные средства для виртуализации, инструменты управления системами и средства защиты данных. В качестве ключевых критериев использовались оценка новизны продуктов, способность их к интеграции в корпоративную ИТ-инфраструктуру, простота использования и управляемость, функциональность, а также распространенность на рынке.

Авторы исследования не вдавались в глубокий анализ ситуации на рынке, ограничившись констатацией того, что за прошедший год направление технологий виртуализации, с точки зрения заказчиков, перешло из разряда «развивающихся» в категорию «основных» для создания и развития ИТ-инфраструктуры предприятия. Практически все поставщики платформенного ПО сегодня включают виртуализационные решения в состав своих предложений, а разработчики прикладного ПО адаптируют свои продукты к работе в виртуализованной среде.

Платформы виртуализации

  1. Citrix XenServer Enterprise Edition 4.0. Это продукт начал год как еще не очень зрелая технология, а закончил в виде платформы масштаба предприятия, готовой вступить в конкуренцию с лидером рынка — VMware ESX Server.
  2. SWsoft Virtuozzo 4.0 (с 2008 г. стала называться Parallels Virtuozzo Containers). Давно известная на рынке и постоянно развивающаяся технология, которая занимает ведущие позиции среди решений на базе виртуализации на уровне ОС, с высоким уровнем производительности и низкими затратами на дополнительные ресурсы. Отлично подходит для консолидации высокопроизводительных однородных серверов.
  3. VMware Assured Computing Environment (ACE) 2. Позволяет вывести практическое применение виртуализации на новый уровень за счет возможности безопасного подключения удаленных пользователей к виртуальным центрам обработки данных.

Аппаратные средства для виртуализации

  1. HP Virtual Connect — инструмент для HP BladeSystem, позволяющий ИТ-администраторам управлять серверными конфигурациями сетей LAN и SAN.
  2. Аппаратный тонкий клиент компании Pano Logic, предназначенный специально для развертывания виртуальных ПО.
  3. Новейшие четырехъядерные процессоры от двух ведущих поставщиков — Intel Xeon 7300 и AMD Opteron. Авторы исследования отмечают, что разработчики микросхем, наконец, поняли, что повышение эффективности использования ресурсов вычислителя важнее, чем гонка за быстродействием.

Управление системами

  1. PowerRecon 3.1 — продукт ветерана рынка виртуализации компании PlateSpin, позволяющий управлять нагрузками в виртуальной инфраструктуре с учетом прогнозных моделей.
  2. CiRBA Data Center Intelligence 4.4 — также инструмент планирования нагрузок. Отмечается его глубокая интеграция с VMware VMotion и VMware Distributed Resource Scheduler.
  3. Veeam Reporter компании Veeam Software сочетает удобные средства управления развертыванием ПО с хорошим функционалом подготовки отчетности.

Защита данных

  1. Microsoft Systems Center Da ta Protection Manager 2007 — вторая версия средства резервного копирования Microsoft, полезная не только для виртуальных серверов, но и для таких популярных продуктов, как Exchange and SQL Server.
  2. CommVault System Galaxy Data Protection 7.0 — продукт отмечен за гибкость возможностей (позволяет, например, делать копии не только виртуальных машин целиком, но и отдельных файлов).
  3. Catbird V-Agent — обеспечивает защиту гипервизора VMware, а также отдельных виртуальных машин.