Одной из ключевых тенденций развития корпоративных ИТ с начала нынешнего века стала централизация вычислительных ресурсов корпоративных информационных систем, которая сейчас в концентрированном виде представлена как проблематика создания центров обработки данных (ЦОД). В то же время нужно сразу подчеркнуть: речь идет лишь о тенденции, которая не носит абсолютного, обязательного характера. Параллельно с ЦОД сохраняют свои позиции и децентрализованные схемы размещения ИТ-ресурсов, которые достаточно часто оказываются оптимальными для тех или иных организаций.

Тенденция к централизации в целом объясняется стремлением компаний к снижению капитальных и операционных затрат на ИТ, повышению эффективности использования имеющихся ИТ-ресурсов. Отметим, что хотя главная статья ИТ-расходов российских предприятий (это видно, например, из данных IDC – около 65%) связана с покупкой оборудования, все же основной причиной начала перехода на рубеже веков к созданию ЦОД было желание повысить управляемость информационных систем и уменьшить эксплуатационные расходы. Ведь в первой половине десятилетия шел этап так называемой "физической" консолидации – географически территориальной концентрации оборудования. Лишь потом начался виртуализационный период консолидации, который влечет за собой снижение затрат на аппаратуру за счет повышения эффективности ее применения.

Отметим также, что говоря о ЦОД, мы имеем в виду в основном серверную часть информационных систем. Клиентская часть (рабочие станции), естественно, сохранит в общем случае распределенную конфигурацию в соответствии со структурой предприятия. Но именно вследствие роста размеров и сложности компьютерных систем актуальность задач управления (тут в свою очередь можно выделить два аспекта: управления собственно ИТ и управление ИТ-услугами) неизменно повышается. Что очень наглядно продемонстрировал прошедший кризисный год.

Централизация и децентрализация ИТ

Централизация и децентрализация ИТ – это два подхода к созданию корпоративных информационных систем, которые связаны между собой классическим диалектическим законом единства и борьбы противоположностей. Нетрудно увидеть, что соотношение этих двух частей так же меняется во времени в полном соответствии с диалектическим принципом циклического развития, который графически можно представить в виде синусоиды, причем даже не одной, а нескольких.

Так, нынешнее десятилетие характеризуется тенденцией к консолидации платформенных программно-аппаратных ресурсов, которая пришла на смену доминирующей в 90-е гг. децентрализованной модели. Но в то же время в сфере прикладного ПО наблюдается ровно обратное движение от использования монолитных систем к компонентно-распределенным схемам (SOA, WOA, mashup).

Точно такие же противоречивые тенденции действуют в отношении выбора поставщиков вычислительных средств. С одной стороны, идея "лучших практик" подразумевает возможность использовать лучшие предложения для решения каждой отдельно взятой задачи. С другой стороны, с точки зрения управления всем ИТ-хозяйством заказчики заинтересованы применять вариант "все в одном" от одного поставщика, минимизируя затраты на интеграцию и техническую поддержку ИТ-компонентов.

Все это относится к традиционным задачам оптимального выбора между специализацией и универсальностью, между гибкостью и управляемостью. Но если оценить в целом ключевую ИТ-тенденцию сегодняшнего дня, то приоритетным направлением все же является курс на повышение управляемости вычислительными системами, причем к контексте долгосрочной перспективы их развития.

Проверка кризисом

В самых общих чертах прошедший год характеризовался резким сокращением расходов предприятий на развитие ИТ (в том числе, на реализации новых проектов) и борьбой за повышение эффективности использования имеющихся средств. Это подтверждается данными различных исследований рынка.

Из рис. 1 хорошо видно, как изменилась структура инвестиций в ИТ в пользу ПО управления (на примере сведений IDC). Еще более разительная ситуация в области средств виртуализации: по оценкам той же IDC, поставки ПО виртуальных машин должны по итогам 2009 г. вырасти на 11%, и это на фоне общего падения продаж всего ПО на 48%, а рынка ИТ в целом – на 46%. Таблица иллюстрирует перераспределение расходов на ИТ по разным группам продуктов.

Изменение расходов на ИТ по группам продуктов в 2009 г (источник: IDC)

Группы расходов Статьи расходов
Сокращение Оборудование (серверы, системы хранения данных, ПК, устройства печати и копирования, сетевое оборудование)
ИТ-услуги (системная интеграция, установка и конфигурирование оборудования, разработка заказного ПО, обучение и подготовка)
ПО (бизнес-приложения, базы данных, ОС)
Отсроченные расходы Консолидация инфраструктуры
Модернизация ОС и приложений
Плановая замена ПК, устройств печати и копирования
Оптимизированные расходы Обслуживание оборудования и ПО
Расходные материалы
Внешние поставщики ИТ-услуг, аутсорсинг
Основная ИТ-инфраструктура
Стабильные расходы Системы ИТ-безопасности
ПО для управления сетями, серверами и системами хранения данных
ПО управления конфигурациями и изменениями

В целом растущий интерес клиентов к более широкому использованию ИТ-автоматизации определялся такими факторами, как сокращение ИТ-бюджетов и ИТ-персонала, растущая сложность ИТ-инфраструктуры, изменения в бизнес-процессах организации, происходящие на рынке слияния и поглощения, а также необходимость соблюдения нормативных требований.

Комплексный подход к организации ЦОД

Один из главных принципов организации ЦОД – понимание этой проблемы как комплекса взаимосвязанных вопросов, рассматриваемых в контексте решения краткосрочных и долгосрочных задач развития ИТ-систем организаций.

Отметим при этом, что хотя тематика ЦОД постоянно фигурирует на российских ИТ-мероприятиях и в ИТ-публикациях, довольно часто эти вопросы освещаются весьма односторонне, что обычно объясняется специализацией того или иного поставщика.

В самом общем виде структуру ЦОД можно представить в виде четырех основных слоев:

  • общая физическая инфраструктура (помещения, электроснабжение, системы охлаждения, пожаротушения и т. п.);
  • апппаратная ИТ-инфраструктура (серверы, устройства хранения данных, сети и т. д.);
  • программная платформа (ОС, системы виртуализации, средства управления, инструменты разработки, средства безопасности);
  • прикладные бизнес-решения.

При этом нужно учитывать, что вся система отличается высоким уровнем гетерогенности, использованием технологий и решения большого числа поставщиков. В то же время аналитики отмечают довольно четко выраженное стремление заказчиков шире использовать моноплатформенные подходы при создании ЦОД, что свидетельствует о том, что вопросы управляемости систем имеют высокий приоритет.

Надо также сказать, что общей ключевой тенденцией развития ИТ является курс на повышение связи ИТ с целями бизнеса. Именно поэтому взаимосвязь между выполняемыми ИТ-проектами и задачами основной деятельности организации должна сегодня быть определяющим моментом при определении и реализации стратегии развития информационных систем предприятия.

О необходимости комплексного подхода к созданию ИТ-инфраструктуры предприятий наглядно говорят результаты исследования Marketvisio/Gartner, проведенного на основе опроса ИТ-директоров крупных российских компаний в середине этого года. Из них следует, что обобщенное представление заказчиков об эффективной ИТ-среде связано с такими характеристиками, как быстрая реакция на запросы бизнеса, высокие темпы внедрения необходимых систем, обеспечение непрерывности бизнес-процессов (максимальная доступность ИТ-сервисов, минимальное время простоя), прозрачность и безопасность данных.

Соответственно ИТ-директора в качестве первоочередных задач ИТ-развития своих предприятий ставят вопросы оптимизации использования ИТ-ресурсов, что подразумевает их централизацию, переход на виртуализацию, повышение уровня доступности сервисов и сокращение стоимости владения инфраструктурой. Отдельно нужно выделить вопросы энергосбережения, которые сегодня становятся критичными для развития крупных ИТ-систем, особенно в мегаполисах. При этом ключевым требованием развития ИТ-инфраструктуры остается обеспечение непрерывности бизнеса, что подразумевает в числе прочего высокую устойчивость ИТ.

Основные игроки рынка средств управления ИТ

В сегменте средств управления ИТ в целом наблюдается общая тенденция корпоративного ИТ-рынка – интеграция отдельных инструментов в слой платформенного ПО. Впрочем, нужно отметить, что хотя в этой сфере были и есть специализированные поставщики (например, CA, Symantec), все же исторически на нем всегда лидировали производители платформ, причем аппаратных. Речь, конечно же, идет в первую очередь о таких компаниях, как HP и IBM.

HP – один из давних лидеров в области управления ИТ, и ее семейство продуктов под торговой маркой OpenView хорошо известно и в мире и в России. После приобретения в 2006 г. компании Mercury набор программных решений HP претерпел некоторую реструктуризацию в соответствии с выработанной новой стратегией под названием Business Technology Optimization (BTO, оптимизация технологии для задач бизнеса). На сегодняшний день пакет программных средств компании НР для управления ИТ представляет собой набор из двенадцати центров, объединяющих программные модули по назначению и отнесенных к функциональным инициативам в областях стратегии, внедрения, эксплуатации.

Специфика позиционирования HP на этом рынке вытекает из того, что все софтверное направление компании исторически развивалось исходя из задач управления, в первую очередь аппаратными средствами, с ориентацией на сегмент крупных заказчиков (выход на рынок малого и среднего бизнеса не декларируется даже на уровне перспектив). Кроме того, внедрение таких программных решений практически всегда требует участия сильных системных интеграторов. Не нужно также упускать из виду, что НР является одним из крупнейших в мире сервис-провайдеров.

IBM со своим программным семейством Tivoli – старейший и, наверное, крупнейший поставщик средств управления ИТ. Традиционно сильная сторона компании – ее ориентация на поддержку многоплатформенности и отраслевых стандартов. Хотя IBM традиционно ассоциируется с рынком крупных клиентов, корпорация постоянно пытается продвигаться в сторону SMB-заказчиков (продукты класса Express).

Говоря о продуктах Tivoli (и о ПО IBM в целом), нужно понимать, что их развитие во многом определяется тенденцией смещения бизнес-интересов корпорации в сторону предоставления услуг (направления технического и делового консалтинга приносят более половины ее доходов). При этом обилие программных решений, в том числе дублирующих друг друга, создают для IBM проблемы. Заказчики порой просто теряются в этих предложениях и не имеют четкого представления о «дорожной карте» IBM. Для решения многих задач заказчикам требуются наборы средств из разных пакетов. Кроме того, заказчики часто сетуют на довольно сложную модель ценообразования ПО IBM, а так же на то, что им приходится тратить немало средств на внешние услуги внедрения и поддержки продуктов.

Корпорация Microsoft – относительно новый игрок в сегменте средств ИТ-управления корпоративного уровня. О своих серьезных планах в этой сфере компания решительно заявила в 2003 г., сформулировав свое стратегическое видение проблемы в виде концепции Dynamic Systems Initiative (DSI). К тому моменту Microsoft имела всего два продукта в этой сфере – Systems Management Server и Microsoft Operations Manager. Любопытно, что поначалу в Редмонде говорили о намерении создать единое решение под названием System Center, объединив эти два продукта и расширяя затем его функциональность. Но потом компания скорректировала планы, выбрав вариант набора инструментов. Нынешняя технологическая политика в области ИТ-управления была представлена в 2005 г., когда были объявлены планы формирования семейства ПО System Center. Сейчас в этот набор входит восемь решений, охватывающих в целом полный спектр задач управления ИТ (за исключением управления аппаратными средствами; кроме того, средство Service Manager для управления ИТ-услугами находится пока на стадии бета-тестирования).

Тут нужно подчеркнуть, что на этом рынке Microsoft реализует качественно иную (по сравнению с теми же HP и IBM) парадигму, в ходе развития семейства System Center позиционируя себя в качестве поставщика платформы Windows и огромного комплекса инфраструктурных и прикладных программных решений, которые работают на данной платформе и взаимодействуют с ней. Образно говоря, System Center начинал строиться вокруг накопленных корпорацией знаний о процессах управления и обслуживания основных своих продуктов. Однако усложнение взаимосвязей между различными продуктами и решениями как от самой Microsoft, так и от других производителей, потребовали разработки новой модели. В ее основе лежат процессы методологии Microsoft Operations Framework, базовые знания об инфраструктуре Microsoft и возможность простого расширения системы новыми знаниями о продуктах, решениях и их взаимосвязях, поставляемыми в виде «пакетов управления».

Учитывая огромную экосистему партнеров Microsoft – разработчиков ПО и проактивную позицию самой корпорации, пакеты управления начали быстро появляться как для большинства аппаратных составляющих (начиная от уровня чипсета, компьютера, сетевых устройств и т. д.), так и для программных средств и решений. При этом поддержка гетерогенных сред обеспечивается за счет широкого отраслевого сотрудничества с независимыми поставщиками ПО (в качестве примера можно назвать стратегические соглашения с Sun и Novell). Но такая специфика Microsoft имеет свои плюсы: в частности, это высокий уровень интеграции средств управления между собой, с ОС и c прикладными решениями (напомним о тенденции развития ИТ-инфраструктуры в направлении моноплатформенности). В то же время в рамках своей программной платформы компания может реализовать идею управления системами с ориентацией на конечные сервисы. Безусловными плюсами Microsoft являются также традиционная поддержка всего спектра заказчиков (от малых до самых крупных) и наличие огромной партнерской экосистемы.

Виртуализация как ключевая инфраструктурная технология

С середины нынешнего десятилетия использование технологии виртуализации становится главной тенденцией развития ИТ-инфраструктур предприятий в целом – и в особенности ЦОД. Сейчас можно уверенно говорить (базируясь на отзывах клиентов, данных аналитиков и экспертных оценках), что 2008 г. стал переломным в деле продвижения технологий серверной виртуализации на российском рынке. Даже кризис не смог помешать широкому распространению этих средств; более того, именно сложные экономические условия в какой-то мере послужили дополнительным стимулом для заказчиков к внедрению виртуализации, так как это позволяло реально снизить затраты в достаточно короткие сроки.

Однако нужно подчеркнуть, что мы пока находимся на первых этапах широкого освоения виртуализации, и впереди у заказчиков не только выгоды от ее применения, но и необходимость разрешать новые, порой довольно неожиданные проблемы.

В опубликованном этой осенью отчете IDC "От виртуализации серверов к виртуализации инфраструктуры бизнеса" представлено ее видение развития рынка виртуальных машин в целом (рис. 2). Складывается впечатление, что наша страна находится сейчас в начальной фазе расширенного использования серверной виртуализации. Обобщение мнений заказчиков говорит о том, что основные выгоды от внедрения этих средств заключаются для них в сокращении капитальных и операционных затрат, упрощении структуры ИТ, снижении времени реакции на запросы, повышении непрерывности бизнеса, возможности использовать новые принципы планирования вычислительных мощностей и новые модели распределения затрат.

Необходимо отметить, что как раз в 2008 г. в стане поставщиков средств виртуализации произошли радикальные изменения, которые стали оказывать мощное воздействие на развитие всего этого рынка. Суть вопроса заключается в том, что до того доминирующее, фактически монопольное положение в этой сфере занимала компания VMware. Однако ситуация за последние два-три года резко изменилась в результате появления на этом рынке новых серьезных игроков (Citrix, Novell, Red Hat, Oracle, Sun, IBM) во главе с Microsoft со ее новым гипервизором Hyper-V.

Общая картина положения дел в области средств виртуализации представляется примерно следующей.

На прошедшей этой осенью конференции Gartner Symposium/ITxpo отмечалось, что несмотря на обилие разговоров о виртуализации, эта технология пока еще применяется не так широко, как можно было бы подумать. Но ее популярность растет. По оценкам Gartner, сейчас в мире только 16% рабочей нагрузки серверов x86 обслуживается виртуальными машинами, но уже через три года их доля вырастет до 50%. Важно подчеркнуть, что хотя многие считают, что технологии виртуализации ориентированы на крупные предприятия и дата-центры, сейчас в мире число развернутых виртуальных машин быстрее всего растет в сегменте малого бизнеса.

Рынок средств виртуализации находится на этапе развития и реструктуризации. Поэтому оценка ситуации на нем с помощью таких традиционных показателей, как доли рынка в денежном выражении и установленной базы продуктов, зачастую не дает правильного понимания происходящего. В любом случае оценку нужно проводить на основе анализа динамики развития технологий, понимания технологической и маркетинговой стратегии поставщиков.

Важно, что с начала 2008 г. отчетливо проявилась тенденция "исчезновения" рынка гипервизоров, перехода этих решений в категорию бесплатных продуктов. Во многом этот процесс был вызван выходом на рынок ведущих платформенных поставщиков (в первую очередь Microsoft), которые позиционируют средства виртуальных машин как вспомогательные решения для продвижения своих основных коммерческих продуктов (в том числе и инструментов управления вычислительными средами).

Результаты различных опросов российских заказчиков показывают, что распространенность технологий виртуализации VMware и Microsoft находится сейчас примерно на одном уровне (их доли составляют 40–50%). Но на самом деле это дает картину только в "первом приближении", поскольку тут не учитывается "глубина проникновения" данных средств в ИТ-инфраструктуру предприятий (соотношение виртуальных и физических серверов, использование виртуализации для критически важных приложений, использование возможностей балансировки нагрузки и повышения отказоустойчивости).

Средства виртуализации от "новых" игроков (Microsoft, Citrix и т. д.) появились на рынке относительно недавно и находятся скорее в процессе опробования заказчиками в режиме пилотных проектов. Только сейчас в отрасли начала формироваться критическая масса опыта, необходимая для их более широкого применения. При этом есть и определенный сдерживающий фактор: представления клиентов о продуктах заметно отстают по времени от процесса реального развития возможностей этих средств.

Хотя охват виртуализацией серверной инфраструктуры еще очень далек от 100%, все же можно уверенно сказать, что процесс перевода физических серверов в виртуальную среду отраслью освоен и не представляет особых проблем. Но как раз сейчас наступает новый этап использования виртуализации, связанный с созданием и управлением динамическими виртуально-физическими ИТ-инфраструктурами. По единодушному мнению аналитиков, спектр проблем заказчиков и конкурентной борьбы среди поставщиков перемещается в сферу средств управления ИТ.

Говоря об этой проблеме, нужно отметить несколько линий развития ситуации. Одна из них заключается в конкуренции между двумя группами ИТ-вендоров – поставщиками гипервизоров и независимыми производителями средств управления (например, HP, CA). Каждая из них имеет свои преимущества: у первой это высокий уровень интеграции ее программных комплексов, у второй – ориентация на поддержку гетерогенных сред и, что может быть гораздо важнее, наличие полного спектра инструментов (включая, например, управление конфигурациями и изменениями). Отметим тут особое положение Microsoft, которая может позиционировать себя и в том и в другом качестве (но, конечно, с сильной привязкой к Windows).

Несмотря на то что гипервизоры отошли сейчас на второй план в общем комплексе виртуализационного ПО и что на этом рынке действует довольно большая группа поставщиков, включая всех глобальных ИТ-лидеров, все же нужно отметить, что главная линия развития ситуации тут определяется конкурентной борьбой между VMware и Microsoft. (Впрочем, конечно, немаловажную роль играют и остальные вендоры, позиция которых характеризуется ориентацией на использование открытых средств виртуализации.)

Суть противостояния VMware и Microsoft заключается в принципиально различном видении места виртуализации в общем комплексе корпоративной ИТ-инфраструктуры.

VMware сформулировала еще полтора года назад свою стратегическую цель -- создание нового операционного слоя, обеспечивающего функционирование виртуальных машин в распределенной аппаратной среде. При этом предполагается, что роль традиционных ОС в такой системе будет постепенно снижаться, вплоть до их полного исчезновения (см. PC Week/RE № 45/2009, http://www.pcweek.ru/themes/detail.php?ID=121133). Понятно, что такие перспективы не очень вдохновляют поставщиков ОС.

В противоположность этому Microsoft рассматривает виртуализацию как эволюцию операционных систем. Именно в таком контексте идет развитие Hyper-V, который изначально рассматривается как дополнительный компонент Windows Server (но нужно подчеркнуть, что в качестве гостевых он поддерживает различные ОС).

Эта дилемма (гипервизор как независимая операционная среда или как компонент ОС) имеет целый ряд технологических и маркетинговых аспектов, важных в том числе для разработчиков приложений и средств управления: на какую стратегическую линию им сделать решающую ставку. Общая теория говорит, что наиболее устойчивой моделью систем является трехуровневая схема (в данном случае аппаратура – ОС – приложения), Учитывая это, можно предположить, что разделение программной среды исполнения на два независимых слоя вряд ли произойдет. И в этой ситуации вариант Microsoft выглядит более жизнеспособным, особенно учитывая консерватизм ИТ-рынка, на котором, несмотря на его инновационную природу, одним из ключевых факторов развития является необходимость поддержки унаследованных систем (то, что именуется защитой сделанных инвестиций и обеспечением непрерывности бизнеса).

Отметим, что аналитики рынка виртуализации явно избегают давать прогнозы развития конкурентной ситуации в этой сфере. Но в одном все сходятся: применение виртуализации (по широте охвата и глубине проникновения) будет неизменно расти, а развитие технологий все же будет идти по эволюционному пути.