Вычислительные мощности организаций постоянно растут, но к 2008 г. половина центров обработки данных (ЦОД) будет страдать от нехватки энергии и недостаточной эффективности систем охлаждения, отвечающих требованиям оборудования высокой плотности, — об этом заявили аналитики из Gartner. Как отметили эксперты, с появлением компьютерного оборудования высокой плотности, например, модульных серверов, многие ЦОД достигли предела своих возможностей как в плане энергообеспечения, так и охлаждения. Если несколько лет назад стойку упаковывали оборудованием, требующим примерно 2—3 кВт электроэнергии, то в настоящее время в ту же стойку устанавливаются устройства, потребляющие до 30 кВт.

По мнению исследователей, рост энергопотребления отражается в увеличившейся потребности в отведении тепла, причем расходы на электроэнергию при охлаждении дата-центров могут быть такими же или даже превосходить затраты на питание компьютерного оборудования. В Gartner считают, что теплоотвод для оборудования с высокой плотностью требует новых решений в области энергообеспечения и управления охлаждением, особенно в области охлаждения и обеспечения эффективности работы процессоров и дизайна ЦОД.

Традиционно, указывают аналитики, доля электроэнергии, потребляемой не-ИТ-оборудованием в ЦОД (например, охлаждающими устройствами, вентиляторами и насосами), составляет около 60% от общего объема энергии. Однако по мере роста требований в 2009 г. затраты на электроэнергию для обеспечения питанием устройств «не-ИТ» в 70% общемировых дата-центров будут второй по величине статьей расходов.

Лампочки накаливания вне закона

Лампочки накаливания изобретены 125 лет назад, и с тех пор их конструкция не претерпела значительных изменений. Новый закон о лампочках накаливания, предложенный в США демократом Ллойдом Левином, должен вступить в силу в 2012 г. По сообщению Associated Press, он предусматривает запрет на использование крайне неэффективных лампочек накаливания — несмотря на то что экономия от перехода на более дорогостоящие и экономичные источники света может сказаться лишь в долгосрочной перспективе. Разница в эффективности ощутима — по данным исследовательского института RMI (Rocky Mountain Institute), замена одной лампочки накаливания мощностью 75 Вт флуоресцентной лампой мощностью 20 Вт при одинаковой яркости позволит снизить выбросы в атмосферу двуокиси углерода почти на полтонны. Кроме того, это сэкономит пользователю 55 долл. за все «время жизни» лампочки за счет ее меньшего энергопотребления. Если 75-Вт лампочка накаливания, по данным RMI, «живет» около 750 ч, то длительность эксплуатации флуоресцентных ламп достигает 10 тыс. ч.

Светодиодные источники света, активно разрабатываемые в настоящее время, могут стать еще более экономичной альтернативой не только лампочкам накаливания, но и флуоресцентным лампам всевозможных модификаций.

В то же время исследователи уверены, что продолжающиеся инновации могут существенно смягчить проблемы с энергообеспечением/охлаждением. По их мнению, уже в скором будущем на рынке появятся полностью интегрированные системы управления, которые будут вести мониторинг и управлять загрузкой серверов, а также мощностями для энергообеспечения и охлаждения в режиме реального времени. Для построения оптимальных, устойчивых и эффективных рабочих сред Gartner рекомендует менеджерам дата-центров использовать целостный подход при планировании, разработке и размещении центра, чтобы оптимизировать потребление энергии и возможности охлаждения. В связи с этим необходимо учитывать все варианты, принимая во внимание тип создаваемого ЦОД, конфигурацию стоек, установку оборудования, а также направление движения потоков воздуха.

Проблемы стандартных серверов

Эксперты говорят о том, что недорогие серверы на базе процессоров x86 используются все в больших количествах, и это создает серьезные проблемы для вычислительных центров, основная масса которых не подвергалась реконструкции с тех пор, как шесть лет назад кончился последний технологический бум. Кроме того, от 10 до 30% потребления электроэнергии в ЦОД приходится на серверы, которые не делают ничего полезного. Выключив их, можно заметно снизить общее энергопотребление. Но дело в том, что сегодня никто в этом не заинтересован. Факторы риска существуют, а побудительных мотивов нет. Сейчас администратор ЦОД, как правило, отвечает за уровень его готовности, но не контролирует расходы. А при переносе центра обнаруживается, что до 30% серверов относится к категории «мертвых».

Но есть и другой путь оптимизации: консолидация серверов с формированием единой, более крупной платформы способствует повышению эффективности энергопотребления. Сотрудники ИТ-службы могут активизировать функции энергосбережения, которые сегодня поддерживаются новыми серверами. Однако в стандартной настройке ноутбука функции энергосбережения обычно отключены. И если какое-то время компьютер не используется, стоит погасить его экран, а потом остановить жесткий диск. Производители процессоров, компании AMD и Intel, интегрируют соответствующие возможности в свои микросхемы, но по умолчанию они не активированы.

Количество серверных стоек в вычислительных центрах постоянно увеличивается, причем доступная площадь сокращается, а требования к энергоснабжению и охлаждению растут. Поэтому все больше внимания уделяется влиянию работы вычислительных центров, потребляющих значительное количество энергии, на окружающую среду. Правительства рассматривают возможности введения новых регулирующих норм. Исторически сложилось так, что расходы на обслуживание составляли около 3% общего ИТ-бюджета. Сегодня доля расходов на функционирование оборудования (в том числе на электроэнергию) достигает уже 5—10% и более. А это меняет всю экономику ИТ. У представителей бизнеса возникает вопрос, окупится ли увеличение затрат на обслуживание и не приведет ли это к необходимости отказаться от других ИТ-инициатив. К примеру, одна из компаний решила развернуть у себя систему на базе модульных серверов. Непосредственная стоимость оборудования составляла, допустим, около 20 млн долл. Такие затраты, разнесенные на три года, представлялись вполне обоснованными и легко окупались. Однако в экономическом обосновании не фигурировала сумма в три раза большая, которую за те же три года предстояло выделить на обслуживание системы. Таким образом, реальная стоимость решения оказалась в несколько раз выше. Обновление инфраструктуры предполагало модернизацию ЦОД, а также построение систем энергоснабжения и охлаждения. И все эти расходы оставались за кадром.

В 2000 г. на каждую стойку приходилось в среднем 500——1000 Вт энергопотребления, а с охлаждением не возникало никаких проблем. Обслуживающий персонал мог быть абсолютно некомпетентным в инженерных вопросах, но тем не менее системы успешно охлаждались. Наверное, это делалось неэффективно с точки зрения энергопотребления, но подсчетами никто не занимался, соответственно, никто не знал, насколько плохо решались данные задачи. Сегодня плотность размещения элементов в стойке заметно выросла, и необходимость грамотного инженерного оснащения серверных комнат стала очевидной. На протяжении более чем десяти лет настоятельно рекомендуется оставлять в компьютерных помещениях горячие и холодные проходы. Такое решение представляется оптимальным, если каждая стойка потребляет 3-4 кВт электроэнергии.

Специалисты Gartner предсказывают, что в течение ближайшего времени организациям придется пойти на серьезные изменения, чтобы выполнить требования к охлаждению, которые ужесточаются вместе с ростом вычислительной мощности. Например, четыре года назад отдельный сервер в стойке имел мощность в 2 кВт. Сегодня же стандартная стойка, заполненная серверами-лезвиями на 50—80%, потребляет от 15 до 30 кВт. Осложняет ситуацию и рост количества энергии, затрачиваемой на охлаждение. Оказывается, чтобы охладить сервер, требуется в 1,2—1,3 раза больше энергии, чем сам он потребляет при работе. Поэтому часто оказывается, что до конца заполнить стойку серверами невозможно именно из-за проблем с охлаждением. Кондиционирование воздуха и охлаждение пола, когда холодный воздух циркулирует под серверными стойками, уже не дают нужного эффекта, поскольку тепла вырабатывается слишком много. Кроме того, пространство для охлаждения под серверами в устаревших вычислительных центрах загромождается кабелями, проводами, а то и вовсе посторонними предметами. Все эти проблемы приводят к росту расходов на электроснабжение. В настоящее время на эти цели тратится менее 10% общего ИТ-бюджета компаний, но аналитики Gartner считают, что, если не принять соответствующие меры, этот показатель может возрасти до 20—30%. Расходы на электроэнергию за последний год возросли и, вероятно, будут продолжать расти, хотя пиковое значение предсказать сейчас нельзя.

Energy Star для серверов

Проблема энергопотребления ставит новые задачи перед компьютерной индустрией. Корпорации AMD и Intel концентрируются на улучшении архитектуры и построении микросхем с большим количеством ядер вместо того, чтобы увеличивать частоту работы ядра и соответственно энергопотребление. Процессор нового поколения POWER6 от IBM имеет функции управления энергопотреблением, что позволяет снизить потребляемую мощность до уровня 100 Вт. Корпорация Sun Microsystems уже более года рекламирует показатели энергосбережения своих серверов UltraSPARC T1 Niagara. А компания Dell еще в прошлом году запустила линейку энергоэффективных серверов. Ведь процессоры, блоки питания, микросхемы памяти и другие компоненты становятся все более «горячими», повышаются требования к питанию и охлаждению таких систем. Правительство США уже серьезно задумывается над решением нарастающих проблем: принимаются законопроекты, стимулирующие покупателей приобретать энергосберегающие серверы, а Министерство энергетики старается помочь компаниям стать более энергоэффективными.

Закон на страже энергопотребления

Президент США Джордж Буш подписал законопроект, предписывающий Агентству по защите окружающей среды (EPA) провести работы по исследованию энергопотребления в ЦОД. В начале декабря 2006 г. законопроект был утвержден Сенатом США. Дело в том, что рост энергопотребления в дата-центрах вызывает серьезную озабоченность. А для компаний, владеющих большим количеством серверов, устройств хранения и другого компьютерного оборудования, он представляет значительную проблему. Оказалось, что за короткий период эксплуатации стоимость электроэнергии, потребляемой этим оборудованием и системами кондиционирования, превышает стоимость самого оборудования. На основе результатов исследования EPA должны быть выработаны более энергоэффективные решения. Полученные результаты помогут оценивать эффективность потребления электроэнергии серверами, процессорами и другим оборудованием ЦОД.

Но стремление ИТ-менеджеров ограничить рост затрат на электропитание и охлаждение серверов не приносит заметных результатов еще и потому, что производители компьютерного оборудования по-разному подсчитывают эффективность использования энергии, в силу чего сравнивать различные устройства крайне затруднительно. Агентство по защите окружающей среды США (Environmental Protection Agency, EPA) после дискуссий с производителями компонентов ПК пришло к выводу, что спецификации Energy Star, аналогичные тем, которые существуют для настольных ПК, ноутбуков, рабочих станций, нужны и для серверов. В разработке протокола, которая началась в прошлом году, принимают участие ведущие производители серверов, такие, как IBM, Dell, HP и Sun Microsystems.

В своем первоначальном варианте протокол Energy Star для серверов нацелен на сравнение параметров энергопотребления ультратонких серверов высотой 1U или 2U. В дальнейшем его действие, возможно, распространится на более крупногабаритные и сложные машины. Впоследствии EPA сможет разработать на базе данного протокола спецификации или даже рейтинг, аналогичный стандарту Energy Starдля бытовой техники. Руководитель группы разработчиков EPA Energy Star говорит, что эти спецификации не считаются обязательными, но в них подробно расписано, какие требования должны выполнять компании, чтобы занять в рейтинге Energy Star высокие позиции. После появления окончательного варианта протокола EPA соберет у поставщиков информацию о результатах тестирования и на ее основании будет определять, имеет ли смысл приступать к созданию спецификаций. В некоторых случаях спецификации энергопотребления для определенных видов продукции разрабатывать нецелесообразно. Дело в том, что если все продукты потребляют одинаковое количество энергии, то разработчикам негде будет провести черту, отделяющую хорошие продукты от плохих. В дальнейшем EPA намерено проводить анализ с целью определения жизнеспособности таких спецификаций, учитывая современную динамику рынка, а также требования к энергосбережению, которые не наносили бы серьезный вред производительности серверных решений.

В настоящее время действует редакция Energy Star, принятая 1 июля 2000 г. и требующая от компьютеров наличия "спящего режима", в котором энергопотребление не должно превышать 30% от пикового. С 20 июля нынешнего года вступает в силу новая версия — Energy Star 4.0, первое обновление спецификации с 2000 г. Она распространяется на настольные ПК, ноутбуки, планшеты, рабочие станции, серверы младшего класса и игровые консоли (к серверам среднего и старшего класса, тонким клиентам, серверам-лезвиям, карманным компьютерам эта спецификация неприменима). В основном новые требования касаются экономии энергии в ждущем режиме. Например, в режиме ожидания ПК и серверы должны потреблять не более 2 Вт, в «спящем» режиме — не более 4 Вт. Кроме того, спецификация позволит оценить энергопотребление сервера в зависимости от числа обработанных им транзакций — например, количества Web-страниц, обслуженных в течение часа.

Мнение эксперта

[фото]

Александр Аносов,
технический руководитель направления, компания «Открытые Технологии» (http://www.ot.ru)

Проблема увеличения потребляемой мощности в центрах обработки данных, о росте которой так много пишут СМИ в последние годы, продолжает интересовать все большее число заказчиков по всей стране. В погоне за потребностями бизнеса во внедрении нового функционала, расширении количества пользователей, перехода от автоматизации отдельных бизнес-процессов к комплексной автоматизации всего и вся растут требования к технических архитектурам центров обработки данных. Производители серверного оборудования выпускают более производительные серверы, энергопотребление и тепловыделение которых, по оценкам экспертов, выросло за последние два года в 1,5 раза. В первую очередь это отражается на жизненно важных для функционирования оборудования системах инженерной инфраструктуры — системе электроснабжения и обеспечения микроклимата (проще говоря, охлаждения). Все чаще и чаще нам как поставщикам услуг в области инженерной инфраструктуры при проектировании систем приходится сталкиваться с ограничениями, накладываемыми подводимой к ЦОД мощностью. Все чаще в тендерной документации на серьезный вычислитель приходится читать фразы: «Энергопотребление вычислительного комплекса не должно превышать Х кВт».

Решением данной проблемы, на наш взгляд, может стать комплексный подход к проектированию всех архитектурных и инфраструктурных систем ЦОД: начиная с тщательного выбора, анализа и оптимизации бизнес-приложений, функционирующих в ЦОД; выбора аппаратных платформ с применением уже вышедших или только выходящих на рынок технологий от крупных производителей оборудования, направленных на снижение потребляемой мощности; внедрения систем автоматической миграции данных по критериям не только стоимости хранения гигабайта информации, но и потребляемой мощности на гигабайт информации, — и заканчивая применением технологий энергосбережения в инженерной инфраструктуре.

При построении эффективного с точки зрения расхода электроэнергии ЦОД нельзя не учитывать аспект его будущей модернизации. Одна из важных составляющих в жизненном цикле ЦОД — это система мониторинга и управления инженерной инфраструктурой, которая в идеальном случае должна быть интегрирована с прочими системами мониторинга и управления ЦОД. Помимо прочих немаловажных функций, данная система позволяет четко отслеживать события в ЦОД и выстраивать взаимосвязи между процессами, проходящими в информационных системах и технической архитектуре, и энергопотреблением ЦОД. Чем крупнее ЦОД, тем более заметную роль играет данный аспект, так как с его учетом можно оптимизировать инженерную инфраструктуру и нивелировать пиковые значения в графике энергопотребления. Допустим, при генерации различного рода отчетов по расписанию увеличивается нагрузка на техническую архитектуру, вследствие чего вырастает энергопотребление. Если у нас несколько информационных систем начинают «отрабатывать» крупные задачи по расписанию в одно и то же время, потребление электроэнергии может вырасти в разы! А с помощью системы мониторинга и управления мы можем четко определять, сколько в какие моменты потребляем электроэнергии, и в соответствии с этим разносить по времени ресурсоемкие задачи, препятствуя появлению пиков нагрузки.

Отдельно хочется отметить, что на рынок выходит все больше комплексных решений, в которых четко выстроены взаимосвязи между системами энергоснабжения, охлаждения, мониторинга и управления. Несомненный плюс подобных систем — простота проектирования и установки, предсказуемость характеристик, обобщенный опыт, зачастую учитывающий многие моменты, о которых заказчики даже не задумываются. Эти системы идеально подходят для большого круга стандартных задач, но, как и все универсальное, продолжают проигрывать там, где реализация той или иной подсистемы имеет какие-то особенности. Например, кондиционеры, устанавливаемые в ряд со стойками с оборудованием, не подойдут для охлаждения крупного сервера, имеющего такую схему прохода воздуха: забор — спереди, снизу, сзади; выдув — вверх.

«Сила» постоянного тока

Хотя многие компании отрасли отказались от использования постоянного тока в ЦОД, полагая, что с ним связано больше маркетинговой шумихи, чем реальных возможностей, другие — в том числе Intel, HP и Sun Microsystems — по-прежнему проявляют к нему интерес. В частности, это трио участвует в проекте, который финансируется Энергетической комиссией Калифорнии и в рамках которого три компании совместно с Национальной лабораторией им. Лоуренса трудятся над созданием прототипа ЦОД, использующего постоянный ток. Тем временем привлекательность постоянного тока в отрасли, похоже, растет. Так, представители компании Rackable Systems (предлагает решения для монтажа в стойку и рядами, а также для ЦОД) сообщили, что из дохода в 83 млн долл., полученного в IV квартале прошлого года, 35% связано с установкой систем постоянного тока.

Переменный ток традиционно подается в ЦОД из внешних источников. Дойдя до помещения, он многократно преобразуется в постоянный и обратно, пока не достигнет, наконец, серверов, питаемых постоянным током. Однако в точках преобразования теряется электроэнергия и происходит нагрев. Это заставляет компании присматриваться к электросетям, в которых используется только постоянный ток, как к способу повышения эффективности и экономии средств. Сторонники данной идеи утверждают, что постоянный ток на 20—40% уменьшает тепловыделение и на 27% повышает надежность серверов. Кроме того, учитывая некоторые варианты конструкций с использованием постоянного тока, сокращение числа элементов в линиях электропередачи означает снижение затрат и упрощение управления. Однако у этого подхода имеются и серьезные недостатки. Среди прочего, для передачи постоянного тока необходимы более толстые кабели, чтобы избежать тепловых потерь. Кроме того, предприятия могут проявить сдержанность в вопросе перевода своих ЦОД на постоянный ток, особенно в период, когда разрабатывается целый ряд новых технологий — от многоядерных процессоров и виртуализации до более эффективного использования электроэнергии и жидкостных устройств охлаждения. Переход на постоянный ток может быть полезен развитым компаниям, имеющим множество компьютеров, или тем, кто создает новые ЦОД, считают аналитики из Gartner.

Экологический центр обработки данных

Корпорация Sun Microsystems (http://www.sun.com) опубликовала результаты исследования, проведенного агентством Harris Interactive. Оно в очередной раз подтвердило необходимость использования энергосберегающих продуктов в современных решениях для бизнеса. Удивление вызвали результаты, полученные при исследовании решений о приобретении оборудования, принятых за последние шесть месяцев. Оказывается, несмотря на то что при покупке оборудования для ЦОД руководители рассматривают эффективность энергопотребления как один из важных критериев, большинство респондентов признало, что они не знают, какие суммы их компания тратит на электроэнергию и на компенсации за выброс вредных веществ в атмосферу. Итак, опрос, проведенный среди 197 руководителей уровня директора и выше в американских компаниях (с ежегодным доходом более 1 млрд долл.), показал следующее. Из опрошенных 76% отметило, что значение фактора эффективности энергопотребления при принятии решения о покупке оборудования повысилось, при этом 23% из них считает, что этот показатель изменился существенно. 63% руководителей не знает, сколько их компания платит за электроэнергию и выбросы вредных веществ в атмосферу, а 38% руководителей, участвующих в приобретении оборудования для ЦОД, вообще не знает об этих факторах. И наконец, 61% опрошенных считает, что предложение специальных программ могло бы склонить их к приобретению продуктов с более эффективным энергопотреблением.

По словам Дейва Дугласа, вице-президента по эко-ответственности Sun Microsystems, более 20% расходов на ЦОД сейчас приходится на электроэнергию и охлаждение, поэтому интерес руководителей различных уровней к энергосберегающим решениям вполне закономерен. Однако, чтобы руководители более ясно представляли себе, каков может быть экономический эффект при переходе на экологичные решения, необходима серьезная образовательная работа. В корпорации считают, что приставка «эко» — это не только «экология», но и «экономика». Внедрение отраслевых программ, разработка новой продукции и изменение подхода к организации рабочих мест позволяют говорить о том, что Sun Microsystems уже предприняла существенные шаги для того, чтобы ее глобальная бизнес-стратегия соответствовала общемировой практике решения вопросов экологической ответственности. Экологические ценности Sun основываются на следующих принципах: Innovate (создавать инновации), Act (действовать), Share (делиться). Корпорация создает новую продукцию и услуги, которые соответствуют требованиям как экологии, так и бизнеса. Кроме того, она последовательно ведет свою деятельность таким образом, чтобы обеспечивать максимальную экологическую безопасность. И наконец, Sun Microsystems делится своими знаниями и технологиями, делая их открытыми для самой широкой аудитории.

В августе прошлого года Sun объявила о проведении первой в своем роде программы рибейтов совместно с Pacific Gas & Electric (PG&E) — одной из крупнейших компаний по поставке природного газа и электроэнергии в США, обслуживающей 350 тыс. предприятий в Калифорнии. В рамках программы Non Residential Retrofit компании PG&E клиенты, которые приняли решение о замене существующего оборудования на серверы Sun Fire T1000 и T2000 (их энергоэффективность в 3—5 раз выше, чем у конкурирующих решений, и они занимают меньше физического пространства), могли сэкономить от 700 до 1000 долл. на каждом сервере или получить скидку до 35% при участии в программе Sun Upgrade Advantage Program.

Напомним, что серверы Sun Fire T1000 и T2000 оптимизированы для использования с ОС Solaris 10 и созданы на базе процессора UltraSPARC T1 с технологией CoolThreads, самого производительного и экологичного процессора в своем классе. Он потребляет электроэнергии не больше, чем электрическая лампочка, поддерживая при этом одновременную обработку 32 потоков данных, и обеспечивает лучший показатель производительности в расчете на 1 Вт по сравнению с любым другим процессором. Низкий уровень потребления электроэнергии никак не отражается на производительности Sun Fire T1000 и T2000: с момента выпуска эти серверы поставили более десятка мировых рекордов, продемонстрировав многократное превосходство в производительности над конкурентами, при том что их энергопотребление составило всего 20%, а занимаемая площадь — 25% от аналогичных параметров конкурирующих моделей.

Мнение эксперта

[фото]

Максим Ковалев,
начальник Отдела вычислительных систем, компания Inline Technologies (http://www.in-line.ru)

В настоящее время проблема энергопотребления и отвода тепла в центрах обработки данных приобретает все большее значение; в США и Западной Европе она стала одной из самых важных. Свидетельство тому — статьи в прессе, исследования аналитических компаний, высказывания топ-менеджеров ведущих производителей вычислительной техники и систем хранения данных, активное продвижение на рынок энергосберегающих технологий.

По прогнозам IDC, уже в ближайшие два-три года затраты на закупку новых вычислительных мощностей будут эквивалентны затратам на электропитание и охлаждение этих мощностей. Следовательно, повышение эффективности энергопотребления способно ощутимо уменьшить общую стоимость владения ИТ-инфраструктурой и дать значительный экономический эффект.

Ведущие производители вычислительной техники и систем хранения данных уже активно работают над решением проблемы энергоэффективности. Сейчас эффективное энергопотребление оборудования становится одним из главных его конкурентных преимуществ. Одна из основных причин роста актуальности проблемы энергоэффективности — высокие цены на электроэнергию в ведущих странах мира. В России на затраты ощутимо влияют другие составляющие: это стоимость прокладки новых силовых линий, стоимость систем бесперебойного питания и кондиционирования, а также площадей, на которых расположены центры обработки данных.

В своих решениях компания Inline Technologies предлагает заказчикам технологии, которые в числе прочего призваны решить проблему энергоэффективности. Несомненно, что потребляемая мощность у современного сервера выше, чем у сервера предыдущего поколения, занимавшего в своей линейке оборудования аналогичное положение. Решения Inline Technologies дают возможность использовать эту возросшую мощность максимально эффективно, так чтобы средняя стоимость бизнес-транзакции снижалась, и соответственно снижались общие накладные расходы на ведение бизнеса.

Комплексный подход HP

Компания HP (http://www.hp.com) концентрирует усилия на разработке продуктов, которые потребляют меньше, а сохраняют больше. HP ищет также новые способы сокращения потерь энергии, связанных с ее собственными операциями и обусловленных использованием топлива и электричества. Так, к 2010 г. HP сократит выбросы углекислого газа в атмосферу на принадлежащих ей и арендуемых предприятиях по всему миру на 15% по сравнению с уровнем 2006 г. Кроме того, компания активно сотрудничает с клиентами, правительственными организациями и инвесторами по вопросам изменения климата. Напомним, что НР была одной из первых компаний, присоединившихся к Реестру мирового выброса газов Всемирного экономического форума и обязавшейся информировать общественность о выбросах парниковых газов после того, как перечень этих газов был утвержден Всемирным фондом дикой природы WWF и другими организациями. Топ-менеджеры компании считают, что HP способна оказать заметное положительное влияние на проблему защиты окружающей среды, разрабатывая эффективные в энергетическом отношении продукты — от микросхем до оборудования крупных информационных центров.

Энергетическая эффективность продуктов компании в решающей степени определяется на этапе проектирования. Став одним из основателей экологической этикетки American Energy Star в 1992 г., HP к настоящему времени имеет более тысячи сертифицированных продуктов. Кроме того, безопасность почти стольких же продуктов HP подтверждена экологическими декларациями ИТ.

Стратегия усовершенствования микросхем

Компания HP (http://www.hp.com) объявила о начале исследований, которые могут помочь создать перепрограммируемые полевые вентильные матрицы FPGA (Field Programmable Gate Array) с плотностью, увеличенной в несколько (до восьми) раз по сравнению со стандартными применяемыми сейчас системами. Кроме того, они должны потреблять меньше электроэнергии для вычислений, чем те FPGA-микросхемы, которые производятся в настоящее время. В дополнение к перечисленным свойствам подобные микросхемы могут строиться на базе транзисторов того же размера, что и нынешние FPGA. Это означает, что новые микросхемы можно в принципе запустить в производство с незначительными изменениями. Напомним, что FPGA представляет собой интегрированную схему с программируемыми логическими компонентами и интерфейсом, который адаптируется для конкретных приложений. FPGA используются практически во всех видах промышленности, включая телекоммуникации, автомобильную промышленность и бытовую электронику.

Вообще говоря, технология основана на наноразмерном переключателе-перемычке, размещаемом поверх слоя обыкновенного комплементарного металл-оксидного кремния CMOS (Complementary Metal Oxide Silicon). Для данной технологии используется архитектура, которую разработчики из HP Labs называют «полевое программируемое нанопроводное соединение» FPNI (Field-Programmable Nanowire Interconnect) — разновидность технологии FPGA. Исследование в HP Labs проводилось с использованием классических методов моделирования и симуляции процессов, однако HP разрабатывает и действующую микросхему, которая позволит получить лабораторный прототип в течение года. Ученые говорят, что если микросхемная электроника будет продолжать развиваться, как и раньше, закон Мура войдет в противоречие с существующими законами физики. Чрезмерное нагревание и сбои в работе устройств возникают на наноуровне. Сейчас удалось объединить в гибридной схеме традиционную CMOS-технологию с наноразмерными переключающими устройствами в целях повышения плотности размещения транзисторов, относительного уменьшения рассеивания энергии и повышения надежности при использовании дефектных устройств. В работе использован концептуально новый подход к подсоединению перемычки из слоя CMOS, а подход HP базируется на опыте производства кросс-соединений и привносит множество инноваций для улучшения возможностей производства этих схем.

Подход FPNI предполагает, что все логические операции выполняются в слое CMOS, где большинство сигналов схемы проводится по кросс-соединению, расположенному над слоем транзисторов. В то время как обычные FPGA используют от 80 до 90% своей CMOS для маршрутизации сигнала, схема на базе FPNI работает гораздо эффективнее. Плотность транзисторов, выполняющих логические операции, намного больше, а относительное количество электроэнергии, потребляемой процессом маршрутизации, существенно уменьшено. Исследователи представили концептуальную модель микросхемы, в которой использовано кросс-соединение на нанопроводниках шириной 15 нм, объединенное с CMOS половинной высоты — 45 нм (оно будет представлено в рабочих образцах к 2010 г.). Это может быть равносильно прорыву в технологиях сразу на три шага вперед согласно Международной карте технологического развития кремниевых технологий (International Technology Roadmap for Silicon) без увеличения размерности транзисторов.

Стоимость производства микросхем растет быстрыми темпами одновременно с потребностью развития возможностей производства. Ученые надеются, что новый подход сможет повысить плотность построения FPGA, а погрешности схемотехники не станут больше, чем в современных устройствах. Модель, основанная на 4,5-нм кросс-соединении, планируется к промышленному использованию в 2020 г. В этом случае тактовая частота увеличивается одновременно с ростом потребления энергии на одно вычисление. Решить проблему можно за счет параллельности использования FPGA — чем больше параллельных каналов задействовано, тем меньше энергии потребляет подобная архитектура на канал. Поскольку нанопроводa и переключатели в кросс-соединении чрезвычайно малы, исследователи говорят, что вероятность дефектов будет относительно высока. Тем не менее, по словам ученых, с помощью соединительной перемычки существует возможность ремаршрутизации сигнала в обход дефектных участков. Испытания показали, что микросхема FPNI, имеющая 20% поврежденных в различных местах нанопроводов, тем не менее сохраняет КПД в 75% и не показывает значимого падения вычислительной мощности, что может сделать производство таких кристаллов экономически эффективным.

Решения для центров обработки данных

Управление питанием, охлаждение и связанные с ними расходы — постоянно растущие проблемы ИТ-отделов любого размера. По оценкам аналитиков из IDC, на питание одного ЦОД с 1000 серверов каждый год будет расходоваться почти 400 тыс. долл. За последнее десятилетие плотность потребляемой серверами мощности выросла в десять раз. В начале прошлого года HP представила технологии, которые сокращают расходы на электроэнергию, в то же время повышая надежность систем. Для поддержки широкого спектра корпоративных серверов и систем хранения в корпорации были разработаны следующие технологии охлаждения и управления питанием:

  • модульная система охлаждения, использующая холодную воду, что в три раза увеличивает стандартные возможности теплоотвода для одной серверной стойки;
  • универсальная стойка — единое решение для монтажа всех платформ серверов и систем хранения HP;
  • интеллектуальный модуль для распределителей питания (PDU) с удаленным управлением потребителями, контролирующий условия окружающей среды в ЦОД и повышающий надежность инфраструктуры питания.

Новые решения HP обеспечивают существенную экономию за счет резкого сокращения показателей энергопотребления и повышения эффективности обработки данных. В то же время эти технологии помогут заказчикам подготовиться к развертыванию следующих поколений ИТ-систем, которые будут отличаться большей производительностью и увеличенным потреблением энергии. Технологии энергопитания и охлаждения HP, которые охватывают все процессы в ЦОД, поддерживаются серверами семейств HP ProLiant, BladeSystem, Integrity, Integrity NonStop и HP 9000, а также дисковыми массивами HP StorageWorks MSA, EVA и XP.

Заказчики говорят, что новый подход HP к питанию и охлаждению помогает лучше масштабировать инфраструктуру и контролировать расходы на электроэнергию. Так, в компании OpSource задействовано 700 серверов HP BladeSystem в двух ЦОД, и благодаря использованию интеллектуальной инфраструктуры с эффективным расходованием электроэнергии инженеры компании смогли обеспечить питанием больше серверов и сетевых коммутаторов, чем это удавалось с обычными стоечными системами. Серверы HP BladeSystem вместе с ПО HP Systems Insight Manager оказались тем инструментом сокращения затрат на ИТ, который позволил OpSource работать эффективнее и предложить агрессивные цены на рынке ПО и услуг.

HP Modular Cooling System — самоохлаждающаяся стойка для сверхплотного размещения в ЦОД. Она присоединяется к стандартной стойке HP 10000 G2 Series, использует охлажденную воду и равномерно распределяет холодный воздух по всей передней части стойки. Более того, Modular Cooling System позволяет разместить в одной стойке устройства, потребляющие мощность до 30 кВт — в три раза больше, чем поддерживает стандартная стойка. Это обеспечивает недоступные прежде возможности консолидации серверов и защиту долговременных инвестиций.

HP 10000 G2 Series Rack — стандартная универсальная стойка, в которую можно устанавливать все стоечные серверы и системы хранения HP. Ее использование упрощает и ускоряет развертывание ЦОД и значительно улучшает окупаемость инвестиций, поскольку она заменяет семь старых несовместимых между собой стоек единой платформой со стандартной системой питания. В инновационной конструкции стойки используется эффективное конвекционное охлаждение и усовершенствованная по сравнению с предыдущим поколением стоек вентиляция.

HP Power Distribution Unit Management Module, интеллектуальный модуль управления для распределителей питания — инструмент для удаленного контроля потребителей, подключенных к стоечным распределителям питания, и предотвращения перегрузки сети. Модуль реализует централизованное управление на основе стандартов SNMP с помощью HP Systems Insight Manager или другого ПО.

Эти продукты входят в портфель решений для управления питанием и охлаждения, охватывающий инновации в области корпоративных процессоров и наборов микросхем, источников питания, решений для мониторинга энергопитания и регулирования тепловыделения, сервисов для ЦОД и программу HP Smart Cooling. Напомним, что HP использует технологию Smart Cooling в центре обработки данных HP Labs в Пало-Альто и в 2003 г. с ее помощью добилась сокращения энергопотребления почти на 25%. Кроме того, HP предлагает ряд сервисов по оценке и размещению оборудования ЦОД. Эти имеющие фиксированную цену и настраиваемые в зависимости от потребностей сервисы помогают заказчику оценить энергопотребление и охлаждение и понять, как эффективнее использовать ресурсы. В набор сервисов для ЦОД входят HP Data Center Assessment Service, HP Data Center Thermal Assessment Service и HP Data Center Site Planning Service. HP также планирует предложить несколько сервисов внедрения и поддержки для HP Modular Cooling System.

Жидкостное охлаждение как средство от шума

Компания Hitachi (http://www.hitachi.com) выступит в роли поставщика системы жидкостного охлаждения для рабочей станции HP xw9400 — одной из моделей класса high-end. Конструкция, предложенная Hitachi, предусматривает перенос вентилятора, обычно размещаемого на центральном процессоре, на шасси компьютера, где при сниженной скорости вращения можно добиться более интенсивного воздушного потока. Функцию отвода тепла от процессора на вентилятор будет выполнять система жидкостного охлаждения. Как заявляют в HP, компания станет первой среди американских поставщиков ПК, использующей данную технологию Hitachi в рабочей станции. Как прогнозируют в Hitachi, в дальнейшем спрос на системы жидкостного охлаждения будет расти, в особенности со стороны пользователей, предъявляющих высокие требования к производительности и не выносящих шума вентиляторов.

Интеллектуальное динамическое охлаждение

В конце 2006 г. HP представила новую систему управления охлаждением и анонсировала ключевые инициативы, предполагающие интеграцию подходов служб эксплуатации зданий и корпоративных отделов ИТ, с тем чтобы повысить эффективность и снизить расходы на содержание ЦОД. На основании данных четырехлетних исследований в лабораториях HP разработано новое решение для управления охлаждением — система интеллектуального динамического охлаждения HP DSC (Dynamic Smart Cooling), способная сэкономить заказчикам от 20 до 45% затрат на охлаждение или дать возможность использовать больше вычислительных систем, не выходя за рамки существующего бюджета. Интеллектуальный узел управления на базе сервера НР с помощью специализированного ПО непрерывно регулирует параметры работы промышленных систем охлаждения на основании данных воздушно-температурных измерений в реальном времени, получаемых от сети датчиков, расположенных непосредственно в монтажных стойках. HP DSC активно управляет состоянием окружающей среды, охлаждая только те элементы ИТ-инфраструктуры, где это необходимо больше всего, и тем самым гарантируя пользователям экономию средств. Решение HP DSC будет внедрено компанией HP в шести собственных консолидированных ЦОД в трех географических зонах США. Это важное дополнение к концепции адаптивной инфраструктуры HP (Adaptive Infrastructure Strategy), которая служит основой для постройки дата-центров следующего поколения.

Как отметил директор департамента систем хранения, сетей и инфраструктуры HP Пол Перес, объединяя и совершенствуя подходы служб эксплуатации зданий и ИТ-служб, клиенты компании теперь могут снижать расходы на электроэнергию в пределах центров, переходя от фиксированных схем оплаты на оплату «по счетчику». Комплексный подход HP позволяет преодолеть традиционный конфликт между энергопотреблением и наращиванием ИТ-ресурсов. Теперь клиенты могут рассматривать ЦОД в качестве систем, которые управляются так же тщательно, как и функционирующие в них аппаратные средства. Для развития DSC корпорация HP создает новую партнерскую программу, в рамках которой будет работать с ведущими архитектурными, строительными, технологическими, риэлтерскими и эксплуатационными компаниями, стремясь к полноценному внедрению технологий энергосбережения для ЦОД следующего поколения. Программа внедрения решений будет представляться как партнерское решение компанией EYP Mission Critical Facilities (http://www.eypmcf.com).

Стоит отметить, что НР DSC устраняет огромную проблему, с которой ИТ-индустрия боролась в течение достаточно долгого времени. DSC не только значительно повышает эффективность систем охлаждения, но и предоставляет механизмы усовершенствования надежности ЦОД в целом. Это первый шаг к достижению конечной цели всей отрасли — создания полностью интегрированных и оптимизированных дата-центров, которые интегрируют внутри себя ИТ- и не-ИТ-инфраструктуру. В HP также сформировали внутреннюю команду, занимающуюся проектированием интеллектуальных центров данных (Smart Data Center). Входящие в эту команду лучшие специалисты компании сосредоточились на снижении стоимости использования DSC посредством гибкой системы комбинирования решений и услуг управления энергопотреблением и охлаждением. Инвестиции в этот проект составят более 10 млн долл. в год. В проекте будет использовано свыше 100 собственных патентов HP.

Стоит отметить, что HP DSC интегрирует уже имеющиеся инновации компании в области энергосбережения и охлаждения, такие, как HP Thermal Logic, ключевой компонент архитектуры HP BladeSystem c-Class. Эти технологии обеспечивают существенную экономию расходов клиентов, снижая при этом вред, наносимый окружающей среде. HP DSC может использоваться с любой стандартной монтажной стойкой для ИТ-оборудования и имеет стандартные интерфейсы, подходящие для большинства систем кондиционирования воздуха и управления зданиями. Таким образом, эта система идеально подходит для проектов нового строительства или модификации зданий и сооружений.

HP также анонсировала портфель продуктов для трехфазного электропитания, который позволяет развивать инженерные системы здания в соответствии с быстрым ростом ИТ-инфраструктуры. Устанавливая модульные системы распределения энергии и защиты, клиенты получают возможность задействовать необходимые элементы тогда, когда это нужно, а со временем перейти на новые поколения вычислительных систем. Это приводит к более плотному размещению вычислительных систем и защищает инвестиции. Чтобы соответствовать все возрастающим потребностям ЦОД в электроэнергии, портфель трехфазных продуктов НР включает модульные трехфазные ИБП и электрораспределительную стойку на 100 кВ.А. В сочетании со стандартными монтажными стойками HP эти два решения позволяют подключать дублирующие электросети, проводить распределение и управлять электросетями на месте, увеличивая рентабельность и более эффективно используя пространство центра.

Экологические обязательства НР

HP Dynamic Smart Cooling — одна из многих инициатив, направленных на более эффективное расходование электроэнергии, которые помогают компании и ее клиентам уменьшать воздействие на экологию. В поддержку этого заявления, сделанного на XXV ежегодной конференции Gartner, HP укрепила свои экологические обязательства, отнеся это мероприятие к CarbonNeutral: выброс углекислого газа, который образовался в результате проведения конференции, а также сопутствующие случайные выбросы, компенсированы HP за счет покупки части квот на выброс углекислого газа в окружающую среду. Квотирование — это будущие инвестиции в полезные для климата технологии, такие, как использование солнечной и ветряной электроэнергии.

Технологии охлаждения IBM

Пока производители процессоров и серверов работают над повышением удельной производительности компьютера на 1 Вт, для охлаждения стоек в ЦОД начинают использовать жидкостное охлаждение. Именно этот тип охлаждения, применявшийся ранее в суперкомпьютерах, переживает сейчас второе рождение. Подобное решение позволяет справляться с постоянно растущим тепловыделением серверов, их подсистем и компонентов (таких, как процессоры и память) эффективнее, чем с помощью традиционных систем вентиляторов и кондиционирования воздуха. Вместо того чтобы охлаждать постоянно нагревающееся помещение, выделяемое системой тепло можно отводить специальными теплообменниками с водяным охлаждением.

Действительно, отмечают эксперты, вода способна удалять значительно больше тепла на единицу объема, чем воздух. По данным экспертов Gartner, водяное охлаждение намного эффективнее воздушного, поскольку при высоте на уровне моря вода проводит тепло в несколько тысяч раз лучше, чем воздух. В настоящее время на рынке появляются системы, охлаждающие вычислительные стойки с помощью местного источника холодной воды. Такие системы способны на 70% сократить потребности вычислительного центра в охлаждении при неизменном уровне вычислительной мощности. Аналитики прогнозируют, что это повысит экономичность вычислительных центров с точки зрения потребления питания на 50%. С другой стороны, жидкостное охлаждение означает, что администраторам потребуется новый опыт; кроме того, эта технология пригодна не для всех случаев. Однако перспективность ее трудно отрицать.

Одной из интереснейших разработок инженеров IBM (http://www.ibm.com) следует признать набор решений, объединяющий несколько фирменных технологий снижения энергопотребления и тепловыделения систем. Первая из них позволяет найти в сервере зоны повышенного тепловыделения и принять соответствующие меры. Вторая использует источники холодной воды для систем кондиционирования воздуха. И наконец, третья позволяет контролировать энергопотребление систем в реальном времени. Таким образом, в набор технологий IBM CoolBlue входят комплексные инструменты для управления оборудованием и системами в вычислительных средах, оптимизирующие энергопотребление, управление и охлаждение на уровне системы, стойки и всего вычислительного центра в целом.

Напомним, что именно IBM первой в мире реализовала концепцию водяного охлаждения вычислительных систем в своем первом мэйнфрейме полвека назад, а теперь вернула в вычислительные центры водяное охлаждение в виде решения Rear Door Heat eXchanger. Корпорация заключила соглашение с компанией Panduit Corporation (http://www.panduit.com), крупнейшим глобальным производителем сетевого и электрического оборудования, о лицензировании технологии водяного охлаждения IBM Rear Door Heat eXchanger, что расширяет доступ клиентов к набору технологий IBM CoolBlue. Решение Rear Door Heat eXchanger было создано специально для охлаждения корпусов серверов IBM и представляет собой «охлаждающую дверцу» — выполненную в виде дверцы заднюю панель с водяным охлаждением толщиной 5 дюймов; с помощью холодной воды эта дверца отбирает тепло, которое отводится через заднюю стенку компьютера. Решение Rear Door Heat eXchanger имеет достаточно простую конструкцию, не требует дополнительных вентиляторов и не потребляет электричества. По опубликованной информации, на создание охлаждающей дверцы у инженеров IBM ушло три года. Потребовались и весьма значительные инвестиции в интеллектуальный капитал термальных разработок. В денежном выражении капиталовложения «Голубого гиганта» в новую технологию исчисляются сотнями тысяч долларов.

Панель, разрабатывавшаяся под кодовым наименованием CoolBlue, впервые была смонтирована в задней части стойки IBM eServer Enterprise. Внутри конструкции находились герметичные трубы, подключаемые к водопроводу, а циркулирующая в них вода вбирала в себя тепло, выделяемое серверами. Специалисты IBM протестировали функционирование охлаждающей дверцы в составе компьютерной стойки, в которой размещались 84 сервера, выделявшие 80 тыс. BTU (British Thermal Unit) тепла. После монтажа CoolBlue панель отводила примерно 55% выделяемого тепла. Кроме того, благодаря снижению нагрузки на кондиционеры затраты на электроэнергию уменьшились на 15%.

Охлаждающая дверца поможет нормализовать температуру в «горячих точках» вычислительных центров и решить прочие вопросы, связанные с поддержанием нужного теплового режима. По мнению экспертов, имеет смысл устанавливать в ЦОД несколько таких устройств в наиболее разогреваемых местах.

Аппаратные и программные технологии контроля энергопотребления и охлаждения CoolBlue нашли применение и в новых серверах IBM BladeCenter и System x на базе процессоров AMD Opteron. Они объединяют в себе блоки питания серверов (с КПД более 90%), эффективную систему теплообмена Calibrated Vector Cooling, IBM Rear Door Heat eXchanger, а также ПО PowerExecutive. Отметим, что Rear Door Heat eXchanger использует существующие источники охлажденной воды для систем кондиционирования воздуха в ЦОД.

Новые сервисы IBM

Для решения проблем клиентов, связанных с энергоснабжением ЦОД, IBM представила новые сервисные продукты — полный комплекс услуг, от определения потребностей и анализа имеющихся возможностей до разработки наилучших решений для ЦОД и других специализированных площадок, включая «чистые комнаты», а также экологичные и интеллектуальные здания. Разработка этих сервисных продуктов, которые будут предлагаться подразделением IBM Site and Facilities Services, стала очередным этапом в реализации стратегии корпорации, нацеленной на предоставление традиционных технологических услуг так же, как предоставляются технологические продукты.

High Density Computing Readiness Assessment — помогает клиентам оценить имеющиеся возможности поддержки вычислительных систем высокой плотности монтажа, выявить несоответствия, которые могут привести к нарушению непрерывности операций, и разработать план разрешения выявленных проблем.

Thermal Analysis for High Density Computing — выявляет и решает существующие и потенциальные проблемы с тепловыделением, которые могут привести к отказам систем в существующих ЦОД, и предлагает решения для экономии электроэнергии и поддержки будущего расширения.

Integrated Rack Solution for High Density Computing — помогает клиентам проектировать, развертывать и администрировать надежные, гибкие стоечные решения, чтобы использовать преимущества современных технологий в новых и существующих средах.

Data Center Global Consolidation and Relocation Enablement — обеспечивает оценку и планирование, чтобы помочь клиентам сэкономить деньги за счет глобальной консолидации и перемещения информационных центров, эффективно используя навыки региональных специалистов подразделения IBM Site and Facilities и лучшие глобальные методики.

Scalable Modular Data Center for Small and Medium-sized Businesses — позволяет клиентам быстро развернуть новый ЦОД, используя модульные конструктивные блоки. Может использоваться практически в любой рабочей среде и обеспечивает энергоснабжение, охлаждение, безопасность и мониторинг для создания готовых к эксплуатации сред дата-центров.

Новые сервисные продукты подразделения IBM Site and Facilities Services уже предлагаются через службу IBM Global Services. Отметим, что IBM занимает прочные позиции на глобальном рынке услуг проектирования сооружений и инфраструктуры, в основе чего лежат экспертные знания более чем 450 специалистов подразделения IBM Site and Facilities по всему миру, спроектировавших и внедривших для клиентов множество ЦОД общей площадью более 2,8 млн кв. м, а также более 400 собственных информационных центров IBM по всему миру. Услуги IBM Site and Facilities Services включены в обширный портфель оборудования и инструментов системного управления IBM CoolBlue, что позволяет клиентам более эффективно оптимизировать энергопотребление, администрирование и охлаждение на уровне систем, стоек и центров обработки данных.

Мнение эксперта

[фото]

Игорь Анисимов,
руководитель Дирекции инженерных систем, компания «Энвижн Груп» (http://www.nvisiongroup.ru)

В современных российских условиях при проектировании средних и крупных ЦОД стоимость электроэнергии не относится к приоритетным факторам, и ему не уделяется особого внимания. Возможно, в будущем ситуация изменится, но сегодня заказчик оценивает необходимость энергосберегающих технологий исходя из целесообразности и стоимости реализации тех или иных решений. Именно экономическая эффективность — основной движущий фактор выбора технологий в каждой конкретной ситуации. Гораздо более важной становится проблема стоимости помещения с возможностью подачи необходимой электрической мощности от двух разных подстанций. Именно дефицит электроэнергии, а не ее стоимость сегодня определяет вектор применения энергосберегающих технологий.

Высокая стоимость оборудованной площадки ЦОД и дефицит площади под активное оборудование вынуждает использовать все более компактные решения с чрезвычайно высоким тепловыделением на единицу пространства. Экономическая эффективность диктует свои законы — мощные и компактные решения становятся все более выгодными. Инженерная инфраструктура эволюционирует, следуя за потребностями ЦОД. Заказчики, установив стойки с блейд-серверами, просто вынуждены рассматривать и адекватные решения для отвода тепла.

Большое значение приобретает возможность масштабирования и тиражирования сложных решений, так как инсталляции инженерного оборудования для будущих активных систем — явно не лучший путь для использования инвестиций. Например, достаточно эффективно решение Rimatrix5 от компании Rittal, реализующее концепцию модульных вычислительных центров и обеспечивающее комплексное развитие систем бесперебойного питания, кондиционирования, а также систем мониторинга и удаленного управления.

Важно отметить, что строительство ЦОД начинается с проектирования, и именно на этом этапе закладываются возможности будущих решений. Правильное планирование зон активного оборудования и зональная оптимизация инженерной инфраструктуры могут сберечь от 20 до 70% инвестиций в эксплутационные системы. Системный интегратор должен обладать опытом и необходимым инструментарием для моделирования подсистем, полей температуры и потоков воздуха в рабочем пространстве ЦОД. Например, специалисты «Энвижн Груп» при проектировании ЦОД для одного из крупнейших операторов связи использовали трехмерное моделирование всех компонентов инфраструктуры. Такой подход позволил заранее рассчитать температурные режимы, максимально компактно расположить кабельные трассы под потолком и фальшполом, исключить ошибки при взаимном размещении кабельных каналов, трубных разводок и оборудования.

Самый важный принцип — комплексное проектирование всех подсистем, включая оптимизацию и эффективное использование вычислительных ресурсов. Применение технологий виртуализации позволяет значительно сократить парк активного оборудования и равномерно перераспределять вычислительную нагрузку. Именно рациональное использование основных ресурсов — залог успешной стратегии снижения совокупной стоимости владения.