По прогнозам аналитиков из Gartner, к 2008 г. почти половине вычислительных центров во всем мире будет не хватать энергии и емкости систем охлаждения для обслуживания плотно упакованного оборудования. Не секрет, что с повышением плотности размещения процессоров усугубляются проблемы энергоснабжения и охлаждения. В ближайшем будущем они останутся острыми, но к 2010 г., как ожидается, начнут ослабевать благодаря соединению различных инновационных технологий. Судя по опубликованной информации, во многих случаях ИТ-менеджерам сегодня попросту неизвестно, сколько денег они тратят на электроэнергию, поскольку эти расходы не относятся к их бюджетам, а включаются в общий бюджет офиса. Поэтому некоторые ИТ-руководители стремятся не только снизить затраты на электроэнергию, но и лучше понять, как именно используется электроэнергия. Так, в ходе исследования центров обработки данных, проведенного Gartner в прошлом году, из 180 опрошенных 30% основной проблемой своего центра признали избыточный нагрев. А в четверти случаев в качестве причины неудовлетворенности своей инфраструктурой респонденты указывали ее недостаточную мощность. В связи с последним уместно вспомнить, что доля систем кондиционирования в общем энергопотреблении центра достигает 45%.

Особую актуальность данная проблема приобрела с переходом современных вычислительных центров на использование модульных, или блейд-серверов. Размещение таких сверхкомпактных решений внутри стоек требует продуманной системы теплоотвода и охлаждения. Так, типичный модульный сервер высотой 7U при температуре воздуха на входе 22°C вернет его подогретым более чем на 15° (классическое одиночное устройство — на 10°С), т. е. на уровне 38—42°C.

Таким образом, современные тенденции предполагают высокую динамику роста не только суммарной мощности, но и плотности мощности оборудования, размещаемого в стойке: при установке в ней 14 модульных серверов приходится оперировать значениями мощности, которые еще пару лет назад казались фантастическими, — до 20 кВт. Интересно, что при этом средняя мощность энергопотребления центра может составить всего 1,5 кВт на стойку. Значит, усреднение по мощности при расчетах чревато принятием ошибочных решений, так как либо не будет обеспечена работа компактного штатного оборудования, либо в системах, созданных с большим запасом по холодопроизводительности, расходование средств на нужды ИТ, и без того постоянно урезаемых, окажется неэффективным. Поэтому, по мнению экспертов, при расчете системы кондиционирования нельзя оперировать лишь одним балансом мощности оборудования и охладителя, нужно обращать внимание и на неравномерность потребления мощности в пространстве и времени.

Кроме того, необходимо учитывать, что энергопотребление сервера (и соответственно выделяемое им тепло) в зависимости от загрузки может колебаться в пределах 200%. В результате тестовая проверка эффективности охлаждения аппаратуры на «холостых оборотах» сразу после сборки не до конца продуманной системы не выявит недостатков, но станет предпосылкой проблем с идентификацией места сбоя при дальнейшей эксплуатации. Следовательно, борьба за исключение перегрева в процессе проектирования или при решении задач отвода тепла в уже действующих системах ведется по двум основным направлениям: на локальном уровне (на уровне стойки) и в масштабе всего вычислительного центра.

Проблемы при проектировании

Стоит еще раз подчеркнуть, что потребляемая оборудованием мощность варьируется в очень широких пределах. В центрах обработки данных (ЦОД) в расчете на стойку она в среднем не превышает 2 кВт, но при заполнении стойки оборудованием с высокой плотностью компоновки, например, модульными серверами, может увеличиться на порядок. Такие нагрузки значительно превосходят расчетные возможности типовых вычислительных центров по питанию и охлаждению. На первый взгляд, нужно лишь соответствующим образом оснастить ЦОД для предоставления требуемой мощности и обеспечить надлежащее охлаждение каждой стойки. К сожалению, практически во всех случаях это технически нереализуемо, да и экономически неоправданно. Неправильное решение при проектировании подобного центра может привести к многократному увеличению стоимости эксплуатации физической инфраструктуры.

Показатель плотности мощности, как правило, выражается в ваттах на квадратный фут или в ваттах на стойку. Такой простой характеристики достаточно, когда потребляемая мощность одинакова для всех стоек, однако в реальных информационных центрах она варьируется в очень широких пределах. На практике значения плотности мощности для одной стойки, ряда стоек и комнаты могут разительно отличаться. Результирующий разброс в значениях плотности мощности оказывает заметное влияние на архитектуру системы обеспечения питанием и еще в большей степени на реализацию системы охлаждения. Однако общая номинальная мощность систем питания и охлаждения равна простой сумме всех мощностей, потребляемых нагрузками. Это позволяет определить общую емкость ИБП и производительность кондиционеров. Основная проблема, связанная с варьированием максимальных значений плотности мощности, состоит в распределении питания и воздушных потоков в вычислительном центре.

Провода, из которых состоят цепи питания, достаточно громоздки и могут проходить поверху, чтобы избежать блокирования воздушных потоков под фальшполом (если он используется). Такая прокладка проводов особенно актуальна при установке нескольких энергоемких стоек рядом друг с другом. В альтернативном варианте, когда задействуется фальшпол, его высоту следует увеличить для размещения электропроводки. Так или иначе, но обязательно придется прокладывать дополнительную электропроводку, что может оказаться делом трудным и дорогостоящим, если информационный центр эксплуатируется в непрерывном режиме.

Охлаждение стойки со сверхвысокой плотностью мощности представляет собой намного более сложную проблему, чем питание такой системы. Оборудование нуждается в конкретном объеме воздуха независимо от того, может ли система охлаждения стойки его предоставить. Если помещение не рассчитано на обеспечение стойки таким количеством холодного воздуха, последняя будет потреблять выпускаемый горячий воздух (собственный или от соседнего оборудования) и в итоге перегреется.

Воздух может быть возвращен обратно в систему охлаждения тремя способами: через помещение, через трубопровод или через потолочную вентиляционную камеру. В идеальном варианте горячий воздух отводится из оборудования напрямую в систему охлаждения без смешения с окружающим воздухом и без подачи в воздухозаборник оборудования. Для этого требуется свободный и прямой воздушный канал. Один из способов решения задачи — высокий открытый потолок с системой возврата больших объемов воздуха, расположенной по центру в верхней точке. Однако во многих вычислительных центрах для возврата воздуха используются трубопроводы или подвесные потолочные вентиляционные камеры, а во многих других масса нагретого воздуха возвращается через комнату, потолок которой находится лишь немного выше стоек. Реализация этих вариантов представляет собой непростую техническую задачу.

Кратчайшим путем воздух попадает в воздухозаборник через рециркуляционный канал от собственного воздухоотвода оборудования. Поэтому важнейшая часть планирования ЦОД состоит в том, чтобы канал подачи холодного воздуха и канал возврата горячего были устроены рационально. Проблема становится особенно острой для сред с высокой плотностью размещения, так как воздушные потоки должны преодолевать сопротивление систем подачи и возврата воздуха. Для ее решения существует несколько методов.

В обычных центрах при увеличении плотности мощности поток воздуха через потолочную вентиляционную камеру возрастает, и фундаментальные предположения о функционировании общей системы вентиляции нарушаются. Воздушный поток через отдельную панель может даже изменить направление на противоположное, затягиваясь под пол. Таким образом, при возрастании плотности мощности, особенно в условиях отказа отдельных блоков, работа системы охлаждения становится менее предсказуемой. По этой причине расположение оборудования приходится рассчитывать с помощью методов численного моделирования для выявления избыточных мощностей. Концепцию непрерывного охлаждения также трудно реализовать в среде с высокой плотностью мощности. Система охлаждения типового информационного центра может получать резервное питание от автономного генератора, а не от системы бесперебойного питания.

Существует несколько подходов к обеспечению питания и охлаждения стоек и модульных серверов с высокой плотностью мощности. Однако традиционные технологии и принципы планировки информационных центров, как правило, не в состоянии обеспечить охлаждение для оборудования с высокой плотностью мощности из-за ограничений систем подачи и отвода воздуха, а также из-за проблемы поддержания достаточной избыточности и непрерывности охлаждения во время включения генератора. Тем не менее имеющиеся решения позволяют эффективно размещать вычислительное оборудование с высокой плотностью мощности в условиях обычных центров за счет внедрения охлаждающих систем, введения правил, регулирующих заимствование соседних невостребованных мощностей охлаждения и, наконец, распределения нагрузки между несколькими корпусами. В том случае, когда планируется установить много корпусов с высокой плотностью мощности и оборудование не удается распределить по разным стойкам, единственная возможность — создание необходимых мощностей охлаждения для всех стоек.

Специалисты компании APC (http://www.apc.com) оценивают энергетическую эффективность ЦОД как отношение мощности, затрачиваемой на обработку данных, к общей потребляемой мощности. Если применить эту формулу к ныне действующим вычислительным центрам, то их эффективность окажется на уровне 30%. Впрочем, инженеры APC дают несколько рекомендаций, как улучшить этот показатель до 70% и более. Правда, большую их часть сложно реализовать в уже существующих вычислительных центрах. Согласно результатам исследований компании, наибольший вклад в дело экономии электроэнергии (до 35%) может внести применение модульных систем электропитания и охлаждения, возможности которых адекватны используемым ИТ-ресурсам. На втором месте (экономический эффект 10—30%) находится технология виртуализации серверов, которая позволяет эффективнее задействовать вычислительные мощности, не слишком увеличивая потребление электроэнергии и выделение тепла. Кроме того, предлагается на этапе проектирования вычислительных центров привлечь специалистов, способных смоделировать воздушные потоки в серверном зале и дать рекомендации по оптимальному расположению оборудования в зависимости от его назначения и уровня выделяемого тепла. Обоснованность такого подхода иллюстрирует следующий пример: у одного из клиентов APC неверно рассчитанное расположение стоек вводило систему воздушного охлаждения в режим, когда она подавала к серверам только что вышедший из них горячий воздух. Математическое моделирование температурной карты помещения серверного зала позволит избежать описанной ситуации и многих других. Экономический эффект от грамотной организации воздушных потоков может достигать 10%, а порой и более. Но не следует забывать, что даже столь очевидные меры, как использование энергосберегающих ламп и полное отключение освещения при отсутствии в серверном зале обслуживающего персонала, способны дать около 2% экономии. Столько же принесет неплотная установка серверов в стойке, что актуально для ЦОД, построенных несколько лет назад.

Архитектура InfraStruXure

APC InfraStruXure представляет собой интегрированную архитектуру электропитания и кондиционирования, оптимизированную для размещения оборудования в стойках. Это новаторское решение, объединяющее средства защиты электропитания, прецизионного кондиционирования, управления и сервисного обслуживания, обеспечивает системный подход к построению инфраструктуры ЦОД. Кроме того, такой конструктивный подход повышает уровень готовности, обеспечивает улучшенную адаптивность, ускоряет развертывание и снижает полную стоимость владения. Его применение дает возможность сократить расходы, связанные с созданием и эксплуатацией систем кондиционирования и защиты электропитания, за счет следующих преимуществ:

  • InfraStruXure помогает избежать ошибок на этапе проектирования;
  • процесс инсталляции системы максимально прост и не требует больших затрат времени;
  • возможно поэтапное внедрение архитектуры по мере роста потребностей;
  • решение гарантирует совместимость всех компонентов архитектуры, простоту эксплуатации, контроля и обслуживания, а также высокий уровень готовности всей системы.

Сервисы с использованием ПО

Management Platform Integration — это результат интеграции ИБП компании APC с лучшими средствами администрирования серверов и корпоративных вычислительных систем. Предлагаемые APC компоненты интеграции с независимыми платформами управления обеспечивают контроль функционирования, диагностику неисправностей и профилактическое обслуживание. Благодаря этому можно управлять инфраструктурой электропитания компьютерного оборудования из уже имеющихся систем администрирования сетей и серверов. Сочетание компонентов интеграции от APC с ведущими платформами администрирования повышает уровень готовности сети благодаря отображению информации об ИБП в составе интуитивно ясного представления и выполнения всех функций диагностики и управления с одного экрана.

Таким образом, APC InfraStruXure — это всеобъемлющая стратегия построения компьютерного центра, включающая такие элементы, как непрерывность электропитания, его распределение, защищенная среда и интегрированные средства управления. Выбор надежного источника бесперебойного питания — один из первых стратегических шагов для обеспечения готовности систем. APC предлагает следующие решения: широкий спектр ИБП (от одиночных устройств мощностью 300 В.А до параллельных систем с резервированием мощностью 1 МВт); ПО для корректного завершения работы приложений и серверов, позволяющее максимально сократить потери и время повторного запуска систем; возможность управления ИБП по сети.

Первоначально АРС разработала три базовых варианта архитектуры InfraStruXure, каждая из которых оснащена инструментом управления Enterprise Manager. Первый, Type А, предназначен для обслуживания небольших информационных систем с числом стоек 1—3 или 3—10; в первом случае в качестве системы резервного питания применяются обычные ИБП Smart-UPS RM, которые укладываются в нижней части шкафа, а во втором — более мощное решение Symmetra RM.

Стандартный шкаф для 1—3 стоек содержит блок распределения питания (PDU), монтируемый в стойку, блок мониторинга состояния внутренней среды, желоба для кабелей питания и передачи данных, а также карту сетевого управления. За рекомбинацию холодного воздуха отвечает блок откачки воздуха с продуманной системой воздушных патрубков. Кроме того, в системе имеются достаточно удобные кабельные лестницы, дающие возможность развести кабели по местам, не перекрывая потоки воздуха.

В резервно-контрольном блоке InfraStruXure Type A для 3—10 стоек используется более сложная система рекомбинации холодных потоков воздуха на базе кондиционера NetworkAIR PA, способного поддерживать стабильную внутреннюю температуру даже при достаточно сильных колебаниях внешней. Для управления системой контроля существует карта сетевого управления, которая комплектуется управляющим ПО.

Второй тип систем InfraStruXure, Type В, предназначен для более сложных информационных систем с количеством стоек от 10 до 100. Если систему на базе InfraStruXure Type A можно собрать самостоятельно, с учетом индивидуальных требований пользовательской группы, то для подготовки работы InfraStruXure Type В обязательно пригласить специалистов компании-интегратора. Это связано с тем, что система достаточно сложна и имеет ряд функций, настройка которых под силу только профессионалам.

Как и в предыдущем случае, тип В архитектуры InfraStruXure делится на два подтипа, ориентированные на число стоек от 10 до 60 и от 60 до 100.

В первом варианте используются ИБП типа Symmetra RM, уже давно ставшие базовым решением для многих корпоративных ИС. В этом случае мощность системы можно наращивать просто установкой дополнительных модулей ИБП. За распределение энергопотоков электрической системы в данном решении отвечает блок распределения питания (PDU) мощностью 40 кВт. Кроме того, система содержит стандартные стоечные шкафы NetShelter VX, в комплект которых входит блок мониторинга состояния среды, желоба для кабелей питания и передачи данных, а также кабельные лестницы.

Система поддержания внутренней температуры представляет особый интерес, так как базируется на кондиционере NetworkAIR FM и блоке откачки воздуха со сложной системой патрубков одновременно. Это повышает надежность системы не только за счет дублирования функций, но и за счет их эффективного комбинирования.

Комплекс InfraStruXure Type В, рассчитанный на обслуживание 60—100 стоек, — еще более сложное решение. Вместо массива электропитания Symmetra PX 40 кВт в нем задействован аналогичный комплекс мощностью 80 кВт. Им управляет несколько блоков распределения питания (PDU) 80 кВт. Важный элемент системы InfraStruXure Type В — наличие удаленного распределительного щита.

Система поддержания микроклимата в InfraStruXure Type В (60—100) такая же, как в предыдущем комплексе, за исключением того, что составных частей и дублирующих друг друга систем в ней в два раза больше. Структурная ее особенность состоит в том, что система воздушных каналов размещена под покрытием пола серверной комнаты. Холодный воздух при помощи кондиционера NetworkAIR FM закачивается в «подпольную» систему каналов и распространяется по шкафам снизу вверх. Такое решение следует признать весьма эффективным.

Комплекс InfraStruXure Type С рассчитан на обслуживание 100 стоек и выше. Впрочем, за счет использованных в нем конструктивных решений количество обслуживаемой компьютерной техники можно несколько увеличить. Основное отличие этого комплекса от предшествующих в том, что его можно устанавливать в помещении не только со стандартной, но и с уменьшенной высотой потолков, например, на чердаках или в подвалах старого типа. Как и в предыдущем решении, холодный воздух к компонентам системы подводится через подпольную систему воздушных каналов, а горячий — через специализированные воздушные патрубки, расположенные на шкафах. Это, собственно, и позволяет устанавливать резервно-контрольный комплекс InfraStruXure Type С в любых помещениях.

Учитывая тенденцию к большей компактности оборудования и объединению серверов, охлаждение нужных участков ИТ-среды превращается в серьезную проблему, особенно в случае новых сверхтонких серверов, которые при максимальном заполнении одной стойки могут потреблять мощность 15 кВт и более. Когда на каждый 1 Вт потребляемой мощности компьютерного оборудования требуется 1 Вт мощности охлаждения, рекомендуются специальные решения APC.

APC InfraStruXure High-Density — это новая система, обеспечивающая до 20 кВт мощности электропитания и охлаждения на один шкаф. Закрытый коридор для отвода горячего воздуха позволяет менять интенсивность охлаждения без изменения конфигурации и изолировать области повышенной температуры в пределах центра хранения и обработки данных. Канал для отвода горячего воздуха также позволяет применять более теплый рециркулированный воздух для повышения эффективности кондиционера и отводить горячий воздух от оборудования в шкафах без влияния на температуру в помещении; его установка выполняется быстро и не требует перепланировки машинного зала.

Модульные центры обработки данных

Компании APC и IBM (http://www.ibm.com) в феврале текущего года приступили к совместной разработке «готовых» ЦОД для предприятий малого и среднего бизнеса. Решение адресовано компаниям, нуждающимся в центрах площадью от 50 до 100 кв. м. Специалисты IBM конфигурируют серверы и другие системы в расчете на работу с оборудованием APC In-Row InfraStruXure, обеспечивающим питание и охлаждение стоек, не требуя установки фальшполов. Совместное предложение двух компаний получило наименование Scalable Modular Data Center.

Решение для небольших ЦОД

Летом прошлого года АРС объявила об интеграции архитектуры APC InfraStruXure со своим новым ИБП Smart-UPS VT, поддерживающим функцию горячей замены батарей и обеспечивающим точную регулировку напряжения. Новое решение снижает полную стоимость владения ЦОД за счет сокращения занимаемой площади и уменьшения затрат на установку, функционирование и масштабирование. Данная модификация адаптивной инженерной инфраструктуры представляет собой полностью укомплектованную систему обеспечения непрерывности бизнеса. В решение вошло несколько усовершенствований: единая стойка для оптимального использования площади, новые разводки питания для упрощения процедуры установки и масштабирования, высокая производительность, обеспечивающая снижение операционных затрат. Кроме того, система допускает неограниченное увеличение продолжительности работы за счет подключения дополнительных батарейных блоков.

Подобная конфигурация InfraStruXure оснащена компонентами быстрого подключения. Кроме того, за счет использования стандартных модульных компонентов и масштабируемости архитектуры InfraStruXure, интегрированной с Smart-UPS VT, пользователи могут свободно расширять систему. Это достигается при помощи инновационных систем внутрирядного кондиционирования, централизованного управления и безопасности решения. Данные решения доступны в модификациях 30 кВ.А и 40 кВ.А на напряжение 400 В.

Топ-менеджеры APC особо подчеркивают, что интеграция легендарной линейки ИБП Smart-UPS с архитектурой InfraStruXure предоставляет заказчикам компании доступные и гибкие решения для ИТ-сред. Высокая энергетическая плотность системы, ее компактность и модульное построение оптимальны для любых приложений, в том числе высокой энергетической плотности, а также для приложений IP-телефонии.

Кондиционирование серверных комнат

Для охлаждения оборудования в коммутационных и серверных комнатах традиционно устанавливались системы кондиционирования, встроенные в вытяжку. Однако по мере увеличения энергетической плотности сетевых коммутаторов, серверов и прочего ИТ-оборудования потребовался новый подход к обеспечению охлаждения и кондиционирования. Компания АРС предлагает на рынке свое новое решение для кондиционирования воздуха АРС InfraStruXure InRow SC, встраиваемое в ряд стоек с оборудованием в коммутационных и серверных комнатах.

Устройство InRow SC оформлено в 300-мм форм-факторе (стойка половинной ширины) и способно отвести до 7 кВт тепла, располагаясь рядом с его источником. Такой быстрый теплоотвод при размещении решения в непосредственной близости от оборудования гораздо эффективнее, чем установка более мощного вентилятора в вытяжной системе. Особенность InRow SC — быстрое подключение к существующим системам вентиляции здания. Таким образом, нет необходимости прокладывать линии для теплоносителя, устанавливать удаленные теплообменники, не требуется дополнительное техническое обслуживание. Известно, что оборудование для небольших комнат и коммутационных шкафов, построенное на технологиях VoIP и Ethernet, характеризуется повышенным тепловыделением. Специалисты APC говорят, что устройство InRow SC — это решение для кондиционирования, помогающее решить проблему теплоотвода в коммутационных и серверных комнатах небольшого размера.

Среди преимуществ устройства InRow SC отметим следующие. Система проста в администрировании благодаря интегрированным средствам управления сетью (Web-интерфейс, SMNP и Telnet) и оперативному предоставлению уведомлений о прогнозируемых сбоях в работе. Запатентованная система управления измеряет охлаждающую способность и выводит данные на дисплей, что позволяет управлять системой в режиме реального времени. Контроль за нагрузкой и использование вентиляторов с регулируемой скоростью вращения устройства InRow SC снижают потребление энергии в периоды непикового охлаждения. Система автоматического перезапуска в случае отключения электропитания увеличивает возможности бесперебойной работы системы, а поддержка горячей замены блоков вентилятора сокращает время на восстановление после сбоев. И наконец, модульная конструкция обеспечивает масштабируемость решения, позволяя добавлять охлаждающие блоки по мере необходимости, а простота установки сокращает затраты времени и средств на размещение нового устройства.

APC совершенствует InfraStruXure

Компания АРС выпустила новый блок кондиционирования InfraStruXure InRow RP для центров обработки данных. По данным компании, он обеспечивает предсказуемое и динамически регулируемое охлаждение оборудования высокой плотности с мощностью до 70 кВт на стойку при использовании с системами изоляции «горячего коридора» и до 37 кВт — с хладагентом. Как и все кондиционеры линейки InRow, новое устройство размещается в рядах стоек рядом с источниками тепла, предотвращая повторное попадание выброшенного горячего воздуха в компьютерное оборудование.

APC предлагает две модификации кондиционеров InRow RP — с водяным охлаждением и с хладагентом. Конструкция устройств InRow RP с переменной скоростью вращения вентиляторов и автоматической регулировкой интенсивности воздушного потока снижает общую стоимость владения ЦОД за счет уменьшения энергопотребления в периоды пониженной потребности в охлаждении, контроля температуры воздуха на входе оборудования и регулировки мощности в зависимости от тепловой нагрузки.

Программа Blade Ready

По прогнозам исследовательской компании IDC, к 2009 г. доля поставок блейд-серверов в мировом объеме серверных устройств составит 25%, а за период с 2005 по 2009 гг. этот показатель будет расти со скоростью 54% в год. Вместе с тем внедрение подобных решений становится сложной технической задачей. Дело в том, что при потреблении энергии более 3000 Вт на стойку часто происходит перегрев отдельных участков ЦОД, а это требует новых подходов к системам кондиционирования. Именно поэтому еще в прошлом году АРС объявила о запуске программы Blade Ready. Эта инициатива компании предполагает эффективный мультивендорный подход к проектированию и внедрению таких приложений высокой энергетической плотности, как модульные серверы. Участниками программы стали стратегические партнеры APC — разработчики лучшего в своем классе аппаратного и программного обеспечения, позволяющего достичь максимальной производительности и совместимости сред с такими серверами.

Программа Blade Ready направлена на сосредоточение максимально широкого спектра ресурсов у одного поставщика. Первым шагом на пути к решению соответствующих технических задач стал сервис АРС по оценке готовности к переходу на модульные серверы — Blade Readiness Assessment Service. Стоит также отметить, что эта инициатива открывает доступ ко всем необходимым документам, таким, как инструкции по развитию инфраструктуры, расчеты совокупной стоимости владения и т. д. Благодаря всему этому продукты с логотипом Blade Ready позволят предприятиям оптимальным образом проектировать модульные серверы, обеспечивая их снабжение, установку и взаимодействие с сопутствующим оборудованием.

Руководство APC уже сегодня с уверенностью утверждает, что директора информационных служб осознали эффективность экономии офисного пространства и грамотной эксплуатации оборудования. В то же время высокая энергетическая плотность сред приводит к потреблению энергии и выделению тепла в значительно больших, чем раньше, объемах. В программе Blade Ready компании удалось сосредоточить различные экспертные ресурсы, помогающие ИТ-специалистам успешно внедрять модульные серверы. Со своей стороны, APC устанавливает в этой программе стандарты стабильного электроснабжения и распределения энергии, инновационных систем кондиционирования и сопутствующих инфраструктурных разработок, входящих в архитектуру InfraStruXure. Кроме того, ее неотъемлемой частью становится один из продуктов входящего в APC подразделения NetBotz — платформа управления безопасностью с возможностями видеонаблюдения и контроля окружающей среды. Это позволяет устранять опасные ситуации прежде, чем они приведут к аварии.

Защита от несанкционированного доступа

NetBotz Access Control (APC Rack Access PX) — это сетевое устройство, обеспечивающее авторизацию удаленных или локальных пользователей стоечных шкафов NetShelter SX. Новый продукт компании APC Rack Access PX защищает стоечные шкафы NetShelter SX от несанкционированного доступа пользователей. Данное устройство обеспечивает безопасность доступа к стойке и возможность сетевого управления с помощью электронных пластиковых карточек. Тем самым доступ ограничивается только санкционированными пользователями. Кроме того, Rack Access PX может создавать файл регистрации сетевых событий с точностью «до секунды» и перераспределять время для запланированного технического обслуживания. Продукт Rack Access PX — часть семейства сетевых устройств NetBotz, предназначенных для ИТ-стоек, а также для удаленных, не укомплектованных ИТ-персоналом офисов или небольших ИТ-отделов.

Эксперты отмечают, что появление на рынке архитектуры InfraStruXure для сред высокой плотности означает, что APC продолжает предлагать инновационные пути создания инфраструктуры ЦОД высокой плотности. Программа Blade Ready дает предприятиям возможность опираться на опыт самой компании и использовать преимущества международных альянсов APC, что, в свою очередь, позволяет размещать модульные серверы с использованием самых передовых подходов и средств.

[Фото]

Решение APC InfraStruXure для сред высокой плотности.

Безопасность банковских сервисов

Активное продвижение системы InfraStruXure на рынке вызвано растущими требованиями заказчиков к оснащению серверных комнат и центров обработки данных. Традиционные методы создания инженерной инфраструктуры таких помещений уже устарели. Так, специалисты полагают, что прежние решения не обеспечивают масштабирования, а их надежность оставляет желать лучшего. Кроме того, из-за использования разрозненных решений может расти число ошибок персонала. Все это негативно сказывается на отказоустойчивости информационной системы и сети связи в целом. Таким образом, внедрение InfraStruXure способствует дальнейшему повышению готовности ответственных участков и сокращению расходов на их построение и эксплуатацию благодаря объединению средств электропитания и кондиционирования, размещению оборудования в интегрированной, открытой и адаптируемой системе.

Например, в прошлом году «ПриватБанк», один из крупнейших украинских банков, создал современный ЦОД на основе адаптивной инженерной инфраструктуры APC InfraStruXure. Стоит отметить, что национальная сеть банковского обслуживания «ПриватБанка» включает более 2 тыс. филиалов и отделений по всей Украине, свыше 3 тыс. банкоматов. Банк занимает 36% украинского рынка пластиковых карт (выпущено более миллиона карт) и обслуживает свыше 400 тыс. счетов юридических лиц и предпринимателей.

Для построения ЦОД «ПриватБанка» было принято решение использовать масштабируемую инженерную инфраструктуру APC InfraStruXure типа B, в состав которой входит система бесперебойного питания Symmetra PX, система кондиционирования APC NetworkAIR IR, шкафы для серверного оборудования, средства мониторинга физической среды, система управления. Напомним, что очень высокая масштабируемость этого решения позволяет легко наращивать мощность системы и быстро адаптировать ее к изменяющимся параметрам ЦОД. В конфигурации архитектуры для «ПриватБанка» использована модульная система бесперебойного питания Symmetra PX мощностью 60 кВт с резервированием N+1 и возможностью расширения до 80 кВт, а также интеллектуальные блоки распределения питания с удаленным мониторингом входных и выходных параметров электросети. Кроме того, в ЦОД установлен сервер управления InfraStruXure Manager, позволяющий вести централизованный мониторинг и управление всеми компонентами InfraStruXure, объединенными в единое IP-адресное пространство, закрытое от внешнего доступа. ИБП Symmetra PX имеет самую высокую энергетическую плотность на современном рынке ИБП. Интеллектуальные модульные компоненты Symmetra PX предусматривают горячую замену, обслуживание без остановки системы и без переключения в обходной режим. Для повышения общего уровня эксплуатационной готовности служит система мониторинга физической среды, позволяющая заблаговременно обнаружить и предупредить угрозы, в том числе связанные с человеческим фактором. Кроме того, архитектура InfraStruXure предусматривает возможность увеличить продолжительность автономной работы за счет простого добавления аккумуляторных батарей.

Мнение эксперта

Максим Ковалев,
начальник Отдела вычислительных систем, компания Inline Technologies (http://www.in-line.ru)

По опыту компании Inline Technologies можно сказать, что заказчики проявляют возрастающий интерес к комплексным решениям для электропитания и кондиционирования на базе продуктов APC InfraStruXure. Inline Technologies предлагает эти решения практически во всех проектах, где требуется обеспечить электропитание и охлаждение серверных помещений с количеством стоек три и более.

В числе основных преимуществ решений на базе продуктов APC InfraStruXure можно назвать гибкость и масштабируемость. Эти решения хорошо адаптируются к текущим потребностям заказчика и могут наращиваться по мере роста этих потребностей. Возможность установки средств мониторинга температуры и влажности в таких решениях уменьшает количество незапланированных простоев вычислительных комплексов и сокращает накладные расходы на поддержание инфраструктуры. Благодаря системе уведомления о критических событиях удается оперативно реагировать на внештатные ситуации, не допуская потери важных данных. В удобных монтажных шкафах легко устанавливать новое оборудование. При этом возможность правильной разводки силовых и информационных линий в монтажных шкафах позволяет монтировать новое оборудование без риска негативного воздействия на работу уже существующего. Следует отметить, что, по отзывам заказчиков, комплексные решения на базе продуктов APC InfraStruXure — одни из лучших на сегодня в мире.