Михаил Балкаров, технический эксперт Emerson Network Power

Идея размещать вычислительное оборудование в мобильном контейнере не нова. Собственно именно так и размещается большая часть оборудования для специальных применений — удаленные узлы операторов связи, станции контроля трубопроводов, разного рода временные решения. Это достаточно отработанные примеры, не вызывающие особых вопросов.

Любопытна именно нынешняя тенденция — использовать контейнеры как замену традиционных ЦОД среднего и даже большого размера. Список игроков непрерывно пополняется — Cisco и Microsoft, HP, IBM, Bull, Dell, Sun, SGI (бывшая Rackable Systems), Verari Systems.

Как заявляют сами производители, выпуск контейнеров мера в чем-то вынужденная. Дело в том, что на сегодня, имеющаяся массовая инфраструктура ЦОД в большинстве своем неадекватна современным серверным решениям. Сервера легко позволяют достичь 20 кВт энергопотребления и, соответственно, тепловыделения на стойку. А многие существующие центры в лучшем случае обеспечивают лишь 5 кВт.

Еще одна очевидная проблема, сложность точного расчета потребностей в современной быстро меняющейся рыночной обстановке, и в результате опасения чересчур «переразмерить» ЦОД, что означает напрасное омертвление значительного капитала. Традиционным решениям не хватает гибкости и модульности — возможности оплачивать только необходимые текущие потребности по мере их роста. Все производители заявляют что контейнеры позволит сэкономить капитальные затраты и эксплуатационные затраты.

Впрочем, снижение капитальных затрат рассчитано в основном именно за счет постепенности внедрения. А снижение эксплуатационных затрат, за счет декларированного PUE от 1,05 до 1,25. И то и другое соответственно далеко не всегда справедливо.

К очевидным минусам существующих МЦОД относится:

  • Высокая цена, кстати, по мере морального старения аппаратуры, возможно, придется выбрасывать не только сервера, но и весь контейнер, если используются нестандартные сервера и стойки.
  • Декларируемая возможность использовать оборудование сторонних производителей, зачастую имеет массу ограничений.
  • Неудобство обслуживания — выдвижные рампы или боковые двери.
  • Климатические ограничения, далеко не каждый контейнер выдержит −40С, а уж если при этом еще требуется открывать двери для доступа к серверам.

К плюсам МЦОД можно отнести:

  • Изначально грамотно выполненная система охлаждения. Не возникнет проблем ни с плотностью мощности на стойку, ни с локальным перегревом, ни с избыточным энергопотреблением вентиляторов.
  • Очевидная ориентация на современные тенденции развития области — виртуализацию и облачные вычисления.
  • Малая площадь — только не за счет модульности, а за счет высокой плотности оборудования.
  • Определенный уровень мобильности — возможность перемещений без существенной потери капиталовложений.

Ну и как окончательный вывод — МЦОД это решение вполне находящее свою нишу.

Компания Emerson Network Power, в которой я работаю, недавно представила свое видение модульного ЦОД. В предложенной линейке моделей применены наиболее прогрессивные разработки компании — компактный модульный ИБП APS мощностью до 150 кВт, внутрирядные кондиционеры CRV, система мониторинга и управления. Легко догадаться, что и остальная начинка, это собственная продукция компании, давно предлагающей законченные инфраструктурные решения от одного производителя. В настоящий момент доступны модели 100 кВт (8 стоек) и 30 кВт (10 стоек) — в контейнере длиной 12 метров, а также 30 кВт (4 стойки) в контейнере длиной 6 метров.

К уникальным особенностям решения относится использование контейнеров увеличенной до трех метров ширины. Это, ценой небольших неудобств при перевозке, позволило существенно улучшить условия работы внутри и применить стандартные стойки позволяющие монтаж любых серверов.

Подробнее с решением вы можете ознакомиться на специальном сайте www.datacenterinfrastructure.eu.

Перейти на главную страницу обзора