При модернизации центров обработки данных (ЦОД) все чаще в них устанавливается оборудование, характеризующееся более высокой плотностью компонентов и соответственно более высокой удельной мощностью. Допустим, что необходимо расширить вычислительные ресурсы дата-центра на 1024 процессорных ядра, которые можно получить, например, на 256 четырехъядерных процессорах. Возникает вопрос, что предпочесть в этом случае: блейд-серверы (высокая плотность) или тонкие стоечные серверы высотой 1U (низкая плотность).

Возьмем для начала шасси HP c7000 BladeSystem. В стандартную стойку высотой 42U можно установить до четырех шасси с7000, каждое из которых вмещает до 16 блейд-серверов HP ProLiant BL2x220c G5. При этом общее число процессоров Intel Xeon 5400 на шасси достигает 64. Таким образом, на одну стойку приходится 256 четырехъядерных процессоров (1024 процессорных ядра). По данным НР, одно шасси потребляет в пределе 6х2400 = 14400 Вт. Следовательно, при четырех шасси в одной стойке необходима мощность 4х14400 Вт = 57,6 кВт.

Теперь оценим требуемую мощность для тонких стоечных серверов. Остановимся на устройствах того же производителя. Так, современный стоечный сервер DL160 G5 высотой 1U базируется на одном четырехъядерном процессоре Intel Xeon 5400. Нетрудно подсчитать, что общая высота в монтажных единицах для 1024 ядер должна быть 256 U. Иными словами, для размещения такого количества тонких серверов потребуется шесть стоек (каждая высотой 42U). Потребляемая мощность одного сервера DL160 G5, по данным HP, составляет 650 Вт. Нетрудно подсчитать, что общее энергопотребление в этом случае достигнет 256х650 Вт = 166,4 КВт.

Таким образом, кажется очевидным, что использовать оборудование с высоким уровнем удельной мощности в ЦОД более выгодно. Но есть и одно «но», которое эксперты из компании Transitional Data Services назвали «парадоксом удельной мощности». Понятно, что в условиях ограниченного пространства многие компании переходят на оборудование с высокой плотностью, пытаясь тем самым избежать дорогостоящего переезда в более вместительный ЦОД. Однако все это работает до определенного времени. При появлении все большего количества компактного оборудования (которое, заметим, требует дополнительной мощности, охлаждения и других услуг) наступает момент, когда общая потребность в свободных площадях в дата-центре не снижается, а наоборот, начинает расти. Все это может привести к довольно значительным капитальным и операционным расходам, а не к экономии, на которую рассчитывали. Таким образом, основная проблема – найти баланс между плотностью серверов и другого оборудования в ЦОД с доступными ресурсами по мощности, охлаждению и площади.

Эксперты отмечают, что парадокс удельной мощности связан с развитием современных технологий серверов и систем хранения. Так, в середине 1990 гг. миникомпьютеры типа IBM AS/400 (и сегодня успешно работающие для бизнеса уже под именем System i) стали заменять серверами, которые занимали в стойке 3–5U по высоте. Плотность оборудования к тому времени возросла более чем в 10 раз. К 2000 г. стоечные серверы сжались до размеров коробки из-под пиццы и стали занимать по высоте всего 1U. В 2002 г. им на замену начали приходить уже блейд-серверы, где один модуль-«лезвие» содержал собственный процессор, память, устройства ввода-вывода, а часто и жесткий диск.

С увеличением количества процессоров в заданном пространстве требуется больше мощностей для их функционирования и охлаждения. Увеличение плотности оборудования связано с возрастанием риска перегрева системы и возникновения ошибок и сбоев. Кроме того, более плотное оборудование довольно чувствительно к требованиям по мощности и охлаждению. Например, для миникомпьютеров или серверов, занимающих в стойке 3–5U, было достаточно удельной мощности 60–100 Вт/кв. фут. Та же площадь, занятая тонкими стоечными серверами 1U, требует уже как минимум 200 Вт/кв. фут. А вот для современных блейд-серверов часто необходимо обеспечить удельную мощность до 400 Вт/кв. фут.

Каждый дополнительный ватт, потребляемый оборудованием, должен возмещаться эквивалентным охлаждением. Однако не секрет, что многие ЦОД спроектированы так, что не могут справиться с охлаждением современного оборудования с большей плотностью: например, подвесной потолок слишком низок и препятствует отводу потоков тепла от стоек, или под фальшполом недостаточно места для свободной циркуляции холодного воздуха, или кондиционеры CRAC (Computer Room Air Conditioning) не справляются с эффективным охлаждением стоек и серверов.

Парадокс удельной мощности связан именно с необходимостью привлечения большой мощности и охлаждения на единицу площади. На рис. 1. показаны три варианта размещения стоек оборудования с разной удельной мощностью (5, 10 и 20 кВт) в дата-центре площадью 2 тыс. кв. футов, рассчитанном на общую мощность 200 кВт (удельная мощность 100 Вт/кв. фут). Отметим также, что в старых дата-центрах высота фальшпола составляет 12–18 дюймов (это пространство также используется для прокладки сетевых и электрических силовых кабелей), в то время как в современных ЦОД его высота доходит уже до 36 дюймов. Из графика на рис. 2 видно, что при увеличении удельной мощности серверов до 400 Вт/кв. фут требуемая для них площадь снижается не так существенно, в то время как площадь, занимаемая дополнительным оборудованием (генератор, источники бесперебойного питания, кондиционеры), возрастает в разы. Отсюда можно сделать следующий вывод: путем простой установки более плотных серверов – при невозможности обеспечить дополнительную площадь под обеспечивающее оборудование – ЦОД не масштабируется.