Как происходит охлаждение данного дата центра кратко

Обновлено: 04.07.2024

Дата-центры и комфортное охлаждение

На первый взгляд, кажется, что системы охлаждения ЦОД не должны существенно отличаться от систем, используемых для охлаждения коммерческих зданий. В данном материале приведено краткое описание ряда ключевых особенностей, в силу которых охлаждение ЦОД требует совершенно иного подхода.

Содержание статьи:

К особенностям ЦОД и применяемых в них систем охлаждения относятся, в частности, следующие факторы:

  • Внутренний состав здания.Дата-центры строятся не для людей. Поэтому, нагрузка, связанная с устанавливаемым внутри здания оборудованием, существенно отличается от нагрузки, наблюдаемой в большинстве коммерческих зданий.
  • Частота модернизации ЦОД (период обновления технологии). Частота модернизации дата-центров зачастую превышает соответствующие показатели для большей части коммерческих зданий. Связанное с модернизацией изменение нагрузки на системы вентиляции и кондиционирования еще более существенно увеличивает этот разрыв.
  • Удельная мощность оборудования ЦОД. Типичным показателем для дата-центров является величина 500-2000Вт/м 2 ; для некоторых ЦОД удельная мощность оборудования составляет 10000Вт/м 2 .
  • Конструкция системы охлаждения ЦОД. Рабочий принцип системы охлаждения и среда, используемая для передачи тепла, могут существенно отличаться в сравнении с системами комфортного охлаждения для коммерческих зданий. Более того, работа под высокой нагрузкой 365 дней в году полностью меняет требования к архитектуре системы.

Рассмотрим эти пункты подробнее.

Внутренний состав здания и частота модернизации

В коммерческом секторе традиционно применяется термин FF&E (мебель, приборы и оборудование). FF&E не относятся к внутреннему составу здания; основной компонентой внутреннего состава, как правило, считаются люди. В коммерческих зданиях компьютеры и прочее ИТ-оборудование попадает под категорию FF&E (им соответствует нагрузка, потребляемая электроприборами).

В дата-центре компьютеры зачастую относят к внутреннему составу здания, поскольку здание строится именно для них. Однако, более правильно будет сказать, что основным фактором, влияющим на проектирование здания, является программное обеспечение, запускаемое на этих компьютерах. Поэтому, программное обеспечение мы будет относить к составу здания, а аппаратное обеспечение попадет в категорию FF&E. Потребляемая электроприборами нагрузка может изменяться, как функция от программного обеспечения (тип ПО, профили использования, конфигурация и т.д.).

Программное обеспечение подвержено регулярным обновлениям и изменениям. К примеру, за последние 12 лет было выпущено 5 версий ОС Windows (таким образом, средний срок службы составляет 2,5 года, и это относится к операционной системе – базовому типу программного обеспечения). В случае пользовательских приложений, обновления происходят гораздо чаще (за последние 19 лет было выпущено 10 версий Adobe Acrobat – новая версия каждые 1,9 года).

Высокая частота обновления ПО является причиной частых изменений внутреннего состава дата-центра. Связанный с этим эффект заключается в том, что каждое изменение в составе ПО приводит к изменению системных требований (как правило, в сторону увеличения), что в свою очередь меняет требования к системам электроснабжения и охлаждения ЦОД.

Изменения в составе аппаратного обеспечения, как правило, происходят реже в сравнении с программным обеспечением. Однако, параллельное обновление нескольких программных продуктов приводит к необходимости выполнения модернизации оборудования, так что это процесс также происходит сравнительно часто (период модернизации составляет, как правило, от 3 до 5 лет).

Согласно закону Мура, производительность аппаратного обеспечения удваивается каждые 1,5 года. В результате, выполнение модернизации каждые 3-5 лет приводит к большим скачкам в производительности вычислительного оборудования, что сопровождается ростом величины удельной производительности, но вместе с тем растет и удельная мощность (Вт/м 2 ). Таким образом, дата-центр зачастую нуждается в использовании систем охлаждения и энергоснабжения, которые позволяют быстро приспосабливаться к изменениям в уровне нагрузки, происходящим достаточно часто.

Поскольку тип используемого программного обеспечения и его конфигурация, а также стратегии по обновлению аппаратного обеспечения существенно меняются в зависимости от ЦОД, требования к системам охлаждения и электроснабжения могут изменяться аналогичным образом.

Тенденции в области систем охлаждения и электроснабжения ЦОД

Несмотря на продолжающийся рост удельной мощности, отношение вида плотность/производительность (закон Мура) продолжает расти с еще более высокой скоростью, что приводит к улучшению показателя энергопотребление/производительность (закон Куми). До тех пор, пока наблюдается рост величины производительность/ватт, связанный с повышением удельной мощности, вероятно, будет расти спрос на ресурсоемкие приложения.

Многие системы охлаждения рассчитаны на 15-25 лет работы. Это может означать, что устанавливаемые и проектируемые сегодня системы охлаждения могут застать от трех до пяти поколений ИТ-оборудования (к примеру, серверов). Поэтому, в ходе разработки систем охлаждения необходимо учитывать не только требования, предъявляемые текущим поколением оборудования, но также потенциальные требования будущих поколений аппаратного обеспечения. Рост нагрузки, ступенчатое изменение уровня нагрузки, связанное с требованиями ИТ-оборудования или модернизацией используемых технологий, а также профили нагрузки, зависящие от используемого ПО, могут существенно отличаться для различных ЦОД.

  • Сервераvolume. Наиболее часто используемый тип серверов. Как правило, это одно- или двухъядерная система размером 1U или 2U в форм-факторе pedestal или blade.
  • Blade-сервер. Модульная печатная плата, содержащая 1, 2 или более микропроцессоров и оперативную память. Предназначена для использования в выделенных серверах, может быть легко вставлена в соответствующую стойку. Blade-серверы, объединяемые общей высокоскоростной шиной данных, разрабатываются с учетом пониженного тепловыделения, что позволяет экономить электроэнергию.
  • Сокет (для процессора). Разъем на материнской плате (также называемый CPU сокет), предназначенный для установки CPU и предоставляющий электронный интерфейс для взаимодействия с CPU.
  • Стойка (Rack). Каркас, предназначенный для установки электрооборудования. Стойка, как правило, представляет собой закрытый кабинет, в котором находится вычислительное оборудование. Передняя и задняя панели могут быть сплошными, перфорированными или открытыми, в зависимости от требований охлаждаемого оборудования. В индустрии телекоммуникаций стойка, обычно, представляет собой две вертикальных балки, прикрепленных к полу, и набор открытых полок, на которых размещается электрооборудование. Такая стойка, как правило, является полностью открытой.
  • Стоечный модуль (Rackunit). Высота стоечного сервера, измеряемая в количестве модулей: 1RU, или просто U, соответствует 44,45 мм.

Важно помнить, что указанные в книге данные (таблица 1) определяют максимальное тепловыделение оборудования определенной категории (к примеру, тепловыделение полностью собранной системы, работающей при максимальной нагрузке). Это значит, что взятые из книги значения необходимо приводить в соответствие с требованиями и бизнес-стратегией для каждой отдельно взятой компании и для каждого отдельно взятого ЦОД.


Таблица 1. Тенденции энергопотребления для серверов сегмента volume.

К примеру, если текущая загрузка ИТ-оборудования ЦОД составляет около 75% от опубликованного в книге значения за 2012 год, вероятно, в будущем уровень загрузки составит те же 75% от прогнозируемого уровня. Дорожная карта может иметь следующий вид:

  • 2012 Прогнозируемое значение для сервера 1U с четырьмя процессорами составляет 1040 Вт/сервер.
  • 2012 Реальное значение для сервера 1U с четырьмя процессорами в вашем ЦОД составляет 800 Вт/сервер.
  • Уточняющий коэффициент будет равен 800/1040 = 0.77 (77%).
  • 2015 Прогнозируемое значение для сервера 1U с четырьмя процессорами составляет 1100 Вт/сервер.
  • 2015 Уточненное значение для сервера 1U с четырьмя процессорами в вашем ЦОД составит 0.77 * 1100 = 847 Вт/сервер.
  • 2020 Прогнозируемое значение для сервера 1U с четырьмя процессорами составляет 1200 Вт/сервер.
  • 2020 Уточненное значение для сервера 1U с четырьмя процессорами в вашем ЦОД составит 0.77 * 1200 = 924 Вт/сервер

Для некоторых ЦОД уточняющий коэффициент может меняться в зависимости от изменений в бизнес-стратегии, типа используемого ИТ-оборудования, способа установки оборудования в стойке, используемого программного обеспечения и т.д. Для каждой отдельно взятой компании необходимо производить уточнение указанных в книге значений, чтобы определить ожидаемый срок службы здания ЦОД и/или систем вентиляции и кондиционирования, обслуживающих электронное оборудование.

Заключение

Внутренний состав, частота выполнения модернизации и удельная мощность ЦОД существенно отличаются в сравнении с соответствующими показателями для коммерческих зданий. Если принять во внимание широкий спектр уникальных решений, используемых для охлаждения ЦОД, требования к режиму работы 365 дней в году в любой климатической зоне, а также сопутствующие факторы риска, становится понятной необходимость разработки специальных систем охлаждения для дата-центров.

Зачем охлаждать дата-центры

Всем знакомо ощущение, когда при скачивании тяжелого файла или запуске требовательной видеоигры ваш лэптоп начинает нагреваться. При работе серверов, которые, по сути, те же компьютеры, только мощнее, происходит то же самое. Современные машины работают круглосуточно, без выходных и праздничных дней, а учитывая их мощность, выделение тепла получается значительным. В серверах обычно не устанавливают локальные кулеры, поэтому охлаждение оборудования — это комплексное решение.

Традиционно считается, что рекомендуемая температура воздуха в машинных залах обозначена ASHRAE (Американским обществом инженеров по отоплению, охлаждению и кондиционированию воздуха) — на установленные значения ориентируются операторы дата-центров по всему миру. На сегодняшний день рекомендованная температура воздуха для охлаждения серверов составляет 20-27° C. Во многом это связано с развитием серверного оборудования: оно становится все более устойчивым к высоким температурам. Для сравнения, в начале 2000-х годов поддержание температуры на уровне 16-20° C было критичным.

Итак, как дата-центры могут охлаждать воздух? Рассмотрим варианты, которые наиболее востребованы среди отечественных операторов ЦОД.

Промышленные сплит-системы на фреоне

Минусы решения


Кроме того, фреон — неэкологичное решение. Во-первых, испарение этого газа в атмосферу увеличивает парниковый эффект. Во-вторых, любое превышение потребления электроэнергии или неэффективное ее использование косвенно влияет на дополнительный выброс углекислого газа в атмосферу. Подробнее об этом — в блоге Selectel на Хабре.

Системы чиллер-фанкойл

Это вариант охлаждения для компаний, которые хотят отойти от использования фреона внутри машинных залов и добавить промежуточный инертный теплоноситель. Основная особенность подхода состоит в том, что во внутренний блок системы кондиционирования в качестве хладоносителя используется незамерзающий (обычно гликолевый) раствор либо обычная вода. На крышах дата-центров устанавливают большие фреоновые холодильные машины (чиллеры), от которых идет магистральная кольцевая система трубопроводов. Она доставляет охлажденную воду во внутренние кондиционеры, где через теплообменники и вентиляторы этот холод подводится к серверным стойкам.

Недостатки решения

Система с большим количеством жидкости (для среднего дата-центра на 2-3 МВт IT-нагрузки это десятки тысяч кубических литров охлажденной воды) требует особого внимания и контроля протечек. Кроме того, в жаркие периоды приходится по-прежнему использовать фреоновый контур. Теперь он не требует постоянного электричества, так как в наших широтах работает не круглый год, но электрическую мощность под работу этой части холодильной машины все равно приходится резервировать. Вместо того, чтобы использовать это электричество для работы вычислительного оборудования.

Фрикулинг

Этот способ охлаждения очень популярен за рубежом и набирает обороты на российском рынке ЦОД. На данный момент это самая энергоэффективная система охлаждения. Основная ее особенность в том, что охлаждение оборудования происходит за счет обдува с помощью забортного воздуха (так называется обычный воздух с улицы). Он очищается от пыли, проходя через фильтры, и поступает в машинный зал.

Для охлаждения же забортного воздуха (если в столице или в Санкт-Петербурге случилась аномальная жара) можно использовать несколько технологий: фреоновый контур, абсорбционные холодильные машины (АБХМ) или адиабатическое охлаждение. Фреон, как мы описали ранее, требует электричества. АБХМ же работает на природном газе или другом горючем топливе.

Если с АБХМ все относительно ясно, так как это все еще полноценная холодильная машина, как и чиллер, — забортный воздух просто охлаждается в теплообменнике холодильной машины, то с адиабатической системой все немного хитрее. Это охлаждение — полная противоположность классическим системам кондиционирования. В последнем случае мы тратим энергию на осушение воздуха, ведь с помощью осушения мы его, по сути, и охлаждаем. Если говорить о адиабатическом охлаждении, то мы подаем сухой воздух на поверхность, смоченную водой. Когда воздух проходит сквозь мокрую поверхность, его влажность повышается, а температура, наоборот, понижается. В городах, где влажность воздуха составляет 20% и менее, эта система очень эффективно работает

Минусы решения

Нужно отдавать себе отчет, где именно вы строите свой дата-центр. Например, в Москве где при повышении температуры всегда сухо, — система работает практически идеально. А в Санкт-Петербурге, с его постоянно высокой влажностью, установки такой системы потребует более внимательно расчета и взвешивания всех факторов.

Еще один относительный минус фрикулинга — это размер необходимого оборудования. Вентустановки, забирающие воздух, — довольно крупные, в разы больше прецизионных кондиционеров. Если у вас многоэтажное здание и дата-центр, работающий на фрикулинге, находится не на первом этаже, установки придется размещать внутри здания. А значит, вы занимаете полезную площадь машинного зала, где можно было поставить не один десяток серверных стоек.

Заключение

Cистемы охлаждения в дата-центрах Selectel

Сейчас мы познакомим вас с технологиями климатических систем в дата-центрах Selectel и расскажем, каким образом новинки в этой сфере снижают операционные расходы дата-центров, а косвенно — и суммы в счетах наших клиентов.

3 рынка услуг — 3 требования к охлаждению

На рынке услуг ЦОД, — если оценивать грубо, — присутствуют три основных сегмента. Это во-первых, колокейшн, далее инфраструктура IaaS — выделенные серверы плюс облачное хранилище, и третий сегмент — облачные серверы (VPC, VPS, VMware Cloud), включая публичные, приватные и гибридные облака.

Диаграмма рынков

Каким бы удивительным это ни казалось, но клиенты каждого из сегментов предъявляют разные требования к климатическим системам. Наиболее требовательны клиенты, размещающие в дата-центре свое собственное оборудование (колокейшн). Среди них много IT-руководителей с многолетней практикой и консервативным представлением о том, какая температура должна быть в серверных залах. Еще 10-15 лет назад требование обеспечить +18°C в холодном коридоре было действительно критически важным. Но современные серверы и СХД стабильно работают до температуры +27°C.

Какой из этого можно сделать вывод для бизнеса дата-центра? Использовать дорогостоящее охлаждение с помощью кондиционеров следует преимущественно для серверных залов, выделенных под услугу колокейшн. Соответственно, для серверных залов под услуги IaaS и тем более для облачных серверов можно применять оборудование, которое максимально эффективно использует охлаждение за счет окружающей среды — вплоть до простого обдува серверов забортным воздухом.

При этом, поскольку Selectel владеет несколькими дата-центрами, причем в разных регионах, появляется свобода маневра. Иными словами, можно еще на стадии проектирования, строительства ЦОД и выбора климатического оборудования учитывать требования к охлаждению в выбранном сегменте услуг. И позже в процессе эксплуатации проводить модернизацию климатических систем с учетом снижения ТСО при предоставлении именно этих услуг.

Что такое PUE

Основным показателем эффективности ЦОД является коэффициент эффективности использования энергии (Power usage effectiveness, PUE), используемый в индустрии ЦОД с 2007 года. Что же из себя представляет этот коэффициент:


Иными словами, чем ближе PUE к 1, тем более совершенным является дата-центр. Однако, значения 1.0 достичь в принципе невозможно, поскольку это соответствует уровню энергоэффективности вечного двигателя. К слову, с полным определением термина PUE можно ознакомиться в документе PUE, A Comprehensive Examination of the Metric (PDF) .

На практике превосходными считаются значения PUE, лежащие на уровне 1.10 – 1.15. К примеру, согласно публикациям, для дата-центров Google значение PUE, усредненное по всем ЦОД в разных регионах и в разное время года, составляет 1.12.

Далее, познакомимся подробнее с системами охлаждения в отдельных дата-центрах Selectel.

Охлаждение дата-центра с помощью кондиционеров

Охлаждение дата-центра с помощью кондиционеров

Отличие чиллерной системы от фреоновых кондиционеров состоит в том, что в трубопроводах между внутренними и внешними блоками циркулирует незамерзающий гликолевый раствор, который остается все время жидким и в газообразное состояние не переходит. Раствор прогоняется насосом через кондиционер в серверном зале, где нагревается от горячего радиатора кондиционера и откуда выкачивается в выносной наружный теплообменник, называемый чиллером.

Чиллерная система охлаждения дата-центра

Чиллерная система охлаждения дата-центра

Схема с холодными и горячими коридорами дает до 5% экономии электроэнергии, поэтому так важно провести изоляцию холодного и горячего воздушных бассейнов (коридоров и накопителей воздуха).

Энергоэффективность чиллерной схемы выше в сравнении с кондиционерами, и это объясняется тем, что внешний компрессорно-конденсаторный блок чиллера включается в работу лишь при температурах окружающей среды выше +12°C, причем вентиляторы внешнего блока включаются постепенно, по мере роста температуры гликолевого теплоносителя. Это очень похоже на то, как работает система охлаждения двигателя обычного автомобиля.

Следующий шаг в повышении энергоэффективности систем охлаждения был сделан в Selectel при переходе к схеме прямого фрикулинга. Принцип действия классического прямого фрикулинга заключается в отказе от теплообменников, и охлаждение вычислительного оборудования происходит за счет обдува с помощью забортного воздуха.

Схема прямого фрикулинга с доохлаждением без фальшпола

Схема прямого фрикулинга с доохлаждением без фальшпола

Охлаждение дата-центра по схеме фрикулинга с фальшполом

Охлаждение дата-центра по схеме фрикулинга с фальшполом

Как показал опыт эксплуатации, такое решение работает без включения АБХМ до температуры окружающей среды +21°C, что практически означает, что АБХМ функционирует только в летние месяцы. Таким образом, это достаточно энергоэффективное решение с PUE ~1.25.

Пара слов о резервировании

Технология адиабатического охлаждения построена на распылении воды в виде мельчайших капель на пути воздушного потока, что позволяет охлаждать воздух за счет испарения воды. При использовании увлажнителей воздуха распылительного типа затраты электроэнергии на сам процесс охлаждения невелики, сравнительно с другими системами охлаждения. Сложная ячеистая структура смачиваемой преграды на пути подаваемого воздуха не позволяет микрокаплям воды попадать дальше в воздуховоды ЦОД. При этом уровень влажности остается в пределах допустимых значений для IT-оборудования.

Схема работы адиабатической системы


Схема работы адиабатической системы

The article discusses capabilities of air coolers for data processing center cooling systems. For example, this equipment leaves more space for processing rooms on the same territory, thus reducing the cost of a square meter.

В статье рассмотрены возможности воздухоохлаждающих приборов для систем охлаждения центров обработки данных. Например, данное оборудование позволяет использовать на одной и той же территории больше площадей под машинные залы, а следовательно, уменьшить себестоимость квадратного метра.

Немного истории


Начав победоносное шествие в 70-х, прецизионные кондиционеры быстро стали лидерами на рынке охлаждения ЦОД и много десятилетий не уступали первое место другим системам охлаждения. Они прекрасно пережили несколько поколений систем хранения и обработки данных, пока в начале нашего тысячелетия не появились графические ускорители и привычная стойка с плановой IT-нагрузкой в 5 кВт и реальной в 3 кВт не превратилась в мощного 20-киловаттного (и более) монстра.

Первые высоконагруженные стойки поселились в ЦОД научных и военных учреждений и, казалось, были очень далеки от коммерческого применения. Но высокую скорость обработки данных довольно быстро по достоинству оценили банки и маркетинговые агентства, а вслед за ними и другие участники рынка. И вот уже мы, проектируя сегодня ЦОД, считаем среднюю нагрузку на стойку 10 или даже 15 кВт и понимаем, что прецизионный кондиционер больше не справляется с потребностями современного ЦОД – громоздко, дорого, неэффективно. На сегодняшний день нам уже требуется один межрядный прецизионный кондиционер на две стойки.

Воздухоохлаждающие приборы

В поисках новых систем охлаждения рынок вернулся к погружным системам, снова отказался от них, в основном из-за неудобства эксплуатации, попробовал прямой фрикулинг, но не удовлетворился ограничениями по применению, связанными с климатом. И вспомнил о воздухоохлаждающих приборах, или ВОП.

Состоят ВОП из теплообменного блока с большой площадью теплообмена, вентиляторов и системы автоматики, включающей двух- или трехходовой клапан. При необходимости их дополнительно оснащают фильтрами, решетками защиты теплообменной поверхности и проч. В истории затерялся момент, когда ВОП стали использоваться в системах охлаждения тех же медицинских учреждений, технологического промышленного холода, лабораторий и помещений, в которых работают люди. Но вот в ЦОД в Западной Европе их стали применять лишь в первом десятилетии нашего века. В России тематика применения ВОП в ЦОД стала актуальной последние несколько лет.

Прецизионные кондиционеры в ЦОД

На сегодняшний день существуют следующие разновидности ВОП:

Возможности адаптации ВОП под архитектуру конкретного ЦОД безграничны. Благодаря огромному количеству стандартных вариантов этих аппаратов ВОП впишутся в любой ЦОД и дадут гораздо больше возможностей по количеству размещенных в машзале стоек, чем прецизионники.

Чем помимо скорости распределения воздуха и возможностей расстановки отличается ВОП от прецизионного кондиционера?

Площадь теплообмена у ВОП намного больше, чем у прецизионных кондиционеров, что позволяет значительно уменьшить нагрузку на вентиляторы, перенеся ее на теплообменную поверхность. Даже в случае, если все вентиляторы выйдут из строя одновременно, за счет естественного движения воздуха через сам теплообменник (скорость порядка 0,5 м/c) система на ВОП может выдержать в машзале температуры, допустимые ASHRAE в качестве кратковременного повышения.

За счет той же площади ВОП могут функционировать при более высоких температурах рабочей жидкости, чем прецизионные кондиционеры, что дает возможность использовать их в режиме свободного охлаждения бóльшую часть года, в некоторых климатических зонах – круглогодично.

Большая площадь позволила значительно уменьшить сопротивление как по воздушной стороне, так и по жидкостной по сравнению с прецизионными кондиционерами. Что, в свою очередь, позволяет снизить потребление электроэнергии как вентиляторами самих ВОП, так и циркуляционными насосами системы охлаждения в среднем на 60 % (!). А это одни из наиболее энергоемких элементов системы охлаждения и ЦОД в целом, поскольку, в отличие от холодильных машин, должны работать круглогодично, да еще и быть подключенными к ИБП. Только задумайтесь, насколько эта технология шагнула вперед по сравнению с привычными прецизионными кондиционерами, если дает экономию не только на электропитании холода, но и на источниках бесперебойного питания.

Система охлаждения ЦОД, построенная на ВОП, не только стабильнее работает, но и позволяет достичь показателей среднегодового PUE в 1,2 и ниже без затрат на невероятно дорогие энергоэффективные компоненты (холодильные машины, градирни). Более низкий PUE достигается только на системах, использующих грунтовые воды, либо на системах прямого фрикулинга. При этом при расчете PUE учитывается не только соотношение IT-нагрузки и энергозатрат на систему холодоснабжения, как часто любят делать вендоры, но и абсолютно все тепловыделения, включая даже бытовые розетки.

Система управления ВОП также сделала значительный шаг вперед по сравнению с прецизионными кондиционерами. Например, у ВОП существует возможность гибкого управления системами вентиляторов, позволяющее охлаждать машзал зонально, перераспределяя нагрузку внутри системы, а кроме этого, углубленные возможности мониторинга, не ограниченные определенным количеством датчиков.

Схематическое представление расположения ВОП в ЦОД

ВОП значительно (до 40 %) дешевле прецизионных кондиционеров – как сами по себе, так и за счет упрощения архитектурной нагрузки (например, отсутствия фальшпола), использования недорогих компонентов (например, холодильных машин) и стоимости систем энергоснабжения (за счет более низкого потребления). Учитывая ограниченную возможность подключения к электрической сети, ВОП дают возможность использовать на одной и той же территории больше площадей под машзалы, а следовательно, уменьшить себестоимость квадратного метра.

Заключение

Подытожим основные критерии и преимущества принципа низкоскоростной вентиляции, на котором работают ВОП:

  • низкое сопротивление воздушному потоку на теплообменнике; как следствие – малые затраты на потребление вентиляторов;
  • низкое сопротивление по жидкости (до максимум 1 бара против 2–2,5 бар на прецизионных кондиционерах); как следствие – малые затраты на потребление насосов;
  • высокий температурный график, дающий значительное увеличение часов работы во фрикулинге;
  • большая площадь теплообменной поверхности в сочетании с высоким температурным графиком гарантируют отсутствие конденсата; как следствие, отпадает необходимость в увлажнении ЦОД, т. е. дополнительно экономятся как инвестиционные затраты, так и затраты на потребление систем увлажнения;
  • низкая скорость воздуха обеспечивает равномерное температурное поле по машзалу, единый холодный бассейн без зон турбулентности, из которого каждая стойка забирает столько воздуха, сколько ей необходимо.

В чем схожи ВОПы и прецизионные кондиционеры?

Помимо назначения – охлаждать машинные залы ЦОД – у этих аппаратов соизмеримы такие параметры, как точность поддержания параметров воздуха и наработка часов на отказ. Иными словами, и те и другие безусловно надежны. По всем остальным параметрам, как было показано выше, прецизионные кондиционеры значительно уступают ВОП.

Единственное, чем пока прецизионные кондиционеры превосходят ВОП, – это степень известности. За более чем 50 лет применения накопилось достаточное количество типовых решений с использованием прецизионных кондиционеров, да и эксплуатация прецизионников не представляет никаких проблем, в то время как в области применения ВОП у служб эксплуатации пока возникает ряд вопросов по использованию новой технологии.

Читайте также: