ЦОД: энергоэффективность как необходимость

16.12.2015
ЦОД: энергоэффективность как необходимость

Доля дата-центров в общей структуре потребления всей производимой электроэнергии в мире еще два-три года назад оценивалась в 2%, с прогнозом роста в 3% на следующую пятилетку. Но по мере того, как услуги дата-центров становятся все более разнообразными и востребованными, энергоэффективность используемых решений и систем поднимается все выше в списке ключевых вопросов провайдеров и собственников этих объектов. И если на Западе «зеленые» решения становятся все более популярными и экономически оправданными, в России с их проникновением в инфраструктуру ЦОДов не все так просто.

«Прожорливые» ЦОДы

Согласно данным отчета Worldwide Datacenter Census and Construction 2014-2018 Forecast (IDC), общее число дата-центров всех типов к 2017 году составит 8,7 млн единиц. Их суммарная площадь к  2018 году достигнет 180 млн кв. м. (Источник).

По данным Microsoft, в 2013 году ЦОДы потребляли эквивалент годовой выработки 50 электростанций, выбрасывали в атмосферу 210 млн. метрических тонн CO2 (столько же, сколько 41 млн машин), расходовали 300 млрд литров воды. На 2014 год компания прогнозировала, как минимум, удвоение (!!!) всех этих показателей, о динамике 2015 года остается только догадываться.

Исследования Uptime Institute показывают, что 20% оборудования в современных ЦОДах не выполняют никаких полезных функций – то есть, по сути, расходуют энергию впустую и генерируют тепло, на отведение которого, опять же, тратится электроэнергия. Поэтому первое и наиболее важное направление оптимизации дата-центров – это выявление таких «лишних ртов». Второй шаг – «зеленые» (энергоэффективные) технологии. Исследовательская компания Pike Research оценивает объем рынка "зеленых" ЦОДов к 2016 году в $45,5 млрд.

Несмотря на то, что ряд схем сокращения энергопотребления и оптимизации расхода ресурсов дата-центров известны и широко применяются на практике, остается ряд вопросов, который с учетом новых тенденций развития современного рынка ЦОДа приходится решать все большему количеству ИТ-руководителей во всем мире.

PUE – все ниже, и ниже, и ниже

Международным стандартом здесь является соглашение отраслевых организаций и правительственных ведомств США, ЕС и Японии, устанавливающее в качестве стандарта энергоэффективности показатель PUE (Power Usage Effectiveness, Эффективность расхода электроэнергии). Классически PUE рассчитывается как соотношение общей мощности, подводимой к ЦОД, и мощности, потребляемой IТ-оборудованием дата-центра.

Показатель позволяет понять уровень потери мощностей на обеспечение работы активного оборудования ЦОД. Недостижимый идеал показателя равен 1, но, по понятным причинам, полностью избежать потерь энергии на практике оказывается невозможным, а реальные максимумы PUE лежат в диапазоне 1,5-3,0.

Развитием решений для оптимизации этого показателя активно занимается организация GreenGrid. Ряд ЦОДов большой емкости (например, обслуживающие потребности Google, Microsoft, Facebook) заявляли о достижении PUE в 1,08, но это, как правило, особенности расчета.

Все «зеленые» технологии улучшения PUE – достаточно дорогое удовольствие, которое оправдывает себя только тогда, когда цена за стандартно произведенный киловатт электричества достаточно высока. В условиях РФ предложения для небольших ЦОДов в плане энергоэффективности до сих пор оказывались достаточно дорогостоящими даже на стадии инсталляции такого оборудования. Кроме того, для обслуживания таких решений необходим высококвалифицированный персонал, что также влияет на повышение стоимости. Эти обстоятельства, особенно в условиях экономического кризиса, в краткосрочной перспективе нивелируют преимущества, обеспечиваемые «зелеными» технологиями.

Если добавить к этому необходимость резервирования основных компонентов энергосистем ЦОДа, которые, как правило, находятся в «горячем» режиме и также потребляют часть энергии, то становится ясно – задача оптимизации этого направления является сложной и ресурсоемкой. Многолетний опыт работы существующих ЦОДов указывает на то, что основной ресурс для снижения PUE предоставляют системы охлаждения.

Keep it cool

Обеспечение экономии в работе систем энергообеспечения ЦОДа идет по двум основным направлениям. Первое – решения, обеспечивающие сокращение затрат на подготовку ресурсов для обеспечения энергопотребностей дата-центра, включая кондиционирование воздуха и электричество. Второе – утилизация, то есть полезное использование «побочных» продуктов деятельности ЦОДа: для самого дата-центра они бесплатны, но могут стать источником дополнительного дохода.

На российком рынке типичным решением первого типа будет, например, система EcoBreeze (производитель - APC) – одна из наиболее популярных сегодня, обеспечивающая показатель PUE в диапазоне 1,15-1,25. Это модульная система для крупных ЦОДов, с минимальным шагом модуля, который не позволяет применять ее для менее масштабных проектов.

Другим вариантом реализации первого подхода можно назвать применение системы чиллеров с опцией free-cooling: они давно появились на рынке и доказали свою эффективность. Правда, эти решения необходимо заводить в помещения машинного зала, что повышает риски для основного оборудования ЦОДа в случае протечки. Единственным гарантированным способом резервирования системы остается построение полноценного параллельного дубля – то есть, схема 2N. Отсюда – высокие требования к персоналу, отвечающему за бесперебойную работу систем этого типа.

Наконец, используются фреоновые кондиционеры, но потребляемые ими объемы электроэнергии слишком высоки, чтобы говорить о них как об энергоэффективном решении. Как правило, применяя их, PUE ниже уровня в 1,5-1,6 получить не удастся, наиболее реальный показатель – около 1,8. Сейчас многие производители пытаются добавить к таким системам дополнительные решения – например, подсистемы вентиляции, которые позволяют сокращать нагрузку на фреоновый контур.

Второй подход к энергоэффективности обеспечивают технологии когенерации: высокоэффективного использования первичного источника энергии - газа, для получения двух форм полезной энергии - тепловой и электрической. Как правило, тепло берется из систем охлаждения и вентиляции, а также охлаждающего контура. Тригенерационный комплекс позволяет максимально снизить себестоимость электроэнергии и охлаждения объекта за счет использования собственной когенерационной электростанции в связке с абсорбционным чиллером. Также, в целях выравнивания пиков и провалов тепловых нагрузок, такие системы доукомплектовываются тепловыми аккумуляторами.

Производя оценку энергоэффективности ЦОД, необходимо помнить, что PUE – это результат расчетов, а, значит, зависит от их методики и принимаемых во внимание факторов. Например, если речь идет о корпоративном дата-центре, его PUE при определенной схеме расчета может включать в себя центральные инженерные системы зданий, где такой ЦОД расположен. Также, по трактовке GreenGrid, при расчете PUE дата-центра все технологии в рамках первого направления обеспечения энергоэффективности работают на оптимизацию показателя, а вот решения в рамках второго подхода не учитываются.

Сибирский идеал

Если говорить о пошаговой схеме понижения PUE, одной из первых стоит назвать задачу оптимизации воздушных потоков. Однако во многих схемах вентиляции это подразумевает использование наружного воздуха с пылью, примесями и прочими нежелательными составляющими, что повышает общие риски эксплуатации. Поскольку воздуха нужно много, фильтры будут постоянно нуждаться в обслуживании, что опять-таки приводит к дополнительным расходам.

За городом (в идеале – в сибирской тайге) воздух чист, и там подобных проблем не возникало бы. Но в таких локациях в России есть проблемы с инженерными сетями и размещением персонала ЦОДа. Это теоретически применимая модель для крайне масштабных объектов – в них, пожалуй, можно заложить подобного рода расхода с приемлемым уровнем рентабельности.

Для менее масштабных проектов «сибирский» вариант не годится ни логистически, ни экономически – даже с учетом высокого уровня развития дистанционных решений для мониторинга и управления, на подобного рода объектах необходимо присутствие высококвалифицированных инженеров.

Решением может стать изменение схемы расположения кондиционеров – использование так назывемых рядных кондиционеров вместо периметральных. Маршруты циркуляции значительно укорачиваются, благодаря чему удается лучше контролировать перераспределение горячего и холодного потоков воздуха в помещениях с оборудованием, а также прогнозировать необходимую нагрузку на сеть.

Также отметим возможность использования абсорбционных чиллеров – это полнофункциональная холодильная машина, предназначенная для охлаждения воды или антифриза, используемых в системах центрального кондиционирования. Этой технологии уже около 200 лет (первый агрегат на этом принципе был построен в 1810 году английским физиком Джоном Лесли), а ее главная особенность – способность из дарового тепла производить холод в соотношении примерно 1:1. Это дорогие решения, но их смело можно относить к классу энергоэффективных – правда, при условии, что поблизости находится объект, который может использовать производимое тепло – например, ТЭЦ.

Рабочим веществом для переноса тепловой энергии в абсорбционных холодильных чиллерах является хладагент – чаще всего это вода, а в качестве абсорбента, как правило, используется раствор бромида лития или аммиак, причем в последнее время на рынке появилось довольно много оборудования такого типа.

ЦОДы России зеленеть не спешат

При средней российской стоимости 3 рубля за 1 килловат, то есть меньше 5 центов, срок возврата инвестиций в «зеленые» решения составляет 7-15 лет. В Европе, где стоимость киловатта может доходить до 1 евро, даже самые незамысловатые энергоэффективные решения окупаются за 2-3, максимум 5 лет.

При этом не будем забывать, что многие производители оборудования обозначают сроки «жизни» своих аппаратов, тех же кондиционеров, в 15-20 лет. Как правило, за это время на рынок выводятся новинки с аналогичной стоимостью, но более высокими эксплуатационными показателями, позволяющие достигать более высокого уровня энергоэффективности. То есть, капитальные вложения в энергоэффективность ЦОДа на таких решениях довольно быстро могут обесцениться и даже превратиться в убытки.

Альтернатива – динамические системы, построенные на основе принципа преобразования кинетической энергии. Их минусом остается невозможность накопить энергию «про запас», что в случае сбоя делает необходимым запуск дизеля. И если стандартная система на аккумуляторах, что называется, «глотает» стандартные просадки, и их воздействие на рабочие процессы ЦОДа остается практически незаметным, то кинетические решения без запуска дизеля поддержать работоспособность ЦОД на должном уровне не смогут. За год расходы солярки на поддержание работоспособности такой системы составят десятки тонн солярки, а цена на нее сегодня остается довольно высокой.

К примеру, часовой расход может составлять до полутонны солярки при работе 4 дизелей мощностью 1,5-2 мегаватт. При техническом регламенте, допускающем работу ЦОДа на дизеле продолжительностью в 1-2 дня, может сложиться ситуация, когда топливо нужно будет подвозить бензовозами каждые несколько часов. С учетом вышесказанного по поводу цен на солярку, поддержание работы ЦОДа в таком режиме может оказаться «золотым».

Здесь свое слово может сказать новое поколение ИБП, которые по PUE приближаются к кинетическим источникам, показывая КПД в 96%. Если раньше стандартный «бесперебойник» на аккумуляторах давал КПД на уровне в 92%, уступая «кинетике» 6%, и это было критично с учетом того, что счет идет на мегаватты, то сейчас разница между двумя видами источников энергии составляет всего 1,5-2% и повышает конкурентность классических ИБП в плане энергоэффективности.

Также не стоит забывать о потенциале экономии за счет зонирования участков ЦОДа по загрузке. Как показывает практика, простое разделение участков дата-центра по признаку разных объемов потребляемой энергии позволяет избежать неоправданного завышения мощностей, подаваемых на системы охлаждения. Это позволяет обеспечить энергоэффективность еще на уровне проекта, заложив ее в качестве принципа организации работы ЦОДа.

Полный текст статьи читайте на сайте Global CIO.

Назад к разделу "Публикации"