Андрей Чеснов
Главный энергетик компании Linxdatacenter
31.05.2021

Мониторинг дизель-генераторов: как повысить энергобезопасность в ЦОДе

Один из важнейших параметров работы дата-центров – это энергетическая безопасность. Именно поэтому мы решили подключить к новой системе мониторинга инженерных систем в наших ЦОДах систему дизель-генераторных установок (ДГУ). Рассказываем, как мы это сделали и на что это влияет

Андрей Чеснов,

главный энергетик компании Linxdatacenter

Мониторинг дизель-генераторов: как повысить энергобезопасность в ЦОДе

Один из важнейших параметров работы дата-центров – это энергетическая безопасность. Именно поэтому мы решили подключить к новой системе мониторинга инженерных систем в наших ЦОДах систему дизель-генераторных установок (ДГУ). Рассказываем, как мы это сделали и на что это влияет.

Некоторое время назад мы реализовали проект по обновлению BMS – системы мониторинга инженерных систем на нашей площадке в Санкт-Петербурге. Об этом непростом процессе можно почитать в наших постах на Хабре. После успешного запуска новой BMS встал вопрос о поэтапной интеграции в систему мониторинга всех ключевых инженерных систем. И система ДГУ стала одной из первых. Ранее мы уже организовали топливный мониторинг ДГУ в Linxdatacenter и понимали всю важность контроля именно этой системы в ЦОДе.

Реалтайм-контроль для ДГУ: как делать

Мониторинг ДГУ при помощи BMS дает ЦОДу новый уровень скорости операционного управления в режиме real time и в целом повышает надежность работы дата-центра. Быстрее и точнее распознаются аварийные ситуации или признаки их возможного скорого наступления – значит, быстрее предпринимаются шаги по нормализации работы.

Например, в системе есть предупреждения о событиях, которые напрямую не влияют на работу систем ЦОДа, но, если их игнорировать достаточно долгое время, это может привести к отключениям оборудования. К такому виду оповещений относится перегрузка системы – при сохранении роста потребляемой мощности это вызовет падение системы целиком. Долго такие оповещения игнорировать нельзя, хотя внезапной остановки всего ЦОДа эти события и не вызовут.

Что умеет BMS

Наш проект по интеграции системы ДГУ в BMS пока еще не завершен, но решение уже многое умеет.

Сейчас система ДГУ передает в BMS данные о состоянии автоматов – «вкл/выкл», наличии аварийных ситуаций, показатели напряжения и частоты тока. После завершения интеграции добавятся также данные о состоянии самих установок ДГУ «вкл/выкл», общем напряжение на ДГУ, температура охлаждающей жидкости, данные о давлении масла, частоте вращения турбин, «мото-часы» (время активной работы установки), киловатт-часы и температурные параметры окружающей среды.

В сумме получается довольно много данных, которые позволяют получать максимально общую и точную картину. Можно будет запускать «выпадающий список» для выбора необходимых оператору в текущий момент критериев оценки работы системы ДГУ. Например, можно ввести систему расхода топлива и электроэнергии, чтобы «мото-часы» можно было определять дистанционно.

Система мониторинга ДГУ рассчитана на работу в режиме 24 часа в сутки, включая тренировочные запуски установок и фиксацию тестовых показателей. Таким образом, система обеспечивает полное сопровождение жизненного цикла ДГУ, не только для real time задач, но и для исторического анализа с прогнозными задачами на базе данных журнала дефектов и неполадок. Каждый тестовый запуск ДГУ фиксируется в специальном журнале вместе со всеми обнаруженными неисправностями, ФИО ответственного сотрудника, способами и результатами устранения неполадок. В итоге мы имеем полную историю событий по каждой конкретной ДГУ.

При этом мы сознательно отказались от «соблазнов автоматизации»: дистанционного управления ДГУ не предусмотрено, хотя чисто технически такая возможность существует. Поскольку комплекс установок находится в шаговой доступности для инженеров ЦОДа, лучше оценивать текущую ситуацию своими глазами и собственными руками вносить необходимые коррективы. Ведь к ошибке в работе ДГУ может привести несколько факторов. Если продиагностировать сбой неправильно и просто автоматически перезапустить установку, то ситуация простым «ресетом» может не исправиться, а время будет упущено.

Необходимость личного осмотра снижает влияние человеческого фактора: устраняются риски случайного нажатия не той кнопки на панели управления, которое, будучи незамеченным и неосознанным, может при этом уронить всю систему.

Искушение автоматизацией – например, через внедрение ИИ-функционала в мониторинг – безусловно присутствует. Но в той части инженерных систем ЦОДа, которые отвечают за энергетику, автоматизацию управления и использование ИИ мы не увидим еще очень долго как раз из-за рисков безопасности, пропорционально возрастающих с каждым таким апгрейдом.

Какие типичные неполадки умеет «ловить» BMS?

Чаще всего в работе ДГУ фиксируются ошибки синхронизации и включения автоматов. Например, пришел сигнал на запуск ДГУ, и две установки включились одновременно – это неправильно, так как вызывает просадку напряжения, при достижении минимально допустимого значения напряжения автомат отключается, происходит ошибка в работе системы в целом. Теперь BMS умеет оповещать о таких ошибках дежурного инженера, который должен оценить ситуацию лично. Если установка не запустилась, есть инструкция, как перезапустить ее вручную, после чего событие заносится в журнал – «произошел неудачный пуск, проведен перезапуск, проблема устранена» и т. д.

Аналогичная ситуация может возникнуть при распределении нагрузки. Одна машина не запустилась при старте, остальные, перераспределив нагрузку между собой, могут получить предупреждение о достижении максимального порога мощности. Тогда в системе мониторинга появится предупреждение, которое подскажет, что надо предпринять для недопущения остановки всего дизель-генераторного комплекса.

Система мониторинга способна сегодня показать, ошибка какого типа произошла, благодаря чему технические специалисты уже заранее готовы и имеют сценарий реагирования на инцидент.

Почему все это важно?

Системы гарантированного и резервного электроснабжения в ЦОДе – важный элемент общей отказоустойчивости дата-центра. ДГУ в трактовке вопросов энергообеспечения ЦОДов от Uptime Institute является основным источником питания, поскольку при наступлении перебоев с внешним электроснабжением он становится единственным источником с критическим по важности значением качества работы.

Сегодня ДГУ и схема резервного энергоснабжения дают нам порядка 60 часов бесперебойной работы ЦОДа на полной мощности – доступны 17 м 3 резервного топливохранилища, а также две расходные емкости по 1 м 3 .

В результате полной интеграции системы ДГУ в BMS мы сможем мониторить этот важнейший элемент ЦОДа в режиме 24/7, вовремя предотвращать серьезные ошибки, сокращать время реагирования и поиска причин инцидентов, а также видеть всю историю работы каждого ДГУ как в ретроспективе, так и в режиме реального времени.

Другие новости и публикации

Статья
09.08.2022
ИБ в условиях дефицита: стратегия большого перехода
Новость
01.08.2022
Linxdatacenter – в топ-10 крупнейших поставщиков услуг ЦОД
Новость
25.07.2022
Linxdatacenter запускает собственные PaaS-инструменты
Новость
20.07.2022
Петербургское облако Linxdatacenter прошло аттестацию по ...
Статья
30.06.2022
Как мы оптимизировали управление ЦОДами клиента
Новость
27.06.2022
Linxdatacenter: рынок российских облаков вырастет в 2022 ...
Новость
26.05.2022
Анна Мальми назначена региональным директором Linxdatacen...
Статья
20.05.2022
Облачный край: что происходит на российском рынке
Новость
13.05.2022
Новым генеральным директором Linxdatacenter назначен Андр...
Статья
03.05.2022
Блок на моноблок: модульная ИБП-революция в ЦОДах

Вас также могут заинтересовать

Linx Outsourcing
Аудит, модернизация и оптимизация ваших серверных мощностей
Подробнее
Аутсорсинг управления дата-центром
Linx Network
Обеспечьте отказоустойчивость и бесперебойную работу сети
Подробнее
Сетевые услуги
Linx DraaS
Аварийное восстановление ИТ-инфраструктуры. Защитите ИТ-системы уже сегодня!
Подробнее
Аварийное восстановление DRaaS

Напишите нам

Как мы оптимизировали управление ЦОДами клиента

Дата-центр – комплексный ИТ- и инженерный объект, требующий профессионализма на всех уровнях управления: от руководителей до технических специалистов и исполнителей эксплуатационных работ. Рассказываем, как мы помогли клиенту навести порядок в операционном управлении в корпоративных ЦОДах.
 

Тарас Чирков, руководитель ЦОД Linxdatacenter в Санкт-Петербурге 

Константин Нагорный, главный инженер ЦОД Linxdatacenter в Санкт-Петербурге 

Дата-центр – комплексный ИТ- и инженерный объект, требующий профессионализма на всех уровнях управления: от руководителей до технических специалистов и исполнителей эксплуатационных работ. Рассказываем, как мы помогли клиенту навести порядок в операционном управлении в корпоративных ЦОДах.  

В главной роли – управление 

Самое современное и дорогое ИТ-оборудование не принесет ожидаемой экономической пользы, если не будут выстроены правильные процессы эксплуатации инженерных систем ЦОДа, где оно располагается.  

Роль надежных и производительных дата-центров в современной экономике постоянно растет вместе с требованиями к их бесперебойной работе. Однако на этом направлении существует большая системная проблема.  

Высокий уровень «аптайма» – безаварийной работы дата-центра без простоев – очень сильно зависит от команды инженеров, которая занимается управлением площадки. А единой формализованной школы управления ЦОДами не существует.  

Нет какого-то сводного канона с правилами, применимыми для любого дата-центра. Есть стандарты международной отраслевой организации Uptime Institute, но они устанавливают рамки и вектор развития, к каждому конкретному дата-центру они будут применяться по-разному.  

В масштабах страны  

На практике в России ситуация с эксплуатацией ЦОДов выглядит так.  

Дата-центры из сегмента коммерческих как правило имеют сертификаты, подтверждающие компетенции в сфере управления. Далеко не все и не всегда, но сама специфика бизнес-модели, когда провайдер отвечает перед клиентом качеством сервиса, деньгами и репутацией на рынке, обязывает владеть предметом. 

Сегмент корпоративных ЦОДов, которые обслуживают собственные потребности компаний, по показателям качества эксплуатации заметно отстает от коммерческих дата-центров. К внутреннему заказчику относятся не так тщательно, как к внешнему клиенту, далеко не в каждой компании понимают потенциал хорошо настроенных управленческих процессов. 

Наконец, государственные ведомственные ЦОДы – в этом отношении они часто представляют собой неизвестную территорию в силу закрытости. Международный аудит таких объектов по понятным причинам невозможен. Российские госстандарты только разрабатываются.  

Все это выливается в ситуацию «кто во что горазд». «Разношерстный» состав команд эксплуатации из специалистов с разным бэкграундом, различные подходы к организации корпоративной архитектуры, взгляды и требования в отношении ИТ-департаментов.  

Факторов, приводящих к такому положению дел, много, один из главных – отсутствие систематизированной документации по выстраиванию эксплуатационных процессов. Есть пара вводных статей Uptime Institute, которые дают представление о проблеме и путях ее преодоления. Но дальше необходимо выстраивать систему своими силами. А на это ресурсов и компетенций хватит далеко не у каждого бизнеса.  

Между тем, даже небольшая систематизация процессов управления по лучшим отраслевым практикам всегда дает отличный результат в том, что касается повышения отказоустойчивости инженерных и ИТ-систем.  

Кейс: через тернии к относительному порядку 

Проиллюстрируем на примере реализованного проекта. К нам обратилась крупная международная компания с сетью собственных дата-центров. Запрос был на помощь в оптимизации процессов управления тремя площадками, где на серверах развернуты ИТ-системы и приложения, абсолютно критичные для бизнеса.  

Компания недавно прошла аудит головного офиса и получила список несоответствий корпоративным стандартам с предписанием их устранить. Для этого в качестве консультанта привлекли нас как носителя отраслевых компетенций: мы развиваем собственную систему управления ЦОДами и ведем просветительскую работу о роли качества эксплуатационных процессов уже несколько лет.  

Началось общение с командой клиента. Специалисты хотели получить выстроенную систему эксплуатации инженерных систем ЦОДов, зафиксированную в документации по процессам мониторинга, обслуживания и устранению неполадок. Все это должно было обеспечить оптимизацию инфраструктурной составляющей с точки зрения непрерывности работы ИТ-оборудования.  

И здесь началось самое интересное.  

Познай себя 

Чтобы оценить уровень работы ЦОДов с точки зрения соответствия стандартам, нужно знать точные требования бизнеса к ИТ-системам: каков уровень внутренних SLA, допустимый период простоя оборудования и т.д.  

Сразу же выяснилось – ИТ-департамент не знает, что именно хочет бизнес. Не было внутренних критериев качества сервиса, не было и понимания логики устройства собственной инфраструктуры.  

Коллеги просто не представляли, каково допустимое время простоя операций, завязанных на ИТ, каково оптимальное время восстановления систем в случае аварии, как устроена архитектура собственных приложений. Например, пришлось разбираться, будет ли критичным для работы приложения «падение» одного из ЦОДов, или в нем нет компонентов, влияющих на приложение.  

Не зная таких вещей, рассчитать какие-то конкретные требования к эксплуатации невозможно. Клиент осознал проблему и усилил координацию между ИТ и бизнесом, чтобы выработать внутренние требования и наладить взаимосвязи для выстраивания работы.  

Когда было достигнуто понимание архитектуры ИТ-систем, команда смогла суммировать требования к службе эксплуатации, подрядчикам и к уровню надежности оборудования.  

Улучшения в процессе 

Наши специалисты выезжали на площадки для оценки инфраструктуры, читали имеющуюся документацию, проверяли уровень соответствия проектов ЦОДов фактической реализации.  

Отдельным направлением стали опросы ответственных сотрудников и их руководителей. Они рассказывали, что и как они делают в различных рабочих ситуациях, как устроены ключевые процессы эксплуатации инженерных систем.  

После начала работ и знакомства со спецификой задачи клиент немного «сдал назад»: мы услышали просьбу «просто написать всю необходимую документацию», по-быстрому и без глубокого погружения в процессы.  

Однако правильная оптимизация управления «инженеркой» ЦОДа предполагает выполнение задачи научить людей правильно оценивать процессы и писать под них уникальную документацию исходя из специфики конкретного объекта.  

Придумать рабочий документ за конкретного начальника участка службы эксплуатации невозможно – если только не проработать в паре с ним на площадке безотрывно несколько месяцев. Поэтому такой подход был отклонен: мы находили лидеров на местах, которые были готовы учиться сами и вести за собой подчиненных.  

Объяснив алгоритм создания документов, требования к их содержанию и принципы организации экосистемы инструкций, шесть последующих месяцев мы контролировали процесс детального написания документации и поэтапный переход персонала к работе по-новому. 

Далее последовал этап первичной поддержки работ по обновленным регламентам, который в удаленном формате продолжался один год. Затем мы перешли к тренингам и учениям – единственный путь закрепления нового материала на практике.  

Что сделано 

В процессе работ нам удалось решить несколько серьезных вопросов.  

Прежде всего, мы избежали ведения двойной документации, которой опасались сотрудники клиента. Для этого соединили в новых регламентах нормативные требования, применяющиеся к различным инженерным системам стандартно (электрика, охлаждение, контроль доступа), с отраслевыми best practices, создав прозрачную структуру документации с простой и логичной навигацией.  

Принцип «просто найти, просто понять, легко запомнить» дополнился тем, что новая информация привязывается к старому опыту и знаниям сотрудников. 

Далее мы перетряхнули штат инженеров службы эксплуатации: несколько человек оказались полностью неготовыми к переменам. Сопротивление некоторых успешно преодолевалось по ходу проекта через демонстрацию преимуществ, но определенный процент сотрудников оказался необучаем и невосприимчив к новому.  

Но нас удивило легкомысленное отношение компании к своей ИТ-инфраструктуре: от отсутствия резервирования критичных систем до хаоса в структуре и управлении.  

За 1,5 года процессы управления инженерными системами были прокачаны до уровня, который позволил специалистам компании успешно отчитаться «за качество» перед аудиторами из головного офиса.  

При поддержке темпов развития эксплуатационной составляющей компания сможет самостоятельно пройти любую существую сертификацию ЦОДов от ведущих международных агентств.  

Выводы 

В целом перспективы консалтинга в сфере операционного управления дата-центрами, по нашему мнению, самые яркие.  

Процесс цифровизации экономики и госсектора идет полным ходом. Да, сейчас будет много корректировок запуска новых проектов и планов по развитию старых, но сути это не изменит – эксплуатацию нужно улучшать хотя бы для повышения КПД уже построенных площадок.  

Главная проблема здесь: многие руководители не понимают, по какому тонкому льду они идут, не уделяя этому моменту должного внимания. Человеческий фактор по-прежнему остается главным источником самых неприятных аварий и сбоев. И это нужно объяснять.  

Государственные проекты в сфере дата-центров также становятся более актуальны сейчас и требуют повышенного внимания с точки зрения эксплуатации: сфера государственных ИТ-систем растет. Здесь также потребуется разработка и ввод системы стандартизации и сертификации площадок.  

Когда требования к государственным ЦОДам в РФ на уровне законодательного акта будут сведены в стандарт, его можно будет применять и для коммерческих дата-центров, в том числе и для размещения государственных ИТ-ресурсов.  

Работы по этому направлению ведутся, мы участвуем в этом процессе в рамках консультаций с Минцифры и наращивая компетенции по преподаванию на курсах по эксплуатации дата-центров в АНО ЦОД. Опыта по таким задачам в России не много, и мы считаем, что должны им делиться с коллегами и клиентами. 

Мониторинг дизель-генераторов: как повысить энергобезопасность в ЦОДе

БЭСТ, оператор системы денежных переводов и платежей.

Бизнес-вызов

Компания столкнулась с проблемой постоянного флага BGP-сессии с оборудованием Linxdatacenter. После изучения проблемы стало ясно, что на один из хостов в его сети происходила DDoS-атака.

Из-за распределенного характера атаки отфильтровать трафик было невозможно. Инженеры предложили решение, связанное с сокрытием хоста от внешней сети, но этот вариант не подходил заказчику. Атака прекратилась после внесения изменений в конфигурацию сервера, однако возобновилась на следующий день. Ее мощность достигла 5,5 Гбит/с, из-за чего перегружались «стыки» с интернет-провайдерами, что сказывалось на других пользователях облака Linxdatacenter. Чтобы обеспечить стабильную работу, было решено обратиться к надежному поставщику защиты от DDoS.

Решение

Чтобы обеспечить непрерывную доступность ресурсов, размещенных в облаке Linxdatacenter, весь трафик клиента был направлен через систему antiDDoS от StormWall. Атаку удалось погасить в течение получаса. Для предотвращения дальнейших кибератак все соединения сервисов клиента с интернетом были организованы через сеть StormWall.

Клиент:

БЭСТ, оператор системы денежных переводов и платежей.

Бизнес-вызов

Компания столкнулась с проблемой постоянного флага BGP-сессии с оборудованием Linxdatacenter. После изучения проблемы стало ясно, что на один из хостов в его сети происходила DDoS-атака.

Из-за распределенного характера атаки отфильтровать трафик было невозможно. Инженеры предложили решение, связанное с сокрытием хоста от внешней сети, но этот вариант не подходил заказчику. Атака прекратилась после внесения изменений в конфигурацию сервера, однако возобновилась на следующий день. Ее мощность достигла 5,5 Гбит/с, из-за чего перегружались «стыки» с интернет-провайдерами, что сказывалось на других пользователях облака Linxdatacenter. Чтобы обеспечить стабильную работу, было решено обратиться к надежному поставщику защиты от DDoS.

Решение

Чтобы обеспечить непрерывную доступность ресурсов, размещенных в облаке Linxdatacenter, весь трафик клиента был направлен через систему antiDDoS от StormWall. Атаку удалось погасить в течение получаса. Для предотвращения дальнейших кибератак все соединения сервисов клиента с интернетом были организованы через сеть StormWall.

Спасибо за ваш запрос, мы свяжемся с вами в ближайшее время!