08.05.2020

Мониторинг в ЦОДе: как мы меняли старую BMS на новую. Часть 3

Мы продолжаем наш рассказ о том, как мы меняли BMS-систему в наших ЦОДах (часть 1, часть 2). При этом мы не просто поменяли решение одного вендора на другого, а разработали систему с нуля под свои требования. В заключение нашей истории делимся итогами проделанной работы и интересными решениями, которые могут быть вам полезны

Мы продолжаем наш рассказ о том, как мы меняли BMS-систему в наших ЦОДах (часть 1, часть 2). При этом мы не просто поменяли решение одного вендора на другого, а разработали систему с нуля под свои требования. В заключение нашей истории делимся итогами проделанной работы и интересными решениями, которые могут быть вам полезны.

Новый интерфейс

Тут, как говорится, лучше один раз увидеть.


Стойки.

Разберем отличия.

  • Во-первых, это красиво удобно. Обратите внимание, как легко стало отслеживать нагрузки на модули («Banks» или просто «Банки») PDU и сумму параллельных нагрузок парных модулей. На модели стойки из новой BMS мы сразу видим, что нижние парные модули PDU перегружены (суммарный ток выше допустимых 16А – «синее» уведомление), а верхние недогружены. В случае отключения одного из вводов вся нагрузка перейдет на второй, и оставшийся под напряжением нижний модуль отключится из-за перегрузки. Чтобы не допустить такого, служба поддержки ЦОД заранее предупредит клиента и отправит рекомендацию, как перераспределить нагрузку.
  • Простое добавление оборудования. В новой BMS виртуальные датчики сумм токов модулей и мощности стойки уже добавлены в шаблоны типовых стоек и создаются автоматически после добавления в стойку PDU. В старой BMS их приходилось создавать вручную, а потом перетаскивать на карту, что повышало вероятность ошибки из-за «человеческого фактора».
  • Неограниченный простор для творчества. Теперь у нас нет ограничений при создании виртуальных датчиков. Можно строить абсолютно любые математические модели любых переменных. Это означает, что у нас есть возможность создавать сложные виртуальные датчики (раньше можно было только складывать значения) и лучше анализировать статистику и тенденции работы инженерных систем. Это повышает качество принимаемых решений по настройке систем, замене оборудования и управлению ресурсами.
  • Понятный интерфейс. В новом интерфейсе нет нагромождения значков, вентиляторы крутятся, выключатели «щелкают». И самое удобное – это возможность индикации состояния PDU Line A/B внутри стоек. Мы пробовали сделать нечто подобное в старой BMS, но количество сливающихся значков на квадратный сантиметр карты заставило нас от этого отказаться.

Теперь глазу приятно смотреть:

Серверные.

Фрагмент ГРЩ.

Щит управления вентиляцией.

А еще новую BMS можно украсить к Новому году 🙂

One page – взаимопонимание с полуслова и без ТЗ

Мы очень давно хотели реализовать еще одну «фишку» в BMS: скомпоновать на одной странице основные параметры ЦОД, чтобы одного взгляда на экран было достаточно для оценки состояния основных систем. Однако мы не до конца понимали, как она должна выглядеть.

Еще до начала разработки новой BMS мы посетили с экскурсиями десяток ЦОДов в Нидерландах. Одной из целей было увидеть примеры реализации такой страницы.

И ни в одном ЦОДе нам ее не показали – где-то ее не было, где-то «прямо сейчас разрабатывали», где-то это была «большая коммерческая тайна». Поэтому в нашем ТЗ на создание новой BMS точное описание этой очень важной для нас страницы отсутствовало.

В итоге мы ее придумали буквально «на ходу». Как раз в тот момент пришлось удаленно консультировать коллег в ЦОДе. Перелистывать страницы BMS в телефоне в поисках разрозненных данных было очень неудобно, и фактически на салфетке была набросана первая версия One page. Ее и реализовали разработчики по фото.

Следуя примеру осторожных голландских коллег, не будем демонстрировать итоговый вариант нашей главной страницы, тем более что каждый ЦОД уникален и копировать смысла нет. Но опишем два главных принципа ее формирования:

  • Это таблица, сверстанная под формат вертикально расположенного экрана смартфона (либо монитора, но с сохранением вертикального расположения), с выводом всей важной информации на один экран. Над таблицей приводится «сводка» активных инцидентов, поэтому размещать их вместе удобнее всего оказалось в вертикальном формате.
  • Расположение ячеек в таблице повторяет архитектуру ЦОДа (физическую или логическую). Мы отказались от расположения систем в алфавитном порядке, как хочется на первый взгляд. Последовательность отражает зрительные ассоциации персонала дата-центра – как будто они физически мониторят все помещения и системы. Это упрощает поиск информации.

По сути, теперь абсолютно все ключевые характеристики ЦОДа сгруппированы и представлены на одном экране смартфона/ монитора ответственного инженера и руководителя, при этом реализована привязка к физической и логической топографии ЦОДа.

Вот фото того самого первого черновика, хотя, конечно, затем эта версия была переосмыслена и доработана.

Квитирование и сводка инцидентов

Расскажем об еще одном новом для нас понятии, появившемся в результате проекта по обновлению системы мониторинга.

Квитирование – довольно редко встречающийся термин, который предложил использовать разработчик новой BMS. Он означает подтверждение того, что оператор увидел инцидент, подтвердил его и принял на себя обязанности по его устранению.

Слово прижилось, и теперь мы «квитируем» инциденты.

Алгоритм, заложенный в базовую версию новой BMS, нас не устроил. Фактически это были комментарии к журналу событий, то есть устраненные инциденты не исчезали из журнала, а принятые («квитированные») не отсортировывались от новых.

В итоге было разработано окно под названием «сводка», в котором:

  • Отображаются только активные инциденты и устройства в сервисном режиме (без коммерческих «синих» уведомлений).
  • Явно разделяются НОВЫЕ и ПРИНЯТЫЕ инциденты.
  • Указано, кто принял инцидент.

Алгоритм работы дежурных в новой BMS следующий:

  • Новые инциденты попадают в сводку и ждут квитирования. Долго они в этом разделе находиться не могут, ответственный за оборудование дежурный должен сразу принять инцидент на себя.
  • Сотрудник принимает инцидент на себя, нажав на галочку справа. Так как все сотрудники под уникальными учетными записями – автоматически отображается, кто принял инцидент. При необходимости оставляется комментарий.
  • Инцидент перемещается в раздел «Квитированные», остальные дежурные и руководитель понимают, что инцидентом занимается ответственный сотрудник.

Пример окна сводки с новым и уже квитированным сообщением.

Соединив окно сводки с таблицей One page, мы получили полноценный главный экран системы BMS, на котором сразу можно увидеть:

  • состояние основных систем ЦОД;
  • наличие новых необработанных инцидентов;
  • наличие принятых инцидентов и данные о том, кто конкретно их устраняет.

Доступ через браузер и всплывающие оповещения на телефоне

Веб-интерфейс, доступный с любого устройства из любой точки мира, – это разительный контраст с «толстым» клиентом, полностью закрытым для пользователей извне.

Старый подход тянул за собой комплекс неудобств, от проблем в организации удаленной работы сотрудников службы мониторинга до необходимости устанавливать «толстые» клиенты из дистрибутивов на рабочие места персонала в ЦОДе.

Теперь у любой страницы в BMS есть уникальный адрес, что позволяет делиться не только прямым адресом страницы или устройства, но и ссылками на уникальные графики/ отчеты.

Доступ в систему теперь осуществляется посредством LDAP-аутентификации через Active Directory, что усиливает уровень ее защищенности.

Мобильность сегодня – ключевой фактор качественной работы дежурных инженеров. Помимо контроля мониторинга в помещении дежурной смены, инженеры делают обходы, выполняют текущую работу вне «дежурки» и, благодаря оптимизированному под мобильный экран главному экрану BMS, не теряют контроль за происходящим в машзалах ни на секунду.

Качество контроля повышается и благодаря функциональности рабочих чатов. Они ускоряют рабочие процессы, позволяя «привязать» переписку дежурных инженеров к BMS. Мы, например, используем приложение Teams, которое позволяет вести внутреннюю переписку и получать на телефон все сообщения из BMS в виде всплывающих Push-уведомлений, что избавляет дежурного от необходимости постоянно смотреть в экран телефона.


Push-уведомление на экране смартфона.


А так уведомления выглядят в приложении Teams.

При этом всплывающие уведомления настроены только на сообщения о появлении инцидентов, тем самым минимизирован отвлекающий фактор, персонал знает: если на экране смартфона появилось Push-уведомление Teams, то надо зайти на страницу BMS и принять инцидент. Сообщения об устранении инцидентов отслеживаются уже на странице BMS.


На фото интерфейс BMS в смартфоне.

Подводя итог

При стоимости обновления BMS у нашего старого вендора, сопоставимой с разработкой новой системы с нуля (около $100 000), разница в функциональности продуктов оказалась колоссальной. Мы получили гибкую систему, оптимизированную под наши бизнес-задачи и процессы. Мы также добились существенной экономии в текущих расходах на поддержку и обновление системы.

Но, конечно, были и сложности.

• Во-первых, мы недооценили объем изменений, которые требовалось внести в базовую версию новой BMS, и не уложились в заранее оговоренные сроки. Для нас это не было критической проблемой, так как мы до последнего страховались и работали на старой системе, а процесс был творческий, сложный и поэтому шел иногда медленнее, чем ожидалось. К тому же мы всегда видели, что наш разработчик прикладывает максимум усилий для достижения лучшего результата. Но по факту история оказалась очень долгой, и наши ключевые специалисты потратили на нее значительно больше усилий и времени, чем планировали.
• Во-вторых, нам потребовалось несколько этапов испытаний, чтобы отладить алгоритм резервирования виртуальных машин и каналов связи. Изначально сбои были и на стороне системы BMS, и на стороне настройки виртуальных машин и сети. Эта отладка тоже заняла время. Благо, подрядчику была предоставлена тестовая площадка в виде облачного сервиса, где изначально тестировались все настройки и нововведения.
• В-третьих, итоговая система оказалась сложнее для редактирования конечным пользователем. Если раньше карта представляла собой подложку (графический файл) и значки, изменить или переместить которые не составляло труда, то теперь это сложный графический интерфейс с анимацией, требующий определенных навыков для редактирования.

Радикальное обновление нашей системы BMS уже сегодня можно назвать важнейшим проектом прошлого года, который серьезно повлияет на качество операционного управления нашими площадками в будущем.

Старый железный сервер мы, конечно же, не выкинули, а «облегчили»: очистили от тысяч «коммерческих» виртуальных датчиков и PDU и оставили в нем только несколько десятков самых критичных устройств, таких как ДГУ, ИБП, кондиционеры, насосы, датчики протечек и температур. В таком режиме к нему вернулась былая скорость, и он может быть «резервом резерва». Кстати, после удаления PDU из старой BMS у нас освободилось около 1000 теперь уже ненужных лицензий, вы случайно не знаете, что с ними делать?

News and publications

Article
09.08.2022
IS in scarcity: a big transition strategy
News
01.08.2022
Linxdatacenter is in the TOP10 of the largest DC service providers
News
25.07.2022
Linxdatacenter launches its own PaaS tools
News
20.07.2022
St. Petersburg cloud Linxdatacenter passed the certification on ...
Article
30.06.2022
How we optimized customer data center management
News
27.06.2022
Linxdatacenter: Russian Cloud Market to Grow in 2022...
News
26.05.2022
Anna Malmi has been appointed the regional director of Linxdatacenter...
Article
20.05.2022
Cloud Edge: What's Happening in the Russian Market - Linxdatacenter
News
13.05.2022
The new CEO of Linxdatacenter is Andrei...
Article
03.05.2022
Unit per monoblock: the modular UPS revolution in data centers

You may also be interested in

Linx Outsourcing
Audit, upgrade and optimize your server capacities
read more
Data-center management outsourcing
Linx Network
Ensure network resiliency and uptime
read more
Network services
Linx DraaS
Protect your IT systems today!
read more
Disaster Recovery as a Service

Write to us

How we optimized customer data center management

Data center is a complex IT and engineering object, which requires professionalism at all levels of management: from managers to technical specialists and executors of maintenance works. Here's how we helped our client put operational management in corporate data centers in order.
 

Taras Chirkov, Head of Data Center in St. Petersburg  in St. Petersburg 

Konstantin Nagorny, chief engineer of data center in St. Petersburg.  in St. Petersburg 

Data center is a complex IT and engineering object, which requires professionalism at all levels of management: from managers to technical specialists and executors of maintenance works. Here's how we helped our client put operational management in corporate data centers in order.  

Management is in the lead 

The most advanced and expensive IT equipment will not bring the expected economic benefits if proper processes of engineering systems operation in the data center, where it is located, are not established.  

The role of reliable and productive data centers in today's economy is constantly growing along with the requirements for their uninterrupted operation. However, there is a big systemic problem on this front.  

A high level of "uptime" - failure-free operation of a data center without downtime - depends very much on the engineering team that manages the site. And there is no single formalized school of data center management.  

And there is no single formalized school of data center management.    

Nationwide  

In practice, the situation with the operation of data centers in Russia is as follows.  

Data centers in the commercial segment usually have certificates confirming their management competence. Not all of them do, but the very specifics of the business model, when a provider is responsible to the client for the quality of service, money and reputation in the market, obligates them to own the subject. 

The segment of corporate data centers that serve companies' own needs lags far behind commercial data centers in terms of operational quality. The internal customer is not treated as carefully as the external customer, not every company understands the potential of well-configured management processes. 

Finally, government departmental data centers - in this regard, they are often unknown territory due to their closed nature. An international audit of such facilities is understandably impossible. Russian state standards are just being developed.  

This all translates into a "who knows what" situation. "Diverse" composition of operation teams composed of specialists with different backgrounds, different approaches to the organization of corporate architecture, different views and requirements to IT departments.  

There are many factors that lead to this state of affairs, one of the most important is the lack of systematic documentation of operational processes. There are a couple of introductory articles by Uptime Institute which give an idea of the problem and how to overcome it. But then it's necessary to build the system by your own efforts. And not every business has enough resources and competence for that.  ⠀⠀  

Meanwhile, even a small systematization of management processes according to industry best practices always yields excellent results in terms of improving the resilience of engineering and IT systems.  

Case: through thorns to the relative order 

Let's illustrate by the example of an implemented project. A large international company with its own data center network approached us. The request was for help to optimize the management processes at three sites where IT systems and business-critical applications are deployed.  

The company had recently undergone an audit of its headquarters and received a list of inconsistencies with corporate standards with orders to eliminate them. We were brought in as a consultant for this as a bearer of industry competence: we have been developing our own data center management system and have been educating on the role of quality in operational processes for several years.  

Communication with the client's team began. The specialists wanted to get a well-established system of data center engineering systems operation, documented on the processes of monitoring, maintenance and troubleshooting. All this had to ensure optimization of the infrastructure component in terms of IT equipment continuity.  

And here began the most interesting part.  

Know thyself 

To assess the level of data centers in terms of compliance with standards, you need to know the exact requirements of the business to IT systems: what is the level of internal SLA, the allowable period of equipment downtime, etc.  

It became clear right away that the IT department did not know exactly what the business wanted. There were no internal criteria of service quality, no understanding of the logic of their own infrastructure.  

Colleagues simply had no idea what the permissible downtime for IT-related operations was, what the optimal system recovery time in case of a disaster was, or how the architecture of their own applications was structured. For example, we had to figure out whether a "crash" of one of the data centers would be critical to the application, or if there were no components affecting the application.  

Without knowing such things, it is impossible to calculate any specific operational requirements. The client recognized the problem and increased coordination between IT and the business to develop internal requirements and establish relationships to align operations.  

Once an understanding of the IT systems architecture was achieved, the team was able to summarize the requirements for operations, contractors, and equipment reliability levels.  

Improvements in the process 

Our specialists traveled to sites to assess infrastructure, read existing documentation, and checked the level of compliance of data center projects with actual implementation.  

Interviews with the responsible employees and their managers became a separate area of focus. They told what and how they do in different work situations, how the key processes of engineering systems' operation are arranged.  

After starting the work and getting acquainted with the specifics of the task the client "gave up" a little: we heard the request "just to write all the necessary documentation", quickly and without deep diving into the processes.  

However, proper optimization of data center "engineering" management implies the task to teach people to properly assess the processes and write unique documentation for them based on the specifics of the object.  

It is impossible to come up with a working document for a specific maintenance area manager - unless you work with him at the site continuously for several months. Therefore this approach was rejected: We found local leaders who were willing to learn themselves and lead their subordinates.  

Having explained the algorithm of documents creation, requirements to their contents and principles of instructions ecosystem organization, for the next six months we controlled the process of detailed writing of documentation and step-by-step transition of the personnel to work in a new way. 

This was followed by a phase of initial support for work on the updated regulations, which lasted one year in a remote format. Then we moved on to training and drills - the only way to put the new material into practice.  

What's been done 

In the process, we were able to resolve several serious issues.  

First of all, we avoided double documentation, which the client's employees feared. To this end, we combined in the new regulations the regulatory requirements applied to various engineering systems as standard (electrics, cooling, access control), with industry best practices, creating a transparent documentation structure with simple and logical navigation.   

The principle of "easy to find, easy to understand, easy to remember" was complemented by the fact that the new information was linked to the old experience and knowledge of the employees. 

Next, we reshuffled the staff of service engineers: several people turned out to be completely unprepared for the change. The resistance of some was successfully overcome in the course of the project through the demonstration of benefits, but a certain percentage of employees turned out to be untrained and unresponsive to new things.  

But we were surprised by the company's frivolous attitude to its IT infrastructure: from the lack of redundancy of critical systems to the chaos in the structure and management.  

In 1.5 years the engineering systems management processes have been pumped up to the level that allowed the company's specialists to successfully report "for quality" to the auditors from the headquarters.  

With the support of the operating component development pace the company will be able to pass any existing certification of data centers from leading international agencies.  

Summary 

In general, the prospects of consulting in the field of operational management of data centers, in our opinion, are the brightest.  

The process of digitalization of the economy and the public sector is in full swing. Yes, there will be a lot of adjustments in the launch of new projects and plans for the development of old ones, but this will not change the essence - the operation should be improved at least to improve the efficiency of already built sites.  

The main problem here: many managers do not understand what thin ice they are walking on, not paying proper attention to this point. The human factor is still the main source of the most unpleasant accidents and failures. And it needs to be explained.  

Government data center projects are also becoming more relevant now and require increased attention in terms of operations: the scope of government IT systems is growing. Here, too, the development and introduction of a system of standardization and certification of sites will be required.  

When the requirements to public data centers in Russia at the level of legislation will be reduced to a standard, it can be applied to commercial data centers, including for the placement of public IT resources.  

The work in this area is ongoing, we are participating in this process in consultation with the Ministry of Digital and by building competencies for teaching courses on data center operation at the ANO Data Center. There is not much experience on such tasks in Russia, and we believe that we should share it with colleagues and clients. 

Мониторинг в ЦОДе: как мы меняли старую BMS на новую. Часть 3

BEST, money transfer and payments operator

business challenge

The customer faced a technical issue with a persistent BGP session flag with Linxdatacenter hardware. We examined the problem and found out that one of customer’s hosts was under a DDoS attack.

Because of the distributed nature of the attack, traffic couldn’t be filtered effectively, and disconnecting the host from the external network wasn’t an option. The attack stopped after changes in the server configuration, but resumed the day after. A 5.5 Gbps attack overloaded the junctions with internet providers, affecting other Linx Cloud users. To mitigate the effects of the attack, we employed a dedicated DDoS protection service.

Solution

To ensure the continuous availability of resources hosted in Linx Cloud, we rerouted all the customer’s traffic through StormWall Anti-DDoS system. The attack was stopped within half an hour. To prevent future cyberattacks, we organized all connections to the customer’s resources through the StormWall network.

client:

BEST, money transfer and payments operator

business challenge

The customer faced a technical issue with a persistent BGP session flag with Linxdatacenter hardware. We examined the problem and found out that one of customer’s hosts was under a DDoS attack.

Because of the distributed nature of the attack, traffic couldn’t be filtered effectively, and disconnecting the host from the external network wasn’t an option. The attack stopped after changes in the server configuration, but resumed the day after. A 5.5 Gbps attack overloaded the junctions with internet providers, affecting other Linx Cloud users. To mitigate the effects of the attack, we employed a dedicated DDoS protection service.

Solution

To ensure the continuous availability of resources hosted in Linx Cloud, we rerouted all the customer’s traffic through StormWall Anti-DDoS system. The attack was stopped within half an hour. To prevent future cyberattacks, we organized all connections to the customer’s resources through the StormWall network.

Thank you for your inquiry, we will get back to you shortly!