Олег Федоров
Менеджер по проектам Linxdatacenter
27.01.2021

Иметь или не иметь? Покупать или арендовать ИТ-ресурсы?

Бизнес уже более десяти лет активно использует облачные вычисления. Но споры о том, какие рабочие нагрузки нужно переносить в облако и зачем, не прекращаются и по сей день. Попробуем понять, какие приложения для облака не подходят, в чем экономическая целесообразность разных подходов к виртуальной ИТ-инфраструктуре и как соотносятся между собой выгоды ее аренды у провайдера и приобретения оборудования с виртуализацией в собственность
Олег Федоров, менеджер по проектам, Linxdatacenter

Бизнес уже более десяти лет активно использует облачные вычисления. Но споры о том, какие рабочие нагрузки нужно переносить в облако и зачем, не прекращаются и по сей день.
Попробуем понять, какие приложения для облака не подходят, в чем экономическая целесообразность разных подходов к виртуальной ИТ-инфраструктуре и как соотносятся между собой выгоды ее аренды у провайдера и приобретения оборудования с виртуализацией в собственность.

Три кита ИТ-инфраструктуры

Базовые требования к работе ИТ-инфраструктуры сегодня – возможность наращивать плотность решения, повышать его производительность и доступность конечного сервиса.

Для выполнения этих требований важны характеристики компонентов инфраструктуры:

—  computing – процессора (CPU) и оперативной памяти;
—  network – сетевой инфраструктуры;
—  storage – СХД, в которой хранятся все необходимые данные.

Каждый компонент непосредственно влияет на работу бизнес-приложений. Чем выше тактовая частота процессора, чем быстрее (больше) оперативная память, чем меньше задержек в СХД, тем быстрее приложение отработает и выдаст нужные данные.
Поэтому, когда бизнес ощущает нехватку производительности ИТ-систем, нужно понимать, что дело может быть в недостатке не только вычислительных мощностей, но и остальных компонентов ИТ-инфраструктуры.

Увеличить плотность ИТ-решения помогает апгрейд первых двух компонентов: повысив производительность CPU и расширив оперативную память, мы можем запустить больше виртуальных машин (приложений) на одном физическом сервере.
За доступность конечного сервиса также отвечают storage и network. Сбои СХД или сети приводят к нарушениям в работе бизнес-приложений.

Виртуализация спасает

Одним из способов обеспечить слаженную работу всех трех основных компонентов ИТ-инфраструктуры является виртуализация.

Виртуализация – это программное (виртуальное) представление каких-либо ИТ-ресурсов или решений (например, виртуальных приложений, серверов, виртуальных машин, хранилищ и сетей). Современное ПО позволяет «нарезать» ресурсы физической ИТ-инфраструктуры для ее более эффективного использования и сокращения расходов на нее с одновременным повышением эффективности утилизации.

Грубо говоря, на одном физическом сервере можно разместить несколько виртуальных машин (ВМ), каждая из которых представляет собой изолированный софтверный контейнер, содержащий ОС, приложения, драйверы, настройки и т.д. Виртуальные машины не зависят друг от друга, что позволяет размещать несколько ВМ на одном сервере.

Управление ВМ осуществляется с помощью ПО, называемого гипервизором. Он отделяет виртуальные машины от узла (физического сервера) и по мере возникновения необходимости в ресурсах динамически выделяет требуемый их объем каждой задаче.

Инструменты типа vCloud Director позволяют администрировать ИТ-ресурсы по уровню доступа на виртуальном и физических уровнях. Грамотно распределяя их объем и выстраивая логичную ИТ-архитектуру, можно предложить компании размещение на нескольких разных площадках в разных регионах или даже в разных странах для того, чтобы обеспечить близость приложения к конечным пользователям, уменьшить задержку и повысить скорость предоставления сервисов.

На земле или в облаке?

Все рассуждения о том, почему для конкретной рабочей нагрузки лучше выбрать локальное (on-premise) или облачное ИТ-решение, как правило, фокусируются на двух аспектах.

Первый из них касается безопасности данных и соответствия нормативным требованиям организации бизнес-процессов. В случае с облаком пользователи фактически передают контроль над своей инфраструктурой и размещенными на ней ИТ-системами, приложениями и данными третьим лицам, а облачная платформа не всегда может обеспечить максимальную защиту данных.

Однако сегодня этот аргумент теряет свою силу. Большинство современных облачных сред соответствуют стандартам информационной безопасности и могут быть адаптированы в плане защищенности к требованиям конкретной ИТ-инфраструктуры. При наличии всех настроек IAM (Identity and Access Management), опций шифрования, региональных конфигураций и других средств защиты данных, доступных в современных облаках, ИБ-фактор не может служить препятствием миграции.

Второй традиционный аргумент против перехода с on-premise в облако заключался в том, что такая миграция требует больших усилий и компания может не обладать необходимыми знаниями и опытом для ее осуществления. Этот довод также утратил силу, поскольку сегодня существует множество инструментов миграции, которые значительно упрощают процесс перехода.

С другой стороны, несмотря на то что традиционные аргументы против переноса рабочих нагрузок в облако теряют смысл, есть причины, по которым разные типы рабочих нагрузок могут плохо сочетаться с облачной инфраструктурой.

Частая миграция трафика в обе стороны

Оптимизация стоимости облачных вычислений – это постоянная борьба. Простой способ переплатить – запускать в облачной среде рабочие нагрузки с большим объемом данных, постоянно мигрирующих из локальных систем в облако и обратно.

Многие провайдеры взимают плату за скачивание данных из облака, в результате чего месячный счет может намного превысить абонентскую плату. С точки зрения оптимизации затрат рабочие нагрузки, постоянно требующие большого объема передачи данных, не являются идеальными кандидатами на миграцию.

Рабочие нагрузки, не допускающие задержек

Перемещение данных между облачными серверами и устройствами конечных пользователей требует времени. Обеспечение хостинга данных в регионах, географически приближенных к конечным пользователям, помогает сократить эти задержки, но полностью их не устраняет.

Это означает, что приложения, требующие малой задержки или ответа на запросы в течение миллисекунд, подходят для облаков меньше всего. Лучше размещать их максимально близко к пользователям.

В некоторых случаях задачу решают глобальные облака (Microsoft Azure, AWS, Google), которые имеют точки присутствия во многих регионах мира. Однако если их задействовать невозможно, то приложения проектируют так, чтобы они работали локально на устройствах конечных пользователей и максимально обходили сеть.

Большие объемы данных

Зависимость облака от сетевых подключений при перемещении данных между облачными серверами и пользователями не только вызывает проблемы с задержками, но и может сделать передачу больших объемов данных непрактичной.

Из-за сетевых ограничений рабочие нагрузки, которые полагаются на большие объемы данных или генерируют их, могут плохо функционировать в облаке. Конечно, «большой объем» – понятие относительное, но в общем случае приложение, которому ежедневно приходится перемещать сотни или более терабайт данных в облако или из него, может работать неудовлетворительно.

Отсутствие надзора и управления

Еще один минус облаков связан не с технологией, а с организационной культурой и управлением.

На некоторых предприятиях облака вызывают соблазн размещать в них рабочие нагрузки, которые не являются необходимыми и провоцируют необязательные траты. Так возникает сегмент «теневых ИТ». Это своего рода частная инициатива, не отраженная в официальных документах и балансах компании. Тем не менее нагрузки используются для решения задач бизнеса и облачные ресурсы потребляются.

Особенно часто теневые ИТ возникают при работе с глобальными облаками. Например, сотрудники компании, имеющие доступ к корпоративным бюджетам, запускают в облаке AWS виртуальные машины для тестирования или временного размещения сервисов, которые впоследствии не удаляются, хотя нужда в них отпала. Допустим, отделу маркетинга необходимо срочно запустить сайт «под акцию», а обращаться в ИТ-отдел с такой просьбой слишком долго. Куда быстрее самостоятельно развернуть в рамках своего бюджета пару ВМ.

В рамках ИТ-инфраструктуры крупной компании запуск подобных рабочих нагрузок легко остается незамеченными. Однако со временем количество таких инстансов и траты на них могут превысить общий бюджет ИТ-департамента в несколько раз.

Теневые ИТ могут стать и серьезной угрозой безопасности, поскольку о существовании таких «решений» ИТ-департамент не подозревает, а значит, и не контролирует соблюдение ИБ-стандартов, принятых в компании.

Поэтому если в вашей организации отсутствует строгий контроль над ИТ-ресурсами, возможно, безопаснее придерживаться политики on-premise или пользоваться доступом в большие облака через провайдеров частных облаков, когда все дополнительные ресурсы будут выделяться либо через доверенных лиц, либо по отдельным заказам.

Бизнес-перспективы облака

Однако даже с учетом перечисленных ограничений плюсов у облаков в современном мире оказывается гораздо больше.

Что облака дают бизнесу?

Во-первых, быстрый старт. Сегодня по запросу можно предоставить компании площадку для развертывания ИТ-инфраструктуры в течение одного дня. В случае выбора модели on-premise физические серверы поставляются в среднем несколько дней, недель, иногда даже месяцев. При этом опция «поставка за несколько дней» доступна преимущественно при покупке оборудования б/у. Но недостаточно просто поставить сервер и СХД – их нужно правильно внедрить в комплекс ИТ-инфраструктуры компании. В некоторых случаях доставка «железа» может занять меньше времени, чем его дальнейшая интеграция.

Во-вторых, гибкое масштабирование. Если в процессе решения бизнес-задачи средствами локальных ИТ закончилась, предположим, оперативная память, и приложению не хватает существующего объема, то апгрейд этого компонента на уровне «железа» займет, как и в случае с сервером, несколько недель. В облаке же память расширяется за два клика и один запрос в службу поддержки. Самое главное – даже если дополнительные ресурсы нужны вам только для каких-то пиковых нагрузок, то «железо» вы покупаете навсегда, беря на себя бремя его обслуживания и утилизации. А в облаке ресурсы приобретаются на конкретный срок, после чего объем потребляемых ресурсов падает, и никаких добавочных расходов вы не несете.

Третий важный аспект: планирование затрат. На нужды ИТ средств обычно выделяют немного по сравнению с другими подразделениями компании. Если речь идет о производстве, то основная сумма вложений приходится на базовые направления деятельности и существенно меньшая – на ИТ.

Затраты на облачную инфраструктуру и ее масштабирование запланировать проще, чем на физические ИТ-системы. Это, в свою очередь, облегчает составление и согласование бюджетов на ИТ.

Облака новых возможностей

При помощи облачных сервисов можно создавать самые разные цифровые решения и решать с их помощью любые бизнес-задачи. Это и тестовые среды, и распределенная ИТ-инфраструктура, и развертывание конкретных систем – ERP, бухучет и проч. Облака дают возможность бизнесу привести парк разношерстного ИТ-оборудования и сред к единому знаменателю, объединить их в гармоничную систему и обеспечить отказоустойчивость.

В самом общем виде главная польза облаков сегодня – гарантия защиты от простоев бизнеса по причине ИТ-сбоя, поскольку в облаках удобнее всего размещать резервную инфраструктуру.

Кроме того, в сезонных бизнесах пики нагрузки на ИТ возникают периодически. В таких случаях нужно либо заранее заказывать серверы и ближе к планируемому скачку нагрузки держать их «на низком старте», либо иметь доступ к быстро масштабируемым облачным ресурсам, которые можно задействовать ровно в тот момент, когда начнется рост их потребления. В облаке эти ресурсы оплачиваются по модели pay-as-you-go и без капитальных вложений.

Покупка или аренда?

Тем не менее что же выгоднее: покупка сервера и дальнейшие самостоятельные действия по виртуализации его ресурсов или аренда готового решения у провайдера?

Предположим, стоимость оборудования, необходимого для решения бизнес-задачи, составляет 25 млн руб., а стоимость аренды соответствующей ИТ-инфраструктуры на пять лет – 36 млн руб. Стандартный выбор бизнеса: 25 млн, потому что это дешевле.

Однако здесь есть нюансы.

Что входит в стоимость аренды? Будем рассматривать классическую модель OPEX, в которой за аренду вносится фиксированная ежемесячная плата, что позволяет сформировать график затрат на ближайшие пять лет.
Бизнес платит за удовлетворение своих ИТ-потребностей постепенно, параллельно наращивая мощности. Кроме того, провайдер в режиме 24 х 7 предоставляет техническую поддержку по всем вопросам виртуализации, и соответствующая задача снимается с ИТ-отдела.

Любимая составляющая работы ИТ-директоров – управление рисками. В модели аренды все риски перекладываются на подрядную организацию. Провайдер говорит компании: «Коллеги, мы берем все ИТ-риски на себя, сосредоточьтесь на своих основных бизнес-задачах». Внутренний ИТ-отдел в случае инцидента ни в чем не виноват.

Кроме того, аренда облачных ресурсов повышает доступность сервиса. Если бизнес арендует у провайдера все требуемые составляющие ИТ-инфраструктуры в необходимом объеме, можно быть уверенным в высокой доступности сервиса.

Окажется ли более выгодной покупка за 25 млн руб. оборудования с виртуализацией, которое станет вашей собственностью навсегда? Прежде всего отметим, что в эту сумму, как правило, не входит стоимость ПО для виртуализации ресурсов «железа». Часто об этом моменте при запросе стоимости забывают, тогда как необходимый софт вместе с поддержкой обойдется примерно в 3 млн руб.

Далее, поддержка и апгрейды «железа». В течение пяти лет неизбежно придется докупать оперативную память и жесткие диски. Это еще как минимум 2–3 млн руб.

Труд инженера поддержки: предположим, штатный ИТ-инженер в компании получает 100 тыс. руб. в месяц, а его полная «стоимость» с учетом налогов, отчислений, больничных и т.д. составляет уже около 150 тыс. руб. в месяц. За пять лет (60 месяцев) на этого специалиста вы потратите 9 млн руб.

Размещение оборудования. Если вы купили серверы и СХД, то вряд ли захотите (или будете иметь возможность) держать их в стенах офиса в отдельной комнате – это небезопасно, невыгодно и непрофессионально. Оборудование имеет смысл держать в ЦОДе в оптимальных для него условиях. Это еще 75 тыс. руб. ежемесячно, за 60 месяцев – 4,5 млн руб.

В результате стоимость владения оборудованием и ПО для виртуализации в течение пяти лет составит около 45 млн руб. Стоимость аренды виртуального сервера в облаке провайдера на тот же период времени оказывается меньше.

Не стоит забывать и о том, что, следуя модели CAPEX, вы вложили большую сумму в самом начале. Эти деньги можно было положить в банк и получать проценты или инвестировать в развитие компании, в новые бизнес-модели, которые могли бы принести вам доход и т.д. Кстати, этот неполученный доход также может выступать в роли альтернативных издержек в общем балансе компании.

Итог: за покупкой «железа» и ПО всегда стоят дополнительные расходы. Самое главное – в перспективе доступности сервиса должен учитываться апгрейд всей облачной инфраструктуры. То есть, по-хорошему, через пять лет бизнесу снова придется раскошеливаться на капитальные затраты (25 млн руб., а скорее всего, больше) или искать пути решения задачи в сегменте оборудования б/у со всеми рисками отказоустойчивости, совместимости, морального устаревания и т.д.

News and publications

You may also be interested in

Write to us

How we optimized customer data center management

Data center is a complex IT and engineering object, which requires professionalism at all levels of management: from managers to technical specialists and executors of maintenance works. Here's how we helped our client put operational management in corporate data centers in order.
 

Taras Chirkov, Head of Data Center in St. Petersburg  in St. Petersburg 

Konstantin Nagorny, chief engineer of data center in St. Petersburg.  in St. Petersburg 

Data center is a complex IT and engineering object, which requires professionalism at all levels of management: from managers to technical specialists and executors of maintenance works. Here's how we helped our client put operational management in corporate data centers in order.  

Management is in the lead 

The most advanced and expensive IT equipment will not bring the expected economic benefits if proper processes of engineering systems operation in the data center, where it is located, are not established.  

The role of reliable and productive data centers in today's economy is constantly growing along with the requirements for their uninterrupted operation. However, there is a big systemic problem on this front.  

A high level of "uptime" - failure-free operation of a data center without downtime - depends very much on the engineering team that manages the site. And there is no single formalized school of data center management.  

And there is no single formalized school of data center management.    

Nationwide  

In practice, the situation with the operation of data centers in Russia is as follows.  

Data centers in the commercial segment usually have certificates confirming their management competence. Not all of them do, but the very specifics of the business model, when a provider is responsible to the client for the quality of service, money and reputation in the market, obligates them to own the subject. 

The segment of corporate data centers that serve companies' own needs lags far behind commercial data centers in terms of operational quality. The internal customer is not treated as carefully as the external customer, not every company understands the potential of well-configured management processes. 

Finally, government departmental data centers - in this regard, they are often unknown territory due to their closed nature. An international audit of such facilities is understandably impossible. Russian state standards are just being developed.  

This all translates into a "who knows what" situation. "Diverse" composition of operation teams composed of specialists with different backgrounds, different approaches to the organization of corporate architecture, different views and requirements to IT departments.  

There are many factors that lead to this state of affairs, one of the most important is the lack of systematic documentation of operational processes. There are a couple of introductory articles by Uptime Institute which give an idea of the problem and how to overcome it. But then it's necessary to build the system by your own efforts. And not every business has enough resources and competence for that.  ⠀⠀  

Meanwhile, even a small systematization of management processes according to industry best practices always yields excellent results in terms of improving the resilience of engineering and IT systems.  

Case: through thorns to the relative order 

Let's illustrate by the example of an implemented project. A large international company with its own data center network approached us. The request was for help to optimize the management processes at three sites where IT systems and business-critical applications are deployed.  

The company had recently undergone an audit of its headquarters and received a list of inconsistencies with corporate standards with orders to eliminate them. We were brought in as a consultant for this as a bearer of industry competence: we have been developing our own data center management system and have been educating on the role of quality in operational processes for several years.  

Communication with the client's team began. The specialists wanted to get a well-established system of data center engineering systems operation, documented on the processes of monitoring, maintenance and troubleshooting. All this had to ensure optimization of the infrastructure component in terms of IT equipment continuity.  

And here began the most interesting part.  

Know thyself 

To assess the level of data centers in terms of compliance with standards, you need to know the exact requirements of the business to IT systems: what is the level of internal SLA, the allowable period of equipment downtime, etc.  

It became clear right away that the IT department did not know exactly what the business wanted. There were no internal criteria of service quality, no understanding of the logic of their own infrastructure.  

Colleagues simply had no idea what the permissible downtime for IT-related operations was, what the optimal system recovery time in case of a disaster was, or how the architecture of their own applications was structured. For example, we had to figure out whether a "crash" of one of the data centers would be critical to the application, or if there were no components affecting the application.  

Without knowing such things, it is impossible to calculate any specific operational requirements. The client recognized the problem and increased coordination between IT and the business to develop internal requirements and establish relationships to align operations.  

Once an understanding of the IT systems architecture was achieved, the team was able to summarize the requirements for operations, contractors, and equipment reliability levels.  

Improvements in the process 

Our specialists traveled to sites to assess infrastructure, read existing documentation, and checked the level of compliance of data center projects with actual implementation.  

Interviews with the responsible employees and their managers became a separate area of focus. They told what and how they do in different work situations, how the key processes of engineering systems' operation are arranged.  

After starting the work and getting acquainted with the specifics of the task the client "gave up" a little: we heard the request "just to write all the necessary documentation", quickly and without deep diving into the processes.  

However, proper optimization of data center "engineering" management implies the task to teach people to properly assess the processes and write unique documentation for them based on the specifics of the object.  

It is impossible to come up with a working document for a specific maintenance area manager - unless you work with him at the site continuously for several months. Therefore this approach was rejected: We found local leaders who were willing to learn themselves and lead their subordinates.  

Having explained the algorithm of documents creation, requirements to their contents and principles of instructions ecosystem organization, for the next six months we controlled the process of detailed writing of documentation and step-by-step transition of the personnel to work in a new way. 

This was followed by a phase of initial support for work on the updated regulations, which lasted one year in a remote format. Then we moved on to training and drills - the only way to put the new material into practice.  

What's been done 

In the process, we were able to resolve several serious issues.  

First of all, we avoided double documentation, which the client's employees feared. To this end, we combined in the new regulations the regulatory requirements applied to various engineering systems as standard (electrics, cooling, access control), with industry best practices, creating a transparent documentation structure with simple and logical navigation.   

The principle of "easy to find, easy to understand, easy to remember" was complemented by the fact that the new information was linked to the old experience and knowledge of the employees. 

Next, we reshuffled the staff of service engineers: several people turned out to be completely unprepared for the change. The resistance of some was successfully overcome in the course of the project through the demonstration of benefits, but a certain percentage of employees turned out to be untrained and unresponsive to new things.  

But we were surprised by the company's frivolous attitude to its IT infrastructure: from the lack of redundancy of critical systems to the chaos in the structure and management.  

In 1.5 years the engineering systems management processes have been pumped up to the level that allowed the company's specialists to successfully report "for quality" to the auditors from the headquarters.  

With the support of the operating component development pace the company will be able to pass any existing certification of data centers from leading international agencies.  

Summary 

In general, the prospects of consulting in the field of operational management of data centers, in our opinion, are the brightest.  

The process of digitalization of the economy and the public sector is in full swing. Yes, there will be a lot of adjustments in the launch of new projects and plans for the development of old ones, but this will not change the essence - the operation should be improved at least to improve the efficiency of already built sites.  

The main problem here: many managers do not understand what thin ice they are walking on, not paying proper attention to this point. The human factor is still the main source of the most unpleasant accidents and failures. And it needs to be explained.  

Government data center projects are also becoming more relevant now and require increased attention in terms of operations: the scope of government IT systems is growing. Here, too, the development and introduction of a system of standardization and certification of sites will be required.  

When the requirements to public data centers in Russia at the level of legislation will be reduced to a standard, it can be applied to commercial data centers, including for the placement of public IT resources.  

The work in this area is ongoing, we are participating in this process in consultation with the Ministry of Digital and by building competencies for teaching courses on data center operation at the ANO Data Center. There is not much experience on such tasks in Russia, and we believe that we should share it with colleagues and clients. 

Иметь или не иметь? Покупать или арендовать ИТ-ресурсы?

BEST, money transfer and payments operator

business challenge

The customer faced a technical issue with a persistent BGP session flag with Linxdatacenter hardware. We examined the problem and found out that one of customer’s hosts was under a DDoS attack.

Because of the distributed nature of the attack, traffic couldn’t be filtered effectively, and disconnecting the host from the external network wasn’t an option. The attack stopped after changes in the server configuration, but resumed the day after. A 5.5 Gbps attack overloaded the junctions with internet providers, affecting other Linx Cloud users. To mitigate the effects of the attack, we employed a dedicated DDoS protection service.

Solution

To ensure the continuous availability of resources hosted in Linx Cloud, we rerouted all the customer’s traffic through StormWall Anti-DDoS system. The attack was stopped within half an hour. To prevent future cyberattacks, we organized all connections to the customer’s resources through the StormWall network.

client:

BEST, money transfer and payments operator

business challenge

The customer faced a technical issue with a persistent BGP session flag with Linxdatacenter hardware. We examined the problem and found out that one of customer’s hosts was under a DDoS attack.

Because of the distributed nature of the attack, traffic couldn’t be filtered effectively, and disconnecting the host from the external network wasn’t an option. The attack stopped after changes in the server configuration, but resumed the day after. A 5.5 Gbps attack overloaded the junctions with internet providers, affecting other Linx Cloud users. To mitigate the effects of the attack, we employed a dedicated DDoS protection service.

Solution

To ensure the continuous availability of resources hosted in Linx Cloud, we rerouted all the customer’s traffic through StormWall Anti-DDoS system. The attack was stopped within half an hour. To prevent future cyberattacks, we organized all connections to the customer’s resources through the StormWall network.

Thank you for your inquiry, we will get back to you shortly!