пїЅпїЅпїЅпїЅпїЅпїЅпїЅпїЅпїЅпїЅ-пїЅпїЅпїЅпїЅпїЅпїЅпїЅпїЅпїЅпїЅпїЅпїЅ пїЅпїЅпїЅпїЅ
Слишком длинный поисковый запрос.
По вашему запросу ничего не найдено :(
Убедитесь, что запрос написан правильно, или посмотрите другие
наши статьи:
Инструменты командной строки, такие как top, затрудняют мониторинг использования процессора и памяти. Поэтому сегодня мы представляем вам vtop - бесплатный и с открытым исходным кодом, простой, но в то же время мощный и расширяемый инструмент мониторинга активности терминала, написанный на Node.js.
Он разработан для того, чтобы пользователи могли легко просматривать загруженность процессора при использовании многопроцессорных приложений (те, которые имеют мастер-процесс и дочерние процессы, например, NGINX, Apache, Chrome и т.д.). vtop также позволяет легко увидеть всплески сверхурочного функционирования памяти, а также потребление памяти.
vtop использует символы Unicode шрифта Брайля для построения и отображения графиков использования процессора и памяти, что помогает визуализировать скачки. Кроме того, он группирует процессы с одним и тем же именем (мастер и все дочерние процессы) вместе.
В этой статье вы узнаете, как установить инструмент мониторинга vtop в Linux.
Установка vtop в Linux-системах
Требования: в качестве предварительного условия в вашей системе должны быть установлены Node.js и NPM.
После того, как на вашей системе установлены Node.js и NPM, запустите следующую команду для установки vtop. При необходимости используйте команду sudo для получения root прав при установке пакета.
sudo npm install -g vtop
После установки vtop выполните следующую команду, чтобы запустить его.
vtop
Ниже приведены сочетания клавиш vtop, нажав:
u - обновления до последней версии vtop.
k или стрелка вверх перемещает процесс вверх по списку.
j или стрелка вниз перемещает процесс вниз по списку.
g перемещает вас вверх по списку процессов.
G перемещает вас в конец списка.
dd убивает все процессы в этой группе (сначала нужно выбрать имя процесса).
Чтобы изменить цветовую схему, используйте переключатель --theme. Вы можете выбрать любую из доступных тем (такие как: acid, becca, brew, certs, dark, gooey, gruvbox, monokai, nord, parallax, seti, и wizard)
К примеру:
vtop --theme wizard
Для установки интервала между обновлениями (в миллисекундах) используйте --update-interval. В данном примере 20 миллисекунд эквивалентно 0.02 секунды:
vtop --update-interval 20
Вы также можете настроить завершение работы vtop через несколько секунд, используя опцию --quit-after, как показано ниже.
vtop --quit-after 5
Чтобы получить справку по vtop, запустите следующую команду.
vtop -h
vtop имеет множество функций, включая выполнение измерений запросов сервера, запись логов и так далее.
В этой статье мы рассмотрим механизмы масштабируемости BGP и связанные с ними концепции.
Предыдущие статьи цикла про BGP:
Основы протокола BGP
Построение маршрута протоколом BGP
Формирование соседства в BGP
Оповещения NLRI и политики маршрутизации BGP
Видео: Основы BGP за 7 минут
Механизмы масштабируемости BGP
Истощение доступных автономных системных номеров явилось проблемой точно так же, как было проблемой для интернета истощение IP-адресов. Чтобы решить эту проблему, инженеры обратились к знакомому решению. Они обозначили диапазон номеров AS только для частного использования. Это позволяет вам экспериментировать с AS конструкцией и политикой, например, в лаборатории и использовать числа, которые гарантированно не конфликтуют с интернет-системами.
Помните, что число AS-это 16-разрядное число, допускающее до 65 536 чисел AS. Диапазон для частного использования: 64512-65535.
Еще одним решением проблемы дефицита, стало расширение адресного пространства имен. Было утверждено пространство, представляющее собой 32-разрядное число.
В течение длительного времени, с точки зрения масштабируемости, одноранговые группы Border Gateway Protocol считались абсолютной необходимостью. Мы настраивали одноранговые группы для уменьшения конфигурационных файлов. Так же мы настраивали одноранговые группы для повышения производительности.
Преимущества производительности были нивелированы с помощью значительно улучшенных механизмов, сейчас. Несмотря на это, многие организации все еще используют одноранговые группы, поскольку они поняты и легки в настройке.
Появились в BGP одноранговые группы для решения нелепой проблемы избыточности в BGP конфигурации. Рассмотрим простой (и очень маленький) пример 1. Даже этот простой пример отображает большое количество избыточной конфигурации.
Пример 1: типичная конфигурация BGP без одноранговых групп
ATL1(config)#router bgp 200
ATL1( config-router)#neiqhbor 10.30.30.5 remote-as 200
ATL1( config-router)#neiqhbor 10.30.30.5 update- source lo0
ATL1( config= router)#neiqhbor 10.30 .30.5 password S34Dfr112s1WP
ATL1(config-router)#neiqhbor 10.40.40.4 remote-as 200
ATL1( config-router)#neiqhbor 10.40.40 .4 update- source lo0
ATL1(config-router)#neiqhbor 10.40.40.4 password S34Dfr112s1WP
Очевидно, что все команды настройки относятся к конкретному соседу. И многие из ваших соседей будут иметь те же самые характеристики. Имеет смысл сгруппировать их настройки в одноранговую группу. Пример 2 показывает, как можно настроить и использовать одноранговую группу BGP.
Пример 2: одноранговые группы BGP
ATL2 (config)#router bgp 200
ATL2 (config-router)#neighbor MYPEERGR1 peer-group
ATL2 (config-router)#neighbor MYPEERGR1 remote-as 200
ATL2 (config-router)#neighbor MYPEERG1l update-source lo0
ATL2(config-router)#neighbor MYPEERGRl next-hop-self
ATL2 (config-router)#neighbor 10.40.40 .4 peer-group MYPEERGR1
ATL2 (config-router)#neighbor 10.50.50 .5 peer-group MYPEERGR1
Имейте в виду, что, если у вас есть определенные настройки для конкретного соседа, вы все равно можете ввести их в конфигурацию, и они будут применяться в дополнение к настройкам одноранговой группы.
Почему же так часто использовались одноранговые группы? Они улучшали производительность. Собственно говоря, это и было первоначальной причиной их создания.
Более современный (и более эффективный) подход заключается в использовании шаблонов сеансов для сокращения конфигураций. А с точки зрения повышения производительности теперь у нас есть (начиная с iOS 12 и более поздних версий) динамические группы обновлений. Они обеспечивают повышение производительности без необходимости настраивать что-либо в отношении одноранговых групп или шаблонов.
Когда вы изучаете одноранговую группу, вы понимаете, что все это похоже на шаблон для настроек. И это позволит вам использовать параметры сеанса, а также параметры политики. Что ж, новая и усовершенствованная методология разделяет эти функциональные возможности на шаблоны сессий и шаблоны политики.
Благодаря шаблонам сеансов и шаблонам политик мы настраиваем параметры, необходимые для правильной установки сеанса, и помещаем эти параметры в шаблон сеанса. Те параметры, которые связаны с действиями политик, мы помещаем в шаблон политики.
Одна из замечательных вещей в использовании этих шаблонов сеансов или политик, а также того и другого, заключается в том, что они следуют модели наследования. У вас может быть шаблон сеанса, который выполняет определенные действия с сеансом. Затем вы можете настроить прямое наследование так, чтобы при создании другого наследования оно включало в себя вещи, созданные ранее. Эта модель наследования дает нам большую гибкость, и мы можем создать действительно хорошие масштабируемые проекты для реализаций BGP.
Вы можете использовать шаблоны или одноранговые группы, но это будет взаимоисключающий выбор. Так что определитесь со своим подходом заранее. Вы должны заранее определиться, что использовать: использовать ли устаревший подход одноранговых групп или же использовать подход шаблонов сеанса и политики. После выбора подхода придерживайтесь его, так как, использовать оба подхода одновременно нельзя.
Теперь можно предположить, что конфигурация для шаблонов сеансов будет довольно простой, и это так. Помните, прежде всего, все что мы делаем здесь и сейчас, относится к конкретной сессии. Поэтому, если мы хотим установить timers, нам нужно установить remote-as – и это будет считается параметром сеанса.
Например, мы делаем update source. Мы настраиваем eBGP multihop. Все это имеет отношение к текущему сеансу, и именно это мы будем прописывать в шаблоне сеанса. Обратите внимание, что мы начинаем с создания шаблона. Поэтому используем команду template peer-session, а затем зададим ему имя. И тогда в режиме конфигурации шаблона можем настроить наследование, которое позволит наследовать настройки от другого однорангового сеанса. Можем установить наш remote-as как и/или update source. После завершения, мы используем команду exit-peer-session, чтобы выйти из режима конфигурации для этого сеанса. Пример 3 показывает конфигурацию шаблона сеанса.
Пример 3: Шаблоны сеансов BGP
ATL2#conf t
Enter configuration commands, one per line. End with CNTL/Z.
ATL2 (config)#router bgp 200
ATL2 (config-router)#template peer- session MYNAME
ATL2 (config-router-stmp)#inherit peer- session MYOTHERNAME
ATL2 (config- router-stmp )#remote-as 200
ATL2(config-router-stmp )#password MySecrectPass123
ATL2 (config-router-stmp )#exit-peer-session
ATL2 (config-router)#neiqhbor 10.30.30 .10 inherit peer-session MYNAME
ATL2 (config-router)#end
ATL2#
Это простой пример настройки соседства с помощью оператора neighbor и использования наследования однорангового сеанса. Затем присваивается имя однорангового сеанса, созданного нами для нашего шаблона сеанса. Это соседство наследует параметры сеанса.
Помните, что, если вы хотите сделать дополнительную настройку соседства, можно просто присвоить соседу IP-адрес, а затем выполнить любые настройки вне шаблона однорангового сеанса, которые вы хотите дать этому соседу. Таким образом, у вас есть та же гибкость, которую мы видели с одноранговыми группами, где вы можете настроить индивидуальные параметры для этого конкретного соседа вне шаблонного подхода этого соседства.
Вы можете подумать, что шаблоны политик будут иметь сходную конструкцию и использование с шаблонами сеансов, и вы будете правы. Помните, что если ваши шаблоны сеансов находятся там, где мы собираемся настроить параметры, которые будут относиться к сеансу BGP, то, конечно, шаблоны политик будут храниться там, где мы храним параметры, которые будут применяться к политике.
Пример 4 показывает настройку и использование шаблона политики BGP.
Пример 4: Шаблоны политики BGP
ATL2#conf t
Enter configuration commands, one per line. End with CNTL/Z.
ATL2 (config)#router bgp 200
ATL2(config-router)#template peer-policy MYPOLICYNAME
ATL2 (config-router-ptmp )#next-hop-self
ATL2 (config-router-ptmp )#route-map MYMAP out
ATL2 (config-router-ptmp )#allowas-in
ATL2 (config-router-ptmp )#exit-peer-policy
ATL2 (config-router)#neighbor 10.40.40.10 remote-as 200
ATL2 (config-router)#neighbor 10.40.40.10 inherit peer-policy MYNAME
ATL2 (config-router)#end
ATL2#
Да, все эти параметры, которые мы обсуждали при изучении манипуляций с политикой, будут тем, что мы будем делать внутри шаблона политики. Однако одним из ключевых отличий между нашим шаблоном политики и шаблоном сеанса является тот факт, что наследование здесь будет еще более гибким.
Например, мы можем перейти к семи различным шаблонам, от которых мы можем непосредственно наследовать политику. Это дает нам еще более мощные возможности наследования с помощью шаблонов политик по сравнению с шаблонами сеансов.
Опять же, если мы хотим сделать независимые индивидуальные настройки политики для конкретного соседа, мы можем сделать это, добавив соответствующие команды соседства.
Благодаря предотвращению циклов и правилу разделения горизонта (split-horizon rule) IBGP, среди прочих факторов, нам нужно придумать определенные решения масштабируемости для пирингов IBGP. Одним из таких решений является router reflector.
Рис. 1: Пример топологии router reflector
Конфигурация router reflector удивительно проста, поскольку все это обрабатывается на самом router reflector (R3). Клиенты route reflector – это R4, R5 и R6. Они совершенно не знают о конфигурации и настроены для пиринга IBGP с R3 как обычно. Пример 5 показывает пример конфигурации router reflector. Обратите внимание, что это происходит через простую спецификацию клиента router reflector.
Пример 5: BGP ROUTE REFLECTOR
R3#configure terminal
Enter configuration commands, one per line. End with CNTL/Z.
R3 (config)#router bgp 200
R3 (config-router)#neighbor 10.50.50.10 remote -as 200
R3 (config-router)#neighbor 10.50.50.10 route-reflector-client
R3 (config-router)#end
R3#
Route reflector автоматически создает значение идентификатора (ID) кластера для кластера, и это устройство и эти клиенты будут частью того, что мы называем кластером route reflector. Cisco рекомендует разрешить автоматическое назначение идентификатора кластера для идентификации клиента. Это 32-разрядный идентификатор, который BGP извлекает из route reflector.
Магия Route reflector заключается в том, как меняются правила IBGP. Например, если обновление поступает от клиента Route reflector (скажем, R4), то устройство R3 «отражает» это обновление своим другим клиентам (R5 и R6), а также своим неклиентам (R1 и R2). Это обновление происходит даже при том, что конфигурация для IBGP значительно короче полной сетки пирингов, которая обычно требуется.
А теперь что будет, если обновление поступит от не клиента Route reflector (R1)? Route reflector отправит это обновление всем своим клиентам Route reflector (R4, R5 и R6). Но тогда R3 будет следовать правилам IBGP, и в этом случае он не будет отправлять обновление через IBGP другому не клиенту Route reflector (R2).
Чтобы решить эту проблему, необходимо будет создать пиринг от R1 к устройству R2 с помощью IBGP. Или, можно добавить R2 в качестве клиента Route reflector R3.
Есть еще один способ, которым мы могли бы решить проблему с масштабируемостью IBGP- это манипулирование поведением EBGP. Мы делаем это с конфедерациями. Вы просто не замечаете, что конфедерации используются так же часто, как Route reflector. И причина состоит в том, что они усложняют нашу топологию, и делают поиск неисправностей более сложным. На рис. 2 показан пример топологии конфедерации.
Рисунок 2: Пример топологии конфедерации
Мы имеем наш AS 100. Для создания конфедерации необходимо создать небольшие субавтономные системы внутри нашей основной автономной системы. Мы их пронумеруем с помощью, номеров автономных систем только для частного использования.
Что мы имеем, когда манипулируем поведением eBGP, что бы имеет конфедерацию EBGP пирингов? Это позволяет нам установить пиринги между соответствующими устройствами, которые хотим использовать в этих автономных системах. Как вы можете догадаться, они не будут следовать тем же правилам, что и наши стандартные пиринги EBGP. Еще один важный момент заключается в том, что все это для внешнего неконфедеративного мира выглядит просто как единый AS 100.
Внутри мы видим реальные AS, и конфедеративные отношения EBGP между ними. Помимо устранения проблемы разделения горизонта IBGP, что же меняется с пирингами конфедерации EBGP? В следующем прыжке поведение должно измениться. Следующий прыжок не меняется тогда, когда мы переходим от одной из этих небольших конфедераций внутри нашей АС к другой конфедерации.
Вновь добавленные атрибуты обеспечивают защиту от цикла из-за конфедерации. Атрибут AS_confed_sequence и AS_confed_set используются в качестве механизмов предотвращения циклов.
Пример 6 показывает пример частичной настройки конфедерации BGP.
R3#configure terminal
Enter configuration commands, one per line. End with CNTL/Z.
R3 (config)#router bgp 65501
R3(config-router)#bgp confederation identifier 100
R3 (config-router)#bgp confederation peers 65502
R3 (config-router)#neighbor 10 .20.20.1 remote-as 65502
R3 (config-router)#end
R3#
Иногда возникает необходимость применения общих политик к большой группе префиксов. Это делается легко, если вы помечаете префиксы специальным значением атрибута, называемым сообществом (community). Обратите внимание, что сами по себе атрибуты сообщества ничего не делают с префиксами, кроме как прикрепляют значение идентификатора. Это 32-разрядные значения (по умолчанию), которые мы можем именовать, чтобы использовать дополнительное значение.
Вы можете настроить значения сообщества таким образом, чтобы они были значимы только для вас или значимы для набора AS. Вы также можете иметь префикс, который содержит несколько значений атрибутов сообщества. Кроме того, можно легко добавлять, изменять или удалять значения сообщества по мере необходимости в вашей топологии BGP.
Атрибуты сообщества могут быть представлены в нескольких форматах. Более старый формат выглядит следующим образом:
Decimal - 0 to 4294967200 (в десятичном)
Hexadecimal – 0x0 to 0xffffffa0 (в шестнадцатеричном)
Более новый формат:
AA:NN
AA - это 16-битное число, которое представляет ваш номер AS, а затем идет 16-битное число, используемое для задания значимости своей политике AS. Таким образом, вы можете задать для AS 100 100:101, где 101- это номер внутренней политики, которую вы хотите применить к префиксам.
Есть также хорошо известные общественные значения. Это:
No-export - префиксы не объявляются за пределами AS. Вы можете установить это значение, когда отправляете префикс в соседний AS. чтобы заставить его (соседний AS) не объявлять префикс за собственные границы.
Local-AS - префиксы с этим атрибутом сообщества никогда не объявляются за пределами локального AS
No-advertise - префиксы с этим атрибутом сообщества не объявляются ни на одном устройстве
Эти хорошо известные атрибуты сообщества просто идентифицируются по их зарезервированным именам.
Есть также расширенные сообщества, которые также можно использовать. Они предлагают 64-битную версию для идентификации сообществ! Задание параметров осуществляется настройкой TYPE:VALUE. Выглядит оно следующим образом:
65535:4294967295
Как вы можете догадаться, мы устанавливаем значения сообщества, используя route maps. Пример 7 показывает пример настроек. Обратите внимание, что в этом примере также используется список префиксов. Они часто используются в BGP для гибкой идентификации многих префиксов. Они гораздо более гибки, чем списки доступа для этой цели.
Пример 7: Установка значений сообщества в BGP
R3#configure terminal
Enter configuration commands, one per line. End with CNTL/Z.
R3(config)#ip prefix-list MYLIST permit 172.16.0.0/16 le 32
R3(config)#route-map SETCOMM permit 10
R3(config-route-map)#match ip address prefix-list MYLIST
R3(config-route-map)#set community no-export
R3(config-route-map)#route-map SETCOMM permit 20
R3(config)#router bgp 100
R3(config-router)#neighbor 10.20.20.1 route-map SETCOMM out
R3 (config-router)#neighbor 10.20.20.1 send-community
R3(config-router)#end
R3#
Что такое оркестрация контейнеров?
Контейнерные платформы, такие как Docker, в настоящее время очень популярны для упаковки приложений, основанных на микросервисной архитектуре. Контейнеры можно сделать высокомасштабируемыми, которые можно создавать по требованию. Это удобно, когда речь идет о нескольких контейнерах, но представьте, что у вас их сотни.
Управление жизненным циклом контейнера и управление самим контейнером становится чрезвычайно трудным, когда число постоянно увеличивается по мере увеличения спроса.
Оркестрация контейнеров решает проблему за счет автоматизации планирования, развертывания, масштабируемости, балансировки нагрузки, доступности и организации сетей контейнеров. Оркестрация контейнеров - это автоматизация и управление жизненным циклом контейнеров и услуг.
Это процесс управления и организации архитектуры нескольких контейнеров и микросервисов в масштабе.
К счастью, на рынке имеется много инструментов для оркестрации контейнеров. Давайте рассмотрим их!
Что такое DevOps, что нужно знать и сколько получают DevOps - специалисты?
1. Kubernetes
Kubernetes - платформа с открытым исходным кодом, изначально разработанная Google и в настоящее время поддерживаемая Cloud Native Computing Foundation. Kubernetes поддерживает как декларативную конфигурацию, так и автоматизацию. Это может помочь автоматизировать развертывание, масштабирование и управление контейнерной рабочей нагрузкой и услугами.
API Kubernetes помогает установить связь между пользователями, компонентами кластера и внешними компонентами сторонних производителей. Уровень управления Kubernetes и сами узлы выполняются на группе узлов, которые вместе образуют кластер. Рабочая нагрузка приложения состоит из одного или нескольких модулей, которые выполняются на узле (узлах) Worker. Уровень управления контролирует группы контейнеров (Pod-ы) и рабочие узлы.
Такие компании, как Babylon, Booking.com, AppDirect широко используют Kubernetes.
Особенности
Обнаружение служб и балансировка нагрузки
Оркестрация системы хранения данных
Автоматизированные развертывания и откаты
Горизонтальное масштабирование
Управление секретом и конфигурацией
Самовосстановление
Пакетное выполнение
Двойной стек IPv4/IPv6
Автоматическая упаковка ячеек
2. OpenShift
Redhat предлагает OpenShift Container Platform как сервис (PaaS). Он помогает автоматизировать приложения на безопасных и масштабируемых ресурсах в гибридных облачных средах. Он предоставляет платформы корпоративного уровня для создания, развертывания и управления контейнерными приложениями.
Сервис построен на движке Redhat Enterprise Linux и Kubernetes. Openshift имеет различные функциональные возможности для управления кластерами через интерфейс пользователя и интерфейс командной строки. Redhat предоставляет Openshift еще в двух вариантах,
Openshift Online - предлагается как программное обеспечение в качестве услуги (SaaS)
Выделенный OpenShift - предлагается как управляемые услуги
Openshift Origin (Origin Community Distribution) - родительский проект сообщества с открытым исходным кодом, который используется в OpenShift Container Platform, Openshift Online и OpenShift Distributed.
3. Nomad
Nomad - это удобный, гибкий и простой в использовании оркестратор рабочей нагрузки для развертывания контейнеров и неконтейнерных приложений и управления ими не зависимо от того расположены они в облачной или в локальной среде. Nomad работает как единый двоичный файл с небольшим ресурсом (35MB) и поддерживается в macOS, Windows, Linux.
Разработчики используют декларативную инфраструктуру как код (IaC) для развертывания своих приложений и определяют способ развертывания приложения. Nomad автоматически восстанавливает приложения после сбоев.
Nomad подходит для оркестрации любого типа приложений (не только контейнеры). Она обеспечивает первоклассную поддержку Docker, Windows, Java, виртуальных машин и многого другого.
Особенности
Простота и надежность
Модернизация устаревших приложений без перезаписи
Проверенная масштабируемость
Поддержка работы с несколькими облаками
Встроенная интеграция с Terraform, Consul и Vault
4. Docker Swarm
Docker Swarm использует декларативную модель. Можно определить требуемое состояние службы, и Docker будет поддерживать это состояние. Docker Enterprise Edition интегрировал Kubernetes с Swarm. Docker теперь обеспечивает гибкость в выборе движка оркестровки. Интерфейс командной строки Docker Engine используется для создания роя Docker движков, в которых могут быть развернуты службы приложений.
Для взаимодействия с кластером используются команды Docker. Машины, которые присоединяются к кластеру, называются узлами, а управление действиями кластера осуществляет менеджер Swarm.
Docker Swarm состоит из двух основных компонентов:
Менеджер (Manager) узлы-менеджеры назначают задачи рабочим узлам роя. Лидер избирается на основе консенсусного алгоритма Рафта. Руководитель обрабатывает все решения по управлению роем и оркестровке задач для роя.
Рабочий узел - рабочий узел получает задачи от узла менеджера и выполняет их.
Особенности
Управление кластерами, интегрированное с Docker Engine
Децентрализованное проектирование
Декларативная модель службы
Масштабирование
Выверка требуемого состояния
Многосерверная сеть
Обнаружение услуг
Балансировка нагрузки
Безопасность по умолчанию
Скользящие обновления
5. Docker Compose
Docker Compose предназначен для определения и запуска многопоточных приложений, работающих вместе. Docker-compose описывает группы взаимосвязанных служб, которые совместно используют программные зависимости, и организованы и масштабированы вместе.
Для настройки служб приложения можно использовать файл YAML (dockerfile). Затем с помощью команды docker-compose up можно создать и запустить все службы из конфигурации.
docker-compose.yml выглядит следующим образом:
version: '3'
volumes:
app_data:
services:
elasticsearch:
image: docker.elastic.co/elasticsearch/elasticsearch:6.8.0
ports:
- 9200:9200
- 9300:9300
volumes:
- ./elasticsearch.yml:/usr/share/elasticsearch/config/elasticsearch.yml
- ./elastic-certificates.p12:/usr/share/elasticsearch/config/elastic-certificates.p12
- ./docker-data-volumes/elasticsearch:/usr/share/elasticsearch/data
kibana:
depends_on:
- elasticsearch
image: docker.elastic.co/kibana/kibana:6.8.0
ports:
- 5601:5601
volumes:
- ./kibana.yml:/usr/share/kibana/config/kibana.yml
app:
depends_on:
- elasticsearch
image: asadali08527/app:latest
ports:
- 8080:8080
volumes:
- app_data:/var/lib/app/
С помощью Docker Compose можно включить код приложения в несколько независимо работающих служб, которые взаимодействуют с помощью внутренней сети. Инструмент предоставляет интерфейс командной строки для управления всем жизненным циклом приложений. Docker Compose традиционно был сосредоточен на разработке и тестировании рабочих процессов, но сейчас они фокусируются на более ориентированных на производство функциях.
Docker Engine может быть автономным экземпляром, подготовленным с помощью Docker Machine, или целым кластером Docker Swarm.
Особенности
Несколько изолированных сред на одном хосте
Сохранять данные тома при создании контейнеров
Воссоздавать только измененные контейнеры
Переменные и перемещение композиции между средами
6. MiniKube
Minikube позволяет пользователям запускать Kubernetes локально. С помощью Minikube можно локально тестировать приложения внутри одноузлового кластера Kubernetes на персональном компьютере. В Minikube интегрирована поддержка Kubernetes Dashboard.
Minikube работает под управлением последнего стабильного выпуска Kubernetes и поддерживает следующие функции:
Балансировка нагрузки
Мультигруппа
Постоянные тома
NodePorts
Конфигурационные карты и секреты
Container Runtime: Docker, CRI-O
Включение CNI (интерфейс контейнерной сети)
7. Marathon
Marathon предназначен для Apache Mesos, который может организовывать как приложения, так и фреймворки.
Apache Mesos - менеджер кластеров с открытым исходным кодом. Mesos - проект компании Apache, способный выполнять как контейнерные, так и неконтейнерные рабочие нагрузки. Основными компонентами в кластере Mesos являются узлы-агенты Mesos, Mesos мастер, ZooKeeper, фреймворки. Фреймворки вместе с мастером создают расписание заданий для узлов-агентов. Разработчики используют платформу Marathon в основном для планирования заданий.
Планировщик Marathon использует ZooKeeper для поиска текущего хозяина для отправки заданий. Планировщик Marathon и мастер имеют второго мастера, чтобы обеспечить высокую доступность. Клиенты взаимодействуют с Marathon с помощью REST API.
Особенности
Высокая доступность
Приложения с отслеживанием состояния
Красивый и мощный пользовательский интерфейс
Ограничения
Обнаружение служб и балансировка нагрузки
Проверки работоспособности
Подписка на событие
Метрики
API REST
8. Cloudify
Cloudify - облачное средство оркестровки с открытым исходным кодом для автоматизации развертывания и управления жизненным циклом контейнеров и микросервисов. Она предоставляет такие функции, как кластеры по требованию, автоматическое восстановление и масштабирование на уровне инфраструктуры. Cloudify может управлять контейнерной инфраструктурой и управлять службами, работающими на контейнерных платформах.
Его можно легко интегрировать с менеджерами контейнеров на базе Docker и самим Docker, включая следующие:
Docker
Docker Swarm
Docker Composes
Kubernetes
Apache Mesos
Cloudify помогает создавать, восстанавливать, масштабировать и удалять кластеры контейнеров. Оркестровка контейнеров является ключевым фактором в обеспечении масштабируемой и высокодоступной инфраструктуры, на которой могут работать менеджеры контейнеров. Cloudify обеспечивает возможность управления разнородными службами между платформами. Приложения можно развернуть с помощью CLI и Cloudify Manager.
9. Rancher
Rancher - платформа с открытым исходным кодом, использующая оркестровку контейнеров, известную как скот. Он позволяет использовать такие службы оркестрации, как Kubernetes, Swarm, Mesos. Rancher предоставляет программное обеспечение, необходимое для управления контейнерами, чтобы организациям не требовалось создавать платформы контейнерных услуг с нуля, используя отдельный набор технологий с открытым исходным кодом.
Rancher 2.x позволяет управлять кластерами Kubernetes, работающими на указанных клиентом поставщиках.
Начало работы с Rancher - это двухшаговый процесс.
Подготовка хоста Linux
Подготовьте узел Linux с 64-разрядным Ubuntu 16.04 или 18.04 (или другим поддерживаемым дистрибутивом Linux, и не менее 4GB памяти. Установите поддерживаемую версию Docker на узел.
Запуск сервера
Чтобы установить и запустить Rancher, выполните следующую команду Docker на хосте:
$ sudo docker run -d --restart=unless-stopped -p 80:80 -p 443:443 rancher/rancher
Пользовательский интерфейс Rancher позволяет управлять тысячами кластеров и узлов Kubernetes.
10. Containership
Containership предназначен для развертывания инфраструктуры Kubernetes с несколькими облаками и управления ею. Он гибок в работе с общедоступными, частными облачными средами и локальными средами с помощью единого инструмента. Он позволяет обслуживать, управлять и контролировать кластеры Kubernetes всех основных облачных провайдеров.
Containership построена с использованием облачных инструментов, таких как Terraform для выделения ресурсов, Prometheus для мониторинга и Calico для управления сетями и политиками. Он построен на чистом Kubernetes. Платформа Containership предлагает интуитивно понятную панель управления, а также мощный REST API для коплексной автоматизации.
Особенности
Панель управления с поддержкой нескольких облачных платформ
Журналы аудита
Поддержка экземпляра графического процессора
Модернизация без прерывания работы
Запланированные шаблоны
Интегрированные метрики
Ведение журнала в реальном времени
Развертывание с нулевым временем простоя
Поддержка постоянных хранилищ
Поддержка частных реестров
Автоматическое масштабирование рабочей нагрузки
Управление ключами SSH
11. AZK
AZK - это инструмент оркестровки с открытым исходным кодом для сред разработки через файл манифеста (Azkfile.js), который помогает разработчикам устанавливать, настраивать и запускать часто используемые инструменты для разработки веб-приложений с различными технологиями с открытым исходным кодом.
AZK использует контейнеры вместо виртуальных машин. Контейнеры подобны виртуальным машинам с более высокой производительностью и более низким потреблением физических ресурсов.
Файлы Azkfile.js можно повторно использовать для добавления новых компонентов или создания новых с нуля. Он может использоваться совместно, что обеспечивает полный паритет между средами разработки на разных машинах программистов и снижает вероятность ошибок во время развертывания.
12. GKE
GKE предоставляет полностью управляемое решение для оркестровки контейнерных приложений на Google Cloud Platform. Кластеры GKE созданы на основе Kubernetes. Вы можете взаимодействовать с кластерами с помощью Kubernetes CLI. Команды Kubernetes можно использовать для развертывания приложений и управления ими, выполнения задач администрирования, установки политик и мониторинга работоспособности развернутых рабочих нагрузок.
Расширенные функции управления Google Cloud также доступны с кластерами GKE, такими как балансировка нагрузки Google Cloud, пулы узлов, автоматическое масштабирование узлов, автоматическое обновление, автоматическое восстановление узлов, ведение журнала и мониторинг с помощью операционного пакета Google Cloud.
Google Cloud предоставляет инструменты CI/CD, помогающие создавать и обслуживать контейнеры приложений. Cloud Build можно использовать для создания образов контейнеров (например, Docker) из различных репозиториев исходного кода, а Container Registry - для хранения образов контейнеров.
GKE - готовое для предприятия решение с предварительно разработанными шаблонами развертывания.
13. AKS
AKS является полностью управляемым сервисом Kubernetes, предлагаемым Azure, который предлагает безсерверные Kubernetes, безопасность и управление. AKS управляет кластером Kubernetes и позволяет легко развертывать контейнерные приложения. AKS автоматически настраивает все главные и подчиненные узлы Kubernetes. Необходимо только управлять узлами агента и выполнять их обслуживание.
AKS бесплатен; вы платите только за узлы агентов в кластере, а не за мастер узеал. Кластер AKS можно создать на портале Azure или программно. Azure также поддерживает дополнительные функции, такие как расширенные сетевые возможности, интеграция Azure с Active Directory и мониторинг с помощью Azure Monitor.
AKS также поддерживает контейнеры Windows Server. Производительность кластера и развернутых приложений можно контролировать с помощью Azure Monitor. Журналы хранятся в рабочей области Azure Log Analytics.
AKS сертифицирован как как совместимый с Kubernetes.
14. AWS EKS
AWS EKS - полностью управляемый сервис Kubernetes. AWS позволяет запускать кластер EKS с помощью AWS Fargate, который является безсерверной мощностью для контейнеров. Fargate устраняет необходимость в выделении ресурсов и управлении серверами, позволяя платить за ресурс за приложение.
AWS позволяет использовать дополнительные функции EKS, такие как Amazon CloudWatch, Amazon Virtual Private Cloud (VPC), AWS Identity, группы автоматического масштабирования и управление доступом (IAM), приложения мониторинга, масштабирования и балансировки нагрузки. EKS интегрируется с сеткой AWS App и предлагает собственный опыт Kubernetes. EKS работает под управлением последнего Kubernetes и сертифицирован как совместимый с Kubernetes
Заключение
Надеемся, что приведенный выше список дал общее представление о различных инструментах оркестрации контейнеров, и теперь в зависимости от ваших требований, будет легче выбрать подходящий.
