😡 А вас тоже бесят облачные сервисы?
Согласитесь, статус отношений с облаками — все сложно. Но что, если можно изменить правила игры?
Мы готовим нечто особенное в мире облачных технологий, но сначала хотим услышать правду от тех, кто реально работает с облаками каждый день.
❓Что мы хотим узнать:
— Для чего вы реально используете облако?
— Чего катастрофически не хватает прямо сейчас?
— Что бесит больше всего? (можно материться)
— Как выбираете провайдера — по цене или по любви?
— и тому подобное
По результатам опроса мы подготовим исследование без маркетингового мусора и вы узнаете, как обстоят дела у коллег.
⚡️Время на опрос: меньше, чем на кофе-брейк. Жмите → https://clc.to/nboYDA
Согласитесь, статус отношений с облаками — все сложно. Но что, если можно изменить правила игры?
Мы готовим нечто особенное в мире облачных технологий, но сначала хотим услышать правду от тех, кто реально работает с облаками каждый день.
❓Что мы хотим узнать:
— Для чего вы реально используете облако?
— Чего катастрофически не хватает прямо сейчас?
— Что бесит больше всего? (можно материться)
— Как выбираете провайдера — по цене или по любви?
— и тому подобное
По результатам опроса мы подготовим исследование без маркетингового мусора и вы узнаете, как обстоят дела у коллег.
⚡️Время на опрос: меньше, чем на кофе-брейк. Жмите → https://clc.to/nboYDA
Что вы знаете о кластерах контейнеров в Kubernetes?
Кластеры контейнеров в Kubernetes представляют собой набор нодов. Они создают некоторые маршруты, чтобы контейнеры, работающие на узлах, могли взаимодействовать. Они позволяют контейнерам работать на нескольких машинах и в разных средах, таких как физические, виртуальные и облачные. Кластеры Kubernetes координируют такие процессы, как планирование и масштабирование приложений, поддержание состояния кластера и внедрение обновлений.
Библиотека задач по DevOps
Библиотека задач по DevOps
Please open Telegram to view this post
VIEW IN TELEGRAM
Каково применение kubectl exec при устранении неполадок?
👾 — Включить автоматическое масштабирование
👍 — Получить доступ к оболочке работающего контейнера для отладки проблем
🥰 — Настроить хранилище вручную
⚡ — Перезапустить узлы
Библиотека задач по DevOps
👾 — Включить автоматическое масштабирование
👍 — Получить доступ к оболочке работающего контейнера для отладки проблем
🥰 — Настроить хранилище вручную
Библиотека задач по DevOps
Please open Telegram to view this post
VIEW IN TELEGRAM
Каким образом мы можем улучшить стабильность работы приложения в k8s?
Прежде всего необходимо описать probe для контейнеров в PODе, а также указать ресурсы запросов / лимиты. Затем целесообразно описать антиаффинити для PODов наших приложений, чтобы упростить обработку сбоев на конкретных узлах.
Если в нашем кластере работают как продуктовые, так и тестовые среды, хорошей практикой будет указать node selector и taints/tolerations, чтобы запускать продуктовые приложения на отдельных узлах.
Если нет возможности выделить узлы под продакшн или мы можем выделить особо важные (ядреные) сервисы в рамках продакшн, рекомендуется установить priority classes для них. Также стоит описать бюджет нарушения работы POD для особо важных приложений. В случае использования многопользовательской модели (multitenant) в пространствах имен пользователей следует указывать resourceQuotas и limitRanges.
Прежде всего необходимо описать probe для контейнеров в PODе, а также указать ресурсы запросов / лимиты. Затем целесообразно описать антиаффинити для PODов наших приложений, чтобы упростить обработку сбоев на конкретных узлах.
Если в нашем кластере работают как продуктовые, так и тестовые среды, хорошей практикой будет указать node selector и taints/tolerations, чтобы запускать продуктовые приложения на отдельных узлах.
Если нет возможности выделить узлы под продакшн или мы можем выделить особо важные (ядреные) сервисы в рамках продакшн, рекомендуется установить priority classes для них. Также стоит описать бюджет нарушения работы POD для особо важных приложений. В случае использования многопользовательской модели (multitenant) в пространствах имен пользователей следует указывать resourceQuotas и limitRanges.
😱 Завтра цена на курс «AI-агенты для DS» вырастет
Пока вы думаете — другие уже покупают. Что вы теряете, откладывая решение? Как минимум — 10 000 рублей, именно столько вы переплатите завтра. Как максимум — шанс войти в топ-1% дата-сайентистов, которые умеют строить AI-агенты.
🎓 Чему вы научитесь на курсе:
— адаптировать LLM под разные предметные области и данные
— собирать свою RAG-систему: от ретривера и реранкера до генератора и оценки качества
— строить AI-агентов с нуля — на основе сценариев, функций и взаимодействия с внешней средой
Решение за вами.
👉 Купить курс по старой цене
Пока вы думаете — другие уже покупают. Что вы теряете, откладывая решение? Как минимум — 10 000 рублей, именно столько вы переплатите завтра. Как максимум — шанс войти в топ-1% дата-сайентистов, которые умеют строить AI-агенты.
🎓 Чему вы научитесь на курсе:
— адаптировать LLM под разные предметные области и данные
— собирать свою RAG-систему: от ретривера и реранкера до генератора и оценки качества
— строить AI-агентов с нуля — на основе сценариев, функций и взаимодействия с внешней средой
Решение за вами.
👉 Купить курс по старой цене
proglib.academy
Курс|AI-агенты для DS-специалистов
На курсе ты разберёшься, как работают AI-агенты и как их применять в работе — от текстовых помощников до систем, помогающих принимать решения. Разберем архитектуру агентов, связку с внешними API, пайплайны действий и популярные библиотеки. Курс включает реальные…
Этот volume type можно использовать для того, чтобы делиться контентом внутри контейнеров пода, но он не будет сохраняться после окончания срока службы пода
👾 — EmptyDir
👍 — ConfigMap
🥰 — FlexVolume
⚡ — Local
Библиотека задач по DevOps
👾 — EmptyDir
👍 — ConfigMap
🥰 — FlexVolume
Библиотека задач по DevOps
Please open Telegram to view this post
VIEW IN TELEGRAM
Как разработать самовосстанавливающуюся распределенную службу?
Любая система, которая должна быть способна к самовосстановлению, должна в определенной степени иметь возможность обрабатывать ошибки и разделения (т. е. когда часть системы не может получить доступ к остальной части системы).
Для баз данных обычным способом решения проблемы толерантности к разделам является использование кворума для записи. Это значит, что каждый раз, когда что-то записывается, минимальное количество узлов должно подтвердить запись.
Минимальное количество узлов, необходимое для корректного восстановления после отказа одного узла, составляет три узла. Таким образом, два исправных узла смогут подтвердить состояние системы.
Для облачных приложений эти три узла обычно распределяются по трем зонам доступности.
Любая система, которая должна быть способна к самовосстановлению, должна в определенной степени иметь возможность обрабатывать ошибки и разделения (т. е. когда часть системы не может получить доступ к остальной части системы).
Для баз данных обычным способом решения проблемы толерантности к разделам является использование кворума для записи. Это значит, что каждый раз, когда что-то записывается, минимальное количество узлов должно подтвердить запись.
Минимальное количество узлов, необходимое для корректного восстановления после отказа одного узла, составляет три узла. Таким образом, два исправных узла смогут подтвердить состояние системы.
Для облачных приложений эти три узла обычно распределяются по трем зонам доступности.
Что выведет этот GitHub Actions workflow?
name: Test Job
on:
workflow_dispatch:
jobs:
test:
runs-on: ubuntu-latest
steps:
- name: Set var
run: echo "RESULT=ok" >> $GITHUB_ENV
- name: Check var
run: |
if [ "$RESULT" == "ok" ]; then
echo "Success";
else
echo "Fail";
fi
👾 — Success
👍 — Fail
🥰 — Ошибка выполнения скрипта
⚡ — Переменная не найдена, но пайплайн не упадет
Библиотека задач по DevOps
name: Test Job
on:
workflow_dispatch:
jobs:
test:
runs-on: ubuntu-latest
steps:
- name: Set var
run: echo "RESULT=ok" >> $GITHUB_ENV
- name: Check var
run: |
if [ "$RESULT" == "ok" ]; then
echo "Success";
else
echo "Fail";
fi
👾 — Success
👍 — Fail
🥰 — Ошибка выполнения скрипта
Библиотека задач по DevOps
Please open Telegram to view this post
VIEW IN TELEGRAM
Почему организации предпочитают Canary Deployments?
👾 — Избежание всех проблем с задержкой сети
👍 — Строго случайные обновления
🥰 — Полный сброс системы
⚡ — Более быстрое развертывание с меньшим количеством прерываний
Библиотека задач по DevOps
👾 — Избежание всех проблем с задержкой сети
👍 — Строго случайные обновления
🥰 — Полный сброс системы
Библиотека задач по DevOps
Please open Telegram to view this post
VIEW IN TELEGRAM
Проект, созданный для упрощения и оптимизации использования Docker на Mac или Windows. Этот инструмент автоматизирует процесс установки и настройки Docker и предоставляет графический интерфейс пользователя для запуска контейнеров Docker
👾 — Docker Cloud
👍 — Docker Kitematic
🥰 — Docker Compose
⚡ — Docker Control Plane
Библиотека задач по DevOps
👾 — Docker Cloud
👍 — Docker Kitematic
🥰 — Docker Compose
Библиотека задач по DevOps
Please open Telegram to view this post
VIEW IN TELEGRAM