Записки IT специалиста
7.97K subscribers
1.57K photos
49 videos
15 files
2.23K links
IT-канал, просто о сложном
https://interface31.ru

Купить рекламу:
https://telega.in/c/interface31
加入频道
Узнайте все о Docker и научитесь работать с контейнерами на продвинутом уровне.

Разрабатываете приложение, которое включает несколько сервисов? Один на Python, другой на Node.js — и каждый требует своей настройки окружения. С помощью Docker можно создать контейнеры для каждого сервиса и обеспечить себе удобную работу.

👉 Даем максимум практических знаний на курсе «Docker для админов и разработчиков»

На курсе вы:
🔹 узнаете, как работает Docker
🔹 разберете особенности использования Docker с различными языками программирования
🔹 изучите CI\CD в Docker
🔹 научитесь безопасно работать с Docker-контейнерами и расширите пул доступных вам инструментов

❗️Даем бесплатный демодоступ к первым модулям на ознакомление. А после покупки курс будет доступен 2 года.

👉 Смотреть программу курса и получить бесплатный доступ 👈

#реклама
О рекламодателе
👍2
В 2024 году основные игроки рынка отечественных операционных систем выпустили новые версии ОС:

🔹Astra Linux 1.8

🔹РЕД ОС 8

И только Альт ничего не выпустил, хотя и проанонсировал новую 11-ю платформу. И не сказать, что 10-я платформа устарела, но в конкурентной среде нужно держать руку на пульсе и идти в ногу, хотя бы из имиджевых соображений.

И видимо в этих самых целях они решили пропиарить выход платформы 10.4 как чего-то все-таки нового. Статья про Simply Linux 10.4 выполнена с прямым посылом – мы тоже выпускаем новые версии и всячески развиваемся.

Но кроме планового обновления версий софта ничего нового там не видно, ядро как было 6.1.49, так и осталось, хотя в Longterm уже вышло 6.12 и для домашней версии ядро уж можно было обновить.

В остальном все тоже самое, найдите, как говориться, десять отличий. Так что на значимое событие выпуск 10.4 явно не тянет, а решений на 11 платформе мы в этом году не увидели и вряд ли уже увидим.
👍19👎15🤣6🤡1
​​Разбираем монолит

В комментариях к вчерашней записи появились просьбы рассказать конкретику, но конкретики не будет. Потому что это, возможно, и интересно, но лишено особого практического смысла.

Почему? Ситуация в каждом случае своя и ее нельзя измерить пользователями, гигабайтами и т.п. метриками.

Самый простой пример. Два одинаковых диска, одинаковые параметры компьютера и сети, одинаковый объем данных. Только на одном лежат образы по 1,5 – 2 ГБ, а на другом россыпь килобайтных файлов. Понятно, что копирование данных займет совершенное разное время.

Поэтому исходить надо из собственной ситуации, тем более что все необходимые вводные у вас уже есть.

Прежде всего разбиваем наш монолит на составляющие его кубики. Просто берем лист бумаги и выписываем в столбик работающие на нем сервисы. Это наши будущие виртуалки или контейнеры.

В идеале идем к тому, что один сервис – один виртуальный инстанс. Даже если их можно объединить. Не нужно этого делать без крайней необходимости. Чем проще – тем удобнее, вы всегда можете легко вывести старую службу и заменить ее новым контейнером или ВМ.

А если у вас там совмещение, то это уже новый мини-монолит, где вам нужно учитывать уже большее количество влияющих на результат факторов.

Далее – выясняем потребность служб в ресурсах. Тут у вас все перед глазами. Снимаем нужные метрики с работающего монолита и получаем данные в первом приближении.

После чего оцениваем насколько текущее выделение соответствует оптимальному. Возможно, лимиты процесса у вас сознательно ограничены и, если он в эти лимиты упирается, то есть смысл выделить ему больше ресурсов.

Пишем на ту же бумажку по колонкам сколько нам надо и сколько бы хотелось. Основных ресурсов там три: ядра CPU, память, диск.

Последний заслуживает особого внимания. Сегодня у нас есть три основных типа накопителей:

HDD – медленно, но дешево за единицу объема, идеально для холодных данных
SATA SSD – промежуточный вариант, уже быстрее, но недостаточно быстро
NVMe – быстро, но дорого, самое то для горячих данных

Ваша цель – грамотно укомплектовать и распределить данные по трем типам носителей. Возможно, где-то придется уйти от сложившейся схемы и перераспределить ресурсы по-новому.

Смысл простой. Горячие данные, скажем, рабочие 1С базы – на NVMe, архивные – на SSD, файлопомойку – на жесткие. Но в любом случае отталкиваетесь от реальных метрик, все они у вас есть, надо только собрать.

С ресурсами определились, нарезали. При этом не надо бояться выделять ресурсы суммарно выше физического предела. Но вы должны четко понимать, что это только для пикового потребления и должны мониторить этот вопрос.

Теперь сам переезд. Большую часть работ можно спокойно выполнять в рабочее время. В нерабочее только перенос данных и то, если их нельзя перенести заранее и потом просто долить разницу.

Ту же файлопомойку вы можете спокойно скопировать в рабочее время, после чего через rsync долить разницу и запустить в контейнере.

Потом просто переключаем пользователей со старого ресурса на новый. Оптимально это делать посредством локального DNS, когда у всех пользователей все ресурсы прописаны по FQDN и нам достаточно просто изменить A-запись на DNS-сервере.

В остальных случаях смотрим, думаем и выбираем оптимальные варианты с учетом объемов данных и допустимого времени простоя.

Например, есть 1С сервер и его нельзя перенести полностью в технологическое окно. Но мы помним, что 1С сервер никаких ценных данных не хранит, все хранится на SQL-сервере.

Поэтому переносим сервер 1С в виртуальную среду, но базы продолжаем хранить на монолите. Потом по одной переносим базы в виртуальную среду и меняем настройки подключения на сервере 1С.

Для пользователя это абсолютно прозрачно, он даже не узнает, что его база переехала.

Это же касается и многого другого. Думаем, считаем, пробуем. Не получилось сразу – не беда, пользователи поработают еще некоторое время на этой службе в предоставлении монолита.
👍46💯6
Как сделать почтовую систему неуязвимой для кибератак? 

Разберемся на онлайн-митапе «Дизайн и харденинг почтовых систем: новогодний подарок для ИБ» от К2Тех. Он пройдет 17 декабря в 16:00.

Эксперты расскажут о значении харденинг подхода для комплексной защиты ИТ-инфраструктуры, а также поделятся рабочими технологиями для повышения безопасности периметра корпоративной почты.

На встрече вы узнаете: 
- Как внедрить почтовую систему с применением харденинг подхода?
- Какие эффективные практики и инструменты харденинга используются на рынке?
- Как работает правило Парето на примере защиты почтовых систем?

Регистрируйтесь на митап по ссылке

Реклама. АО "К2 ИНТЕГРАЦИЯ". ИНН 7701829110.
🔥1
Работа оборудования Mikrotik в режиме беспроводной станции (клиента)

Режим беспроводной станции (клиента) используется в Mikrotik гораздо реже, чем режим точки доступа, но часто, когда возникает в этом потребность, администраторы сталкиваются с различного рода затруднениями.

Во многом это происходит из-за недостаточного понимания особенностей работы беспроводного оборудования в данном режиме.

Поэтому в рамках данной статьи мы решили познакомить читателей с теорией и практикой применения роутеров данного производителя в качестве беспроводной станции и ответить на часто задаваемые вопросы.

https://interface31.ru/tech_it/2021/11/rabota-routerov-mikrotik-v-rezhime-besprovodnoy-stancii.html
👍23
​​Как правильно определить количество свободной памяти в Linux

Классика жанра – почему у меня в системе не хватает памяти, если системный монитор или панель говорят, что памяти еще достаточно.

Сегодня снова задали такой вопрос, мол если верить Proxmox, то памяти еще хватает (занято 70%), но Zabbix начал сигналить о катастрофической нехватке памяти (занято свыше 90%). Кто не прав?

Чтобы это понять выполним в консоли команду:

free – h

И изучим ее вывод, он содержит несколько столбцов:

▫️ total: Общее количество установленной физической памяти.

▫️ used: Количество памяти, которое в настоящее время используется.

▫️ free: Свободная физической памяти, доступная для немедленного использования.

▫️shared: Память, которая разделяется между процессами, например, библиотеки, которые могут быть использованы несколькими процессами одновременно.

▫️ buffers/cache: Память, которая используется в качестве буферов для операций ввода-вывода и в качестве кэша для операций

▫️ available: Количество памяти, которая доступна для использования, учитывая, что часть памяти, используемая как buffers/cache может быть освобождена при необходимости.

Если сравнить то, что показывает Proxmox, системный монитор и т.д., то он показывает именно available. Так может нечего переживать? Все норм и Zabbiх зря нагоняет панику?

А вот и нет. Во-первых, не все буферы можно сбросить, во-вторых, сброс буферов – дорогая операция, так как в последующем вместо быстрого доступа к нужным данным из памяти мы получим медленное чтение и с диска.

И система, если процесс попросит памяти больше, чем free еще десять раз подумает, а сбрасывать ли буфер?

А помогать ей в этом будет OOM Killer, который ведет строгий учет всех запущенных процессов, оценивая их по множеству критериев и присваивая «очки негодности».

И альтернативой сброса буферов может оказаться убийство «негодного» процесса. И скорее всего так оно и произойдет. Хотя со стороны кажется, что память еще есть и можно развернуться.

На нашей практике примерно в такой же ситуации регулярно выключалась неактивная виртуалка. И администратор долго не мог понять почему, пока не посмотрел на вывод free, а не дашборды Proxmox.

Поэтому не следует верить тому, что показывают графики или индикаторы, все, на что вы можете железобетонно рассчитывать – это free, а available – это то, что могут дать, а могут догнать и еще раз дать. Учитывайте это.

И Zabbix в этом случае не нагоняет жути, а по сути прав, так как учитывает описанные выше особенности.

А на закуску можем посоветовать почитать наши статьи:

🔹 Что такое пространства подкачки и как они работают

🔹 Что такое OOM Killer и как он работает
👍49👎1😱1🤡1
Для закрепления вчерашней темы. Самые распространенные вопросы:

Почему total <> used + free + shared + buff/cache

Почему available <> free + buff/cache

Почему used + available <> total
👍20
​​Как все потерять и ничего не понять

Сегодня суббота, а поэтому будет одна поучительная история из жизни. Середина нулевых, один местечковый районный провайдер, тогда таких было много.

Мы одно время работали в одном здании с ними, а поэтому хорошо друг друга знали. Потом у них дела пошли в гору, и они переехали в отдельное здание и наши пути потихоньку разошлись.

Ребята там были неплохие, кроме директора, был он, мягко скажем, немного скуповатым, хотя если честно, то далеко не немного. Но была у него еще вторая негативная черта характера. Все, кто имел сомнительное удовольствие с ним долго общаться не именовали его иначе чем чудак на букву М.

Я тоже жил на том районе и пользовался их интернетом и вскоре начал замечать, что проблемы только растут и множатся. То скорости нет, то связь пропала, то еще что-нибудь.

Хотя были иногда и приятные моменты, скажем, на майские праздники отключился биллинг и каждый качал-закачивался. А интернет в ту пору тарифицировался, если кто не помнит или не знает, помегабайтно.

Потом я как-то спросил ребят провайдера, а что это за аттракцион невиданной щедрости был?

Выяснилось, что шеф расплевался с их давним сисадмимном, который стоял еще у истоков конторы и тот ушел, хлопнув дверью и назвав шефа чудаком. За серверами с диковинной FreeBSD никто не следил, так как не понимал, как следить и в один прекрасный день место на дисках просто кончилось.

Биллинг прилег и народ все праздники резвился, попутно загоняя контору в долги. После чего из конторы ушел второй человек, который также стоял у ее основания и понимал в сетях.

Но шефа ничего не смутило, подумаешь, сисадмин, ну и подумаешь сетевой инженер. Больно нужны, у нас же все хорошо. Были приглашены специалисты со стороны и был внедрен новый биллинг, уже на Linux.

Между тем качество услуг стремительно падало, но во всем оказались виноваты пользователи, мол это они положили сеть широковещательными чатами и DC++ обменом. После чего эти приложения попытались просто запретить. Мол у кого обнаружим – отключим.

Но отключить пришлось бы решительно всех, поэтому такая инициатива сошла на нет. Лучше, естественно, не стало. Да и как оно станет в отсутствие сетевого инженера.

Прошло еще года полтора, звонит мне их шеф, мол ты же в Linux понимаешь? Понимаю. Приезжай, дело есть.

Приехал. Новый биллинг лежит. Начинаю разбираться. В наличии неплохой по тем временам сервер и RAID 5 с запасным диском. В RAID 5 выпали два диска из трех, а запасной кто-то свистнул, поставив вместо него неисправный диск бытовой серии.

Ну что тут было сказать? Только похлопать по плечу и сообщить, что медицина бессильна. Особенно если в штате не было ни одного следящего за инфраструктурой сотрудника.

Пошарившись по серверной нашли сервер с бекапами, но там был только бекап БД биллинга.

Ну вот, не все так плохо, можно восстановить.

Он спрашивает меня, смогу ли я это сделать. Отвечаю, что нет, я этот биллинг первый раз в жизни вижу и лучше всего обратиться к его разработчикам.

Выяснилось, что это не вариант, так как он им денег должен и за поддержу не платил два года. А зачем, ведь все работало.

В общем принес ему свои соболезнования и сказал, что мне пора и было бы неплохо дать мне денег.

На что услышал, а за что тебе денег, ты же ничем мне не помог. В общем пояснил ему, что он чудак, развернулся и ушел.

Провайдеру тут же настал карачун, народ разбежался, а шеф, шеф продал сети одному из федеральных провайдеров.

А что же теперь? А он теперь начальник в местном отделении федерального провайдера. До чего-то важного его не допускают, но теплое кресло выделили. Ну и репутация чудака на букву М за ним числится до сих пор.

Он же, в свою очередь, особенно после пары рюмок, любит поучать молодежь и рассказывать как у него давно был свой бизнес и как он его удачно продал, поняв, что не может тягаться на равных с федералами.
🔥50🤣34👍16😁5
​​Прикупил себе обновку

Пользуясь, случаем сделал небольшой апгрейд, до этого я с начала 2020 года использовал платформу AM4 в составе материнской платы MSI X470 GAMING PLUS MAX и процессора Ryzen 7 2700 X.

В целом, даже на сегодняшний день, платформа обеспечивала достаточную производительность и менять ее целиком не было никакого финансового смысла. Но немного оживить, конечно, хотелось.

Изучив спецификации, выяснилось, что материнская плата поддерживает старшие модели поколения Zen 3, чем и решил воспользоваться.

Сегодня место Ryzen 7 2700 Х занял Ryzen 9 5900 X, апгрейд прошел буднично: обновил BIOS, поменял камень.

Охлаждение оставил старое, башня DEEPCOOL GAMMAXX 400 V2, при стресс-тесте «Перестойка» стабильно держала температуру на 80 – 81 градусе. Реальный тепловой пакет процессора – 145 Вт, при заявленных 105 Вт.

Но это нормально, тепловой пакет указывается для номинальной частоты 3,7 ГГц, в то время как данный процессор может разгоняться до 4,8 ГГц, но такой частоты я не видел, кроме как в тесте, а вот на 4,5 ГГц он спокойно выходит при повседневных нагрузках.

Невооруженным глазом тоже виден эффект, особенно на тяжелых задачах. Рендеринг видео, сборка проектов – все идет значительно быстрее. Новый процессор более производителен как на ядро, так и предоставляет большее количество ядер / потоков.

Поэтому AM4 еще рано списывать со счетов, особенно с учетом того, что ее можно укомплектовать относительно дешевой памятью DDR 4. В результате получаем вполне производительную платформу за умеренный прайс.

Понятно, что Ryzen 9 5900 X нужен не всем, процессор не дешевый и если вы не знаете куда деть его ядра/потоки, то он вам не нужен. Но можно взять что-то более простое из этой линейки, особенно если нужен апргейд.

В целом сегодня AM 4 выглядит все еще привлекательно, но уже не так дорого и представляет хорошую альтернативу китайским Xeon, но гораздо более производительную.
👍41🔥23
Готовы написать свой первый скрипт на Bash и забыть про ручное управление? 

🎥 19 декабря в 19:00 состоится открытый урок по автоматизации рутинных задач с помощью Bash скриптов. 

Эксперты Михаил Охрименко, OpenStack Tech Lead, и Кирилл Борисов, SRE в VK расскажут: 

👉 Что такое Bash и почему это важно
👉 Как скрипты на Bash помогают автоматизировать рутинные задачи
👉 Базовые команды для работы с Linux — управление файлами и папками через консоль, быстрый поиск информации и работа с текстом

Зрители открытого урока получат шпаргалку «Основные навыки администратора Linux» — с ней вы точно не пропустите ни один важный инструмент. 

Вебинар проходит в рамках курса «Администрирование Linux».
Старт потока 27 января 📌

📍Занять место на вебинаре 

#реклама
О рекламодателе
erid: LjN8KNCkk
👍3
​​Как правильно сделать апгрейд

Любой апгрейд или сборка новой системы начинается с процессора и только потом вокруг процессора строится система в рамках выделенного бюджета. И это правильно, так как именно процессор определяет производительность и актуальность системы на годы ее работы.

Прежде чем переходить к выбору следует сесть и честно ответить себе на следующие вопросы: какие задачи моя сегодняшняя система решает плохо и какие задачи должна решать хорошо моя будущая система?

Нет, можно, конечно, купить побольше всего, но что толку, если все эти ядра и мегагерцы не будут использоваться, а вы будете, как и прежде испытывать недостаток оперативной памяти, так может быть стоило взять процессор попроще, а памяти побольше?

Плюс есть еще один стимул для апгрейда – возможность продать устаревшую платформу по все еще адекватной цене и доплатив взять что-то более новое. Здесь, как правило, задачи не меняются и берется все тоже самое, только поновее. Ну и улучшается, что можно в рамках бюджета, например, объем ОЗУ или дисков.

Но вернемся к процессору. Для его правильного выбора нам нужно сравнить параметры нового варианта со старым и возможно еще какими-то альтернативами. Основных сравниваемых параметра три: производительность ядра, общая производительность и тепловой пакет.

Для такого сравнения можно выбрать любой ресурс, где есть тесты множества пользователей и инструмент сравнения, мы, например, используем https://www.cpubenchmark.net. Конкретно выбор источника ни на что не влияет, все равно мы сравниваем отвлеченные попугаи.

Вернемся к нашему случаю, мы сравнивали Ryzen 7 2700X и два топовых процессора в линейке АМ 4 - Ryzen 9 5900X и Ryzen 9 5950X.

Согласно данным ресурса последний – однозначный топ, набирает 45 599 попугаев в рейтинге, предоставляя 16 ядер/32 потока с базовой частотой 3,4 ГГц и разгоном до 4,9 ГГц.

Второй кандидат отстает от него на 14% и показывает 39 103 попугая, предоставляя 12 ядер и 24 потока с базовой частотой 3,7 ГГц и максимальной 4,8 ГГц.

Оба варианта обходят старый процессор на 30% в производительности одного ядра и более чем вдове в общей производительности и, казалось бы, выбор тут очевиден.

Но не все так просто. Если посмотреть на ядра Ryzen 9 5900X и Ryzen 9 5950X, то выясним, что производительность на ядро у них одинаковая, а номинальная частота Ryzen 9 5950X даже ниже, т.е. если вы эффективно не используете все имеющиеся в наличии ядра, то вы окажетесь даже немного в более худшей ситуации, нежели с Ryzen 9 5900X.

Не сказать, что это критически важно, но для некоторых приложений (например, 1С:Предприятие) может быть ощутимо.

Но главный критерий истины – цена. На момент написания этой заметки Ryzen 9 5900X стоит в рознице 36 699 ₽, а Ryzen 9 5950X - 47 999 ₽. Таким образом разница в цене составляет ~ 23.5%, тогда как разница в производительности всего 14,2%.

При этом это разница в общей производительности, т.е. ее вы увидите только в том случае, если эффективно нагрузите все ядра, так как производительность на одно ядро у вас равна.

При этом очевидно, что разница в производительности не растет пропорционально ядрам. Количество ядер в Ryzen 9 5950X больше на 25%, что как раз отображает разница в цене, а производительность выше всего на 14%.

А дальше думайте сами, готовы ли вы переплатить лишние 11 тысяч за призрачные 14% попугаев или нет, ну и найдутся ли у вас такие задачи, в которых вы этих попугаев увидите.

Ну и последний параметр – тепловой пакет. У всех трех процессоров он составляет 105 Вт, но тут есть одна тонкость, данный параметр приводится для номинальной частоты, а в разгоне все три этих процессора потребляют порядка 140-150 Вт, что следует учитывать при выборе системы охлаждения и источника питания.

В нашем случае ее можно не менять, так как тепловые параметры процессоров не изменились, тоже самое касается и блока питания. В противном случае вам придется дополнительно раскошелиться на эти два элемента, что способно серьезно изменить бюджет всего апгрейда.
👍35👌51
​​Особенности выбора современной материнской платы

Раз уж темой этих выходных стал апгрейд, то коснемся еще такого вопроса как выбор материнской платы.

Когда-то давно к этому вопросу надо было подходить серьезно, так как это был практически равнозначный по важности наряду с процессором компонент. Неудачный выбор материнской платы мог серьезно повлиять на производительность системы.

Сегодня же все важные контроллеры переехали в сам процессор, и материнская плата утратила свое ведущее значение, превратившись с в своего рода шасси для установки остальных компонент системы с набором второстепенных контроллеров.

Поэтому ее выбор стал сугубо вторичен, единственное, на что следует обращать внимание – это на подсистему питания процессора – VRM. Это многоканальный преобразователь, преобразующий напряжение линии 12 В в низковольтное питание процессора.

Почему многоканальный? Потому что один канал не способен и близко предоставить требуемый ток, поэтому VRM делают многоканальным или многофазным.

Возьмем все тот же Ryzen 9 5900X, с номинальным потреблением 105 Вт и фактическим (в бусте) 145 Вт. При напряжении питания процессора 1,3 В это предполагает ток от 81 до 112 А.

Ток немаленький и очень и очень немного силовых элементов может такой ток коммутировать, причем коммутировать без излишней нагрузки и тепловыделения.

Поэтому подсистема питания подает этот ток по нескольким линиям – фазам. Для каждой фазы используются силовые транзисторы MOSFET с рабочими токами в 25 -45 А, в топовых платах могут использовать MOSFET и на 60 А, но это чаще всего исключения.

Таким образом для тока в 81 А нам понадобится минимум 4 фазы, а для 112 А – уже шесть. Причем такая информация производителем не публикуется и могут быть различные варианты.

Например, поставив в VRM 4 фазы по 25 А и обеспечив 100 А тока производитель может заявить совместимость с Ryzen 9 5900X и формально будет прав, штатные 105 Вт этот VRM обеспечит.

Но дальше все будет грустно. На качественно плате процессор уйдет в троттлинга по температуре VRM или все закончится достаточно быстро и печально, выходом из строя материнской платы или процессора, а может и их обоих.

Внешне быстро оценить количество фаз можно по числу дросселей, но помните, что кроме фаз питания процессора там отдельно расположены фазы питания контроллера памяти.

В любом случае если вы собираетесь апгрейдить платформу и предусматриваете установку старших моделей процессоров с разблокированным множителем, то сразу смотрите в сторону топовых и игровых материнских плат.

И это, пожалуй, основной существенный фактор по выбору материнской платы, который способен серьезно отравить вам жизнь. Остальное – это уже сугубо сервисные функции.

Все остальное, что предоставляет материнская плата, кроме VRM, это просто набор разъемов и дополнительных контроллеров: ввода-вывода, сетевого, звукового и т.д. и т.п., а также количество разведенных слотов и разъемов.

Но тут есть тоже над чем поломать голову. Если вы сначала выберете материнскую плату, то вам придется все остальные свои хотелки впихивать в ее возможности. А это неправильно.

Правильно сначала выбрать процессор, желаемое количество оперативной памяти и накопителей. После чего вы поймете сколько вам нужно слотов памяти и сколько разъемов под накопители. И если M.2 NVMe можно легко нарастить, используя неиспользуемые линии PCIe, то SATA разъемов количество конечное.

Потом определяемся с сетью, звуком и видеокартой, в отношении последней сразу смотрим сколько слотов она перекрывает, особенно если у вас есть на них виды.

А дальше подбиваем все наши хотелки и ставим соответствующие фильтры в разделе материнских плат продавца. И результатов там будет немного, преимущественно из топового сегмента.

Но тут мы экономить не советуем. Так как вы получите не только качественную систему питания, но и большое количество периферийных разъемов.

Что касается типоразмера, то следует смотреть в сторону полноразмерного ATX, который позволит разместить все компоненты без лишних проблем.
👍541🤣1
⁉️ Хотите понять, как Kubernetes управляет контейнерами?

🔥Узнайте всё о его ключевых компонентах: Control Plane, Worker Nodes, Pods, Namespaces. На открытом вебинаре мы разберём архитектуру Kubernetes и покажем, как настроить систему для масштабирования и отказоустойчивости.

📗Этот урок — ваш первый шаг к созданию инфраструктурной платформы. После вебинара вы поймёте, как управлять контейнерами, их взаимодействием и хранением данных.

🔗Регистрируйтесь на вебинар 17 декабря в 20:00 мск. Участники получат скидку 🎁 на обучение на курсе «Инфраструктурная платформа на основе Kubernetes»: https://otus.pw/4Ym4/  

Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
👎3
​​Custom Resolution Utility (CRU)

Небольшая, но полезная утилита по установке произвольных значений разрешения монитора.

Для чего это надо? Рассказываем. Сегодня на одной точке поменяли ПК, как водится, разъема VGA в новом ПК нет, а в старом мониторе нет HDMI. Ну да это не проблема, купили переходник.

С этого момента и начались приключения, монитор имеет рабочее разрешение 1366x768, а переходник выдает стандартные 1920×1080, 1280×720 и 1024x768. Понятно, что картинка на экране выглядит растянутой и смазанной.

Что делать? Искать переходник с поддержкой 1366x768? Так это занятие бесполезное, с учетом того, что производятся они в китайских подвалах и нигде подобных данных не указывают.

В общем, без особой надежды стали искать информацию по подобным переходникам и нашему разрешению и наткнулись на описанную утилиту.

Скачали, попробовали и у нас все получилось. Утилита считала данные монитора (даже через переходник) и на их основе добавила данные в реестр, после чего в настройках видеоадаптера стало возможно выбрать родное разрешение.

Ситуация довольно редкая, но время от времени случается. Поэтому берите на заметку.

https://www.monitortests.com/forum/Thread-Custom-Resolution-Utility-CRU
👍88🔥19
Простой и удобный инструмент мониторинга производительности - nmon

Любой системный администратор знает, что инструментов для мониторинга производительности много не бывает, особенно таких, которые позволяют одновременно контролировать сразу множество параметров, давая возможность оценить их взаимосвязь в реальном времени.

Одной из таких утилит является nmon, пришедшая в мир Linux из настоящих UNIX-систем, а именно IBM AIX. Несмотря на свой солидный, по меркам IT, возраст она не потеряла актуальности и будет полезна для первоначальной диагностики проблем с производительностью для любого Linux администратора, как начинающего, так и опытного.

https://interface31.ru/tech_it/2022/03/prostoy-i-udobnyy-instrument-monitoringa-proizvodiel-nosti---nmon.html
👍362
Диски ADATA – дохнут ******!!!

Примерно такой вердикт вынес один заказчик, после того как третьего дня принес к нам небольшой сервер, мол уже несколько раз файловая система падает в RO, после перезагрузки работает, наверное, что-то с железом.

Наверное… Диски ADATA SU800, на наш взгляд одни из лучших в своем классе и ценовом диапазоне, отработали без малого пять лет, записали более 270 ТБ данных, при заявленном ресурсе 200 ТБ.

И при этом не померли, не окирпичились, а просто стали уходить в read-only. Но все равно диски плохие, надо было брать Samsung. 🤷‍♂️🤷‍♂️🤷‍♂️
👍35😁13🤷‍♂11🔥1
Что поставить для мониторинга небольшой сети, если Zabbix пугает и не вызывает желания разбираться в нем? Поставьте Munin.

🔹 Устанавливаем и настраиваем систему мониторинга Munin

Любой администратор рано или поздно приходит к необходимости мониторить основные показатели используемых серверов и своевременно получать предупреждения, если контролируемые показатели выходят за указанные рамки.

Существует много решений для мониторинга, от простых, до сложных и сегодня мы рассмотрим одно из них - Munin.

Это очень простой в использовании и нетребовательный мониторинг, который позволяет достаточно эффективно контролировать узлы под управлением Linux и неплохо подходит для небольших и средних сетей.
👍33
Настраиваем автоматическое обновление при помощи Unattended Upgrades в Debian / Ubuntu

Регулярное и своевременное обновление операционной системы является сегодня одной из наиболее важных задач обслуживания, особенно для тех систем, которые непосредственно доступны из сети интернет.

Многие Linux-администраторы предпочитают выполнять это действие по старинке - вручную, но это не всегда удобно, особенно если серверов много.

Сегодня мы рассмотрим каким образом можно автоматизировать этот процесс, при этом, не теряя нужного уровня контроля над системой.

https://interface31.ru/tech_it/2022/01/nastraivaem-avtomaticheskoe-obnovlenie-pri-pomoshhi-unattended-upgrades-v-debian-ubuntu.html
👍21🔥5
Вы можете представить себе сколько миллионов в ИТ-бюджетах тратится впустую?

Даже если у вас на руках будет нужный бюджет, вы не застрахованы от провала.

Люди покупают оборудование, внедряют ПО, а первоначальную проблему так и не решают. Всё продолжает тормозить, те же простои в сервисах и безопасность - на нуле. 

Другое дело, когда вы будете решать свою задачу с надежным партнером, который делал это уже не раз, как Константин Сизов.

Константин работает в ИТ невообразимых 17 лет, и всё это время строит, и строит, и строит серверные инфраструктуры. Да ещё сразу и защищает их от киберугроз. By design.

И при этом не строит из этого секрета и делится опытом, трендами, инсайтами и кейсами в своем блоге «Давайте об IT».

Подписывайтесь, такой реальный опыт и такую живую подачу редко встретишь:
@lets_about_it

#реклама
О рекламодателе
🍌7👍1