Мыши плакали, кололись…
Заезжал сегодня к знакомым в сервис ну и поговорили за печатающую технику. Точнее я обратил внимание на некоторую, смутно знакомую модель.
Как оказалось, известный отечественный производитель совместимой расходки Cactus начал делать «совместимые» принтеры.
Модель пока одна, в нескольких вариациях. Кто послужил прототипом, я думаю, называть не надо. Все понятно из внешнего вида и названия: Cactus CS-LP1120 (драйвера от «оригинала» подходят тоже).
По неофициальным сведениям, сию модель перелицензировали у китайцев, которые ее в свою очередь у кого-то там лицензировали или «лицензировали».
Но в целом аппарат неплохой, тот же оригинал плюс некоторые доделки по механике и корпусу в лучшую сторону. Так что, если что, брать можно.
Заезжал сегодня к знакомым в сервис ну и поговорили за печатающую технику. Точнее я обратил внимание на некоторую, смутно знакомую модель.
Как оказалось, известный отечественный производитель совместимой расходки Cactus начал делать «совместимые» принтеры.
Модель пока одна, в нескольких вариациях. Кто послужил прототипом, я думаю, называть не надо. Все понятно из внешнего вида и названия: Cactus CS-LP1120 (драйвера от «оригинала» подходят тоже).
По неофициальным сведениям, сию модель перелицензировали у китайцев, которые ее в свою очередь у кого-то там лицензировали или «лицензировали».
Но в целом аппарат неплохой, тот же оригинал плюс некоторые доделки по механике и корпусу в лучшую сторону. Так что, если что, брать можно.
🔥45👍22🤣16😁2
А почему наши LXC-контейнеры перестали запускаться?
Вопрос нетривиальный и ответ на него найти очень не просто, особенно если работать надо здесь и сейчас.
Но в нашем случае виновник нашелся сразу. Это пакеты HASP LM от Etersoft и именно версии 7.90, про которые мы рассказывали вчера.
Сегодня один наш коллега, тоже не победивший в свое время версию 8.х, прочитав заметку, наконец-то «решил вопрос» и перенес HASP с компьютера пользователя на сервер.
Но, по старой админской привычке, перезагрузил сервер и сразу столкнулся с проблемами.
Если остановить службу haspd, то контейнеры нормально стартуют, потом haspd можно снова запустить – все будет работать.
Но лучше – вынести все это в отдельную виртуалку. А данная ситуация еще одно подтверждение старому правилу – не нужно ничего ставить на гипервизор.
Вопрос нетривиальный и ответ на него найти очень не просто, особенно если работать надо здесь и сейчас.
Но в нашем случае виновник нашелся сразу. Это пакеты HASP LM от Etersoft и именно версии 7.90, про которые мы рассказывали вчера.
Сегодня один наш коллега, тоже не победивший в свое время версию 8.х, прочитав заметку, наконец-то «решил вопрос» и перенес HASP с компьютера пользователя на сервер.
Но, по старой админской привычке, перезагрузил сервер и сразу столкнулся с проблемами.
Если остановить службу haspd, то контейнеры нормально стартуют, потом haspd можно снова запустить – все будет работать.
Но лучше – вынести все это в отдельную виртуалку. А данная ситуация еще одно подтверждение старому правилу – не нужно ничего ставить на гипервизор.
👍34👎1😁1
🛠Приглашаем на открытый вебинар: Автоматическая регулировка усиления каскадов на операционных усилителях и транзисторах.
Вы узнаете теоретические и практические аспекты реализации автоматической регулировки усиления каскадов, построенных на операционных усилителях и транзисторах, работающих в частотном диапазоне до 10 МГц.
Вы обучитесь подходам к изменению коэффициентов усиления и ограничению мощности входного сигнала.
На практике попробуете проектировать каскады с АРУ, использовать SPICE симулятор KiCad и добавлять модели компонентов для анализа.
Всё это — в интерактивном формате с реальными примерами. Присоединяйтесь!
🔥Регистрируйтесь на урок 17 декабря, в 20:00 мск и получите скидку на большое обучение «Электроника и электротехника»: https://otus.pw/MK0i/
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
Вы узнаете теоретические и практические аспекты реализации автоматической регулировки усиления каскадов, построенных на операционных усилителях и транзисторах, работающих в частотном диапазоне до 10 МГц.
Вы обучитесь подходам к изменению коэффициентов усиления и ограничению мощности входного сигнала.
На практике попробуете проектировать каскады с АРУ, использовать SPICE симулятор KiCad и добавлять модели компонентов для анализа.
Всё это — в интерактивном формате с реальными примерами. Присоединяйтесь!
🔥Регистрируйтесь на урок 17 декабря, в 20:00 мск и получите скидку на большое обучение «Электроника и электротехника»: https://otus.pw/MK0i/
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
Тест на внимательность
Имеется такая конфигурация WG:
Почему при ее включении на ПК пропадет доступ в интернет через основной шлюз?
Имеется такая конфигурация WG:
[Interface]
PrivateKey = <PRIVKEY>
Address = 10.10.10.104/24
[Peer]
PublicKey = <PUBKEY>
AllowedIPs = 10.10.10.0/24, 192.168.25.0/0
Endpoint = XXX.XXX.XXX.XXX:34567
PersistentKeepalive = 25
Почему при ее включении на ПК пропадет доступ в интернет через основной шлюз?
😁20👍4🤣3🔥1
Монолит против виртуализации
Сегодня завершили трехдневную эпопею с переносом инфраструктуры одного заказчика на новый сервер в виртуальную среду. Процесс прошел сравнительно мягко, как для нас, так и для заказчика как раз благодаря тому, что виртуализация позволяет «есть слона по частям».
Долго рассказывать, но простой сервер небольшой организации для 1С и общей папки за прошедшие восемь лет превратился в сущего монстра. Уже несколько раз менялось железо, добавлялись и убирались роли, в общем много чего делалось, но система оставалась монолитом.
А это вызывало проблемы и сложности. Всегда приходилось учитывать влияние одних служб на другие, искать компромиссы по выделению ресурсов, крайне осторожно подходить к обслуживанию и обновлению.
И вот очередной час пришел, старое железо начало однозначно намекать, что намерено в скором времени отправиться в края вечной охоты. Поэтому купили новое железо и запланировали переезд, только уже с применением виртуализации.
Кто-то скажет, а какая разница, сервер все равно один, только добавляется лишняя прослойка в лице виртуализации.
Но нет, виртуализация позволяет надежно изолировать службы друг от друга. Обеспечить гарантированное выделение ресурсов. Убрать взаимное влияние служб. Обеспечить индивидуальную настройку любых параметров.
И в случае переезда виртуальные машины и контейнеры предоставляют гораздо большую гибкость. Просто перемещаем виртуалку на другой хост виртуализации и все, никаких дополнительных перенастроек.
Аналогично и с резервным копированием и временем восстановления. Скопировать на новый хост виртуалки и запустить их всегда быстрее, чем заново настроить монолит, даже при наличии всех данных.
Теперь о том, как это лучше делать. Все упирается в план. Прежде всего вы должны разделить существующие сервисы по отдельным контейнерам или виртуальным машинам.
Оптимально: один сервис – одна виртуальная машина (контейнер).
Далее – считаем ресурсы, как дисковые, так и по оперативной памяти. И то и другое можно выделять с превышением суммарной наличной емкости, но понимать, что этот момент придется постоянно контролировать.
По памяти проще, виртуальная машина может пиково забрать память и через некоторое время вернуть ее. Виртуальные диски растут только в одну сторону, даже если потом внутри мы удалили данные, внешний размер диска не уменьшится.
Но, зная, что у нас есть запас по пространству мы можем нарезать диски с перехлестом. Зачем? Скажем пошел неконтролируемый рост логов, пусть лучше он займет лишнее место, чем приведет к остановке сервиса. А там сигнал от мониторинга, выявление проблемы, ручные процедуры по приведению в норму дискового пространства.
Контейнер или виртуальная машина? Начнем с того, что контейнеры – это не про виртуализацию, это про изоляцию. Каждый контейнер предоставляет изолированную программную среду с прямым доступом к оборудованию и ядру.
Да, при необходимости вы можете использовать нужное вам программное окружение. Но контейнер с Debian 8 на Proxmox 8 не означает, что вы там используете Debian 8, а то, что вы используете ядро от Debian 12 в окружении библиотек из Debian 8.
Виртуалка – это совсем иное дело, это отдельный хост, со своим набором виртуального железа, виртуальной ОС и для заключенных внутри нее служб она ничем не отличается от обычного ПК.
Что выбрать? Смотрите сами. Контейнер дает минимальную потерю по производительности, фактически вы работаете на железе хоста. Также контейнеры используют память хоста и то, то вы им выделили – это лимиты.
Но они имеют свои особенности эксплуатации и это надо читать документацию к гипервизору.
Виртуалки более требовательны, так как у них запущено собственное ядро и собственное окружение, что потребляет лишнюю память и дает лишние потери производительности на слое виртуализации. Но они могут быть полностью отвязаны от железа хоста.
Что выбрать – смотреть по ситуации. Но в любом случае такая структура будет более гибкой и управляемой, нежели монолит.
Сегодня завершили трехдневную эпопею с переносом инфраструктуры одного заказчика на новый сервер в виртуальную среду. Процесс прошел сравнительно мягко, как для нас, так и для заказчика как раз благодаря тому, что виртуализация позволяет «есть слона по частям».
Долго рассказывать, но простой сервер небольшой организации для 1С и общей папки за прошедшие восемь лет превратился в сущего монстра. Уже несколько раз менялось железо, добавлялись и убирались роли, в общем много чего делалось, но система оставалась монолитом.
А это вызывало проблемы и сложности. Всегда приходилось учитывать влияние одних служб на другие, искать компромиссы по выделению ресурсов, крайне осторожно подходить к обслуживанию и обновлению.
И вот очередной час пришел, старое железо начало однозначно намекать, что намерено в скором времени отправиться в края вечной охоты. Поэтому купили новое железо и запланировали переезд, только уже с применением виртуализации.
Кто-то скажет, а какая разница, сервер все равно один, только добавляется лишняя прослойка в лице виртуализации.
Но нет, виртуализация позволяет надежно изолировать службы друг от друга. Обеспечить гарантированное выделение ресурсов. Убрать взаимное влияние служб. Обеспечить индивидуальную настройку любых параметров.
И в случае переезда виртуальные машины и контейнеры предоставляют гораздо большую гибкость. Просто перемещаем виртуалку на другой хост виртуализации и все, никаких дополнительных перенастроек.
Аналогично и с резервным копированием и временем восстановления. Скопировать на новый хост виртуалки и запустить их всегда быстрее, чем заново настроить монолит, даже при наличии всех данных.
Теперь о том, как это лучше делать. Все упирается в план. Прежде всего вы должны разделить существующие сервисы по отдельным контейнерам или виртуальным машинам.
Оптимально: один сервис – одна виртуальная машина (контейнер).
Далее – считаем ресурсы, как дисковые, так и по оперативной памяти. И то и другое можно выделять с превышением суммарной наличной емкости, но понимать, что этот момент придется постоянно контролировать.
По памяти проще, виртуальная машина может пиково забрать память и через некоторое время вернуть ее. Виртуальные диски растут только в одну сторону, даже если потом внутри мы удалили данные, внешний размер диска не уменьшится.
Но, зная, что у нас есть запас по пространству мы можем нарезать диски с перехлестом. Зачем? Скажем пошел неконтролируемый рост логов, пусть лучше он займет лишнее место, чем приведет к остановке сервиса. А там сигнал от мониторинга, выявление проблемы, ручные процедуры по приведению в норму дискового пространства.
Контейнер или виртуальная машина? Начнем с того, что контейнеры – это не про виртуализацию, это про изоляцию. Каждый контейнер предоставляет изолированную программную среду с прямым доступом к оборудованию и ядру.
Да, при необходимости вы можете использовать нужное вам программное окружение. Но контейнер с Debian 8 на Proxmox 8 не означает, что вы там используете Debian 8, а то, что вы используете ядро от Debian 12 в окружении библиотек из Debian 8.
Виртуалка – это совсем иное дело, это отдельный хост, со своим набором виртуального железа, виртуальной ОС и для заключенных внутри нее служб она ничем не отличается от обычного ПК.
Что выбрать? Смотрите сами. Контейнер дает минимальную потерю по производительности, фактически вы работаете на железе хоста. Также контейнеры используют память хоста и то, то вы им выделили – это лимиты.
Но они имеют свои особенности эксплуатации и это надо читать документацию к гипервизору.
Виртуалки более требовательны, так как у них запущено собственное ядро и собственное окружение, что потребляет лишнюю память и дает лишние потери производительности на слое виртуализации. Но они могут быть полностью отвязаны от железа хоста.
Что выбрать – смотреть по ситуации. Но в любом случае такая структура будет более гибкой и управляемой, нежели монолит.
👍56🤔6
Узнайте все о Docker и научитесь работать с контейнерами на продвинутом уровне.
Разрабатываете приложение, которое включает несколько сервисов? Один на Python, другой на Node.js — и каждый требует своей настройки окружения. С помощью Docker можно создать контейнеры для каждого сервиса и обеспечить себе удобную работу.
👉 Даем максимум практических знаний на курсе «Docker для админов и разработчиков»
На курсе вы:
🔹 узнаете, как работает Docker
🔹 разберете особенности использования Docker с различными языками программирования
🔹 изучите CI\CD в Docker
🔹 научитесь безопасно работать с Docker-контейнерами и расширите пул доступных вам инструментов
❗️Даем бесплатный демодоступ к первым модулям на ознакомление. А после покупки курс будет доступен 2 года.
👉 Смотреть программу курса и получить бесплатный доступ 👈
#реклама
О рекламодателе
Разрабатываете приложение, которое включает несколько сервисов? Один на Python, другой на Node.js — и каждый требует своей настройки окружения. С помощью Docker можно создать контейнеры для каждого сервиса и обеспечить себе удобную работу.
👉 Даем максимум практических знаний на курсе «Docker для админов и разработчиков»
На курсе вы:
🔹 узнаете, как работает Docker
🔹 разберете особенности использования Docker с различными языками программирования
🔹 изучите CI\CD в Docker
🔹 научитесь безопасно работать с Docker-контейнерами и расширите пул доступных вам инструментов
❗️Даем бесплатный демодоступ к первым модулям на ознакомление. А после покупки курс будет доступен 2 года.
👉 Смотреть программу курса и получить бесплатный доступ 👈
#реклама
О рекламодателе
👍2
В 2024 году основные игроки рынка отечественных операционных систем выпустили новые версии ОС:
🔹Astra Linux 1.8
🔹РЕД ОС 8
И только Альт ничего не выпустил, хотя и проанонсировал новую 11-ю платформу. И не сказать, что 10-я платформа устарела, но в конкурентной среде нужно держать руку на пульсе и идти в ногу, хотя бы из имиджевых соображений.
И видимо в этих самых целях они решили пропиарить выход платформы 10.4 как чего-то все-таки нового. Статья про Simply Linux 10.4 выполнена с прямым посылом – мы тоже выпускаем новые версии и всячески развиваемся.
Но кроме планового обновления версий софта ничего нового там не видно, ядро как было 6.1.49, так и осталось, хотя в Longterm уже вышло 6.12 и для домашней версии ядро уж можно было обновить.
В остальном все тоже самое, найдите, как говориться, десять отличий. Так что на значимое событие выпуск 10.4 явно не тянет, а решений на 11 платформе мы в этом году не увидели и вряд ли уже увидим.
🔹Astra Linux 1.8
🔹РЕД ОС 8
И только Альт ничего не выпустил, хотя и проанонсировал новую 11-ю платформу. И не сказать, что 10-я платформа устарела, но в конкурентной среде нужно держать руку на пульсе и идти в ногу, хотя бы из имиджевых соображений.
И видимо в этих самых целях они решили пропиарить выход платформы 10.4 как чего-то все-таки нового. Статья про Simply Linux 10.4 выполнена с прямым посылом – мы тоже выпускаем новые версии и всячески развиваемся.
Но кроме планового обновления версий софта ничего нового там не видно, ядро как было 6.1.49, так и осталось, хотя в Longterm уже вышло 6.12 и для домашней версии ядро уж можно было обновить.
В остальном все тоже самое, найдите, как говориться, десять отличий. Так что на значимое событие выпуск 10.4 явно не тянет, а решений на 11 платформе мы в этом году не увидели и вряд ли уже увидим.
👍19👎15🤣6🤡1
Разбираем монолит
В комментариях к вчерашней записи появились просьбы рассказать конкретику, но конкретики не будет. Потому что это, возможно, и интересно, но лишено особого практического смысла.
Почему? Ситуация в каждом случае своя и ее нельзя измерить пользователями, гигабайтами и т.п. метриками.
Самый простой пример. Два одинаковых диска, одинаковые параметры компьютера и сети, одинаковый объем данных. Только на одном лежат образы по 1,5 – 2 ГБ, а на другом россыпь килобайтных файлов. Понятно, что копирование данных займет совершенное разное время.
Поэтому исходить надо из собственной ситуации, тем более что все необходимые вводные у вас уже есть.
Прежде всего разбиваем наш монолит на составляющие его кубики. Просто берем лист бумаги и выписываем в столбик работающие на нем сервисы. Это наши будущие виртуалки или контейнеры.
В идеале идем к тому, что один сервис – один виртуальный инстанс. Даже если их можно объединить. Не нужно этого делать без крайней необходимости. Чем проще – тем удобнее, вы всегда можете легко вывести старую службу и заменить ее новым контейнером или ВМ.
А если у вас там совмещение, то это уже новый мини-монолит, где вам нужно учитывать уже большее количество влияющих на результат факторов.
Далее – выясняем потребность служб в ресурсах. Тут у вас все перед глазами. Снимаем нужные метрики с работающего монолита и получаем данные в первом приближении.
После чего оцениваем насколько текущее выделение соответствует оптимальному. Возможно, лимиты процесса у вас сознательно ограничены и, если он в эти лимиты упирается, то есть смысл выделить ему больше ресурсов.
Пишем на ту же бумажку по колонкам сколько нам надо и сколько бы хотелось. Основных ресурсов там три: ядра CPU, память, диск.
Последний заслуживает особого внимания. Сегодня у нас есть три основных типа накопителей:
HDD – медленно, но дешево за единицу объема, идеально для холодных данных
SATA SSD – промежуточный вариант, уже быстрее, но недостаточно быстро
NVMe – быстро, но дорого, самое то для горячих данных
Ваша цель – грамотно укомплектовать и распределить данные по трем типам носителей. Возможно, где-то придется уйти от сложившейся схемы и перераспределить ресурсы по-новому.
Смысл простой. Горячие данные, скажем, рабочие 1С базы – на NVMe, архивные – на SSD, файлопомойку – на жесткие. Но в любом случае отталкиваетесь от реальных метрик, все они у вас есть, надо только собрать.
С ресурсами определились, нарезали. При этом не надо бояться выделять ресурсы суммарно выше физического предела. Но вы должны четко понимать, что это только для пикового потребления и должны мониторить этот вопрос.
Теперь сам переезд. Большую часть работ можно спокойно выполнять в рабочее время. В нерабочее только перенос данных и то, если их нельзя перенести заранее и потом просто долить разницу.
Ту же файлопомойку вы можете спокойно скопировать в рабочее время, после чего через rsync долить разницу и запустить в контейнере.
Потом просто переключаем пользователей со старого ресурса на новый. Оптимально это делать посредством локального DNS, когда у всех пользователей все ресурсы прописаны по FQDN и нам достаточно просто изменить A-запись на DNS-сервере.
В остальных случаях смотрим, думаем и выбираем оптимальные варианты с учетом объемов данных и допустимого времени простоя.
Например, есть 1С сервер и его нельзя перенести полностью в технологическое окно. Но мы помним, что 1С сервер никаких ценных данных не хранит, все хранится на SQL-сервере.
Поэтому переносим сервер 1С в виртуальную среду, но базы продолжаем хранить на монолите. Потом по одной переносим базы в виртуальную среду и меняем настройки подключения на сервере 1С.
Для пользователя это абсолютно прозрачно, он даже не узнает, что его база переехала.
Это же касается и многого другого. Думаем, считаем, пробуем. Не получилось сразу – не беда, пользователи поработают еще некоторое время на этой службе в предоставлении монолита.
В комментариях к вчерашней записи появились просьбы рассказать конкретику, но конкретики не будет. Потому что это, возможно, и интересно, но лишено особого практического смысла.
Почему? Ситуация в каждом случае своя и ее нельзя измерить пользователями, гигабайтами и т.п. метриками.
Самый простой пример. Два одинаковых диска, одинаковые параметры компьютера и сети, одинаковый объем данных. Только на одном лежат образы по 1,5 – 2 ГБ, а на другом россыпь килобайтных файлов. Понятно, что копирование данных займет совершенное разное время.
Поэтому исходить надо из собственной ситуации, тем более что все необходимые вводные у вас уже есть.
Прежде всего разбиваем наш монолит на составляющие его кубики. Просто берем лист бумаги и выписываем в столбик работающие на нем сервисы. Это наши будущие виртуалки или контейнеры.
В идеале идем к тому, что один сервис – один виртуальный инстанс. Даже если их можно объединить. Не нужно этого делать без крайней необходимости. Чем проще – тем удобнее, вы всегда можете легко вывести старую службу и заменить ее новым контейнером или ВМ.
А если у вас там совмещение, то это уже новый мини-монолит, где вам нужно учитывать уже большее количество влияющих на результат факторов.
Далее – выясняем потребность служб в ресурсах. Тут у вас все перед глазами. Снимаем нужные метрики с работающего монолита и получаем данные в первом приближении.
После чего оцениваем насколько текущее выделение соответствует оптимальному. Возможно, лимиты процесса у вас сознательно ограничены и, если он в эти лимиты упирается, то есть смысл выделить ему больше ресурсов.
Пишем на ту же бумажку по колонкам сколько нам надо и сколько бы хотелось. Основных ресурсов там три: ядра CPU, память, диск.
Последний заслуживает особого внимания. Сегодня у нас есть три основных типа накопителей:
HDD – медленно, но дешево за единицу объема, идеально для холодных данных
SATA SSD – промежуточный вариант, уже быстрее, но недостаточно быстро
NVMe – быстро, но дорого, самое то для горячих данных
Ваша цель – грамотно укомплектовать и распределить данные по трем типам носителей. Возможно, где-то придется уйти от сложившейся схемы и перераспределить ресурсы по-новому.
Смысл простой. Горячие данные, скажем, рабочие 1С базы – на NVMe, архивные – на SSD, файлопомойку – на жесткие. Но в любом случае отталкиваетесь от реальных метрик, все они у вас есть, надо только собрать.
С ресурсами определились, нарезали. При этом не надо бояться выделять ресурсы суммарно выше физического предела. Но вы должны четко понимать, что это только для пикового потребления и должны мониторить этот вопрос.
Теперь сам переезд. Большую часть работ можно спокойно выполнять в рабочее время. В нерабочее только перенос данных и то, если их нельзя перенести заранее и потом просто долить разницу.
Ту же файлопомойку вы можете спокойно скопировать в рабочее время, после чего через rsync долить разницу и запустить в контейнере.
Потом просто переключаем пользователей со старого ресурса на новый. Оптимально это делать посредством локального DNS, когда у всех пользователей все ресурсы прописаны по FQDN и нам достаточно просто изменить A-запись на DNS-сервере.
В остальных случаях смотрим, думаем и выбираем оптимальные варианты с учетом объемов данных и допустимого времени простоя.
Например, есть 1С сервер и его нельзя перенести полностью в технологическое окно. Но мы помним, что 1С сервер никаких ценных данных не хранит, все хранится на SQL-сервере.
Поэтому переносим сервер 1С в виртуальную среду, но базы продолжаем хранить на монолите. Потом по одной переносим базы в виртуальную среду и меняем настройки подключения на сервере 1С.
Для пользователя это абсолютно прозрачно, он даже не узнает, что его база переехала.
Это же касается и многого другого. Думаем, считаем, пробуем. Не получилось сразу – не беда, пользователи поработают еще некоторое время на этой службе в предоставлении монолита.
👍46💯6
Как сделать почтовую систему неуязвимой для кибератак?
Разберемся на онлайн-митапе «Дизайн и харденинг почтовых систем: новогодний подарок для ИБ» от К2Тех. Он пройдет 17 декабря в 16:00.
Эксперты расскажут о значении харденинг подхода для комплексной защиты ИТ-инфраструктуры, а также поделятся рабочими технологиями для повышения безопасности периметра корпоративной почты.
На встрече вы узнаете:
- Как внедрить почтовую систему с применением харденинг подхода?
- Какие эффективные практики и инструменты харденинга используются на рынке?
- Как работает правило Парето на примере защиты почтовых систем?
Регистрируйтесь на митап по ссылке
Реклама. АО "К2 ИНТЕГРАЦИЯ". ИНН 7701829110.
Разберемся на онлайн-митапе «Дизайн и харденинг почтовых систем: новогодний подарок для ИБ» от К2Тех. Он пройдет 17 декабря в 16:00.
Эксперты расскажут о значении харденинг подхода для комплексной защиты ИТ-инфраструктуры, а также поделятся рабочими технологиями для повышения безопасности периметра корпоративной почты.
На встрече вы узнаете:
- Как внедрить почтовую систему с применением харденинг подхода?
- Какие эффективные практики и инструменты харденинга используются на рынке?
- Как работает правило Парето на примере защиты почтовых систем?
Регистрируйтесь на митап по ссылке
Реклама. АО "К2 ИНТЕГРАЦИЯ". ИНН 7701829110.
🔥1
Работа оборудования Mikrotik в режиме беспроводной станции (клиента)
Режим беспроводной станции (клиента) используется в Mikrotik гораздо реже, чем режим точки доступа, но часто, когда возникает в этом потребность, администраторы сталкиваются с различного рода затруднениями.
Во многом это происходит из-за недостаточного понимания особенностей работы беспроводного оборудования в данном режиме.
Поэтому в рамках данной статьи мы решили познакомить читателей с теорией и практикой применения роутеров данного производителя в качестве беспроводной станции и ответить на часто задаваемые вопросы.
https://interface31.ru/tech_it/2021/11/rabota-routerov-mikrotik-v-rezhime-besprovodnoy-stancii.html
Режим беспроводной станции (клиента) используется в Mikrotik гораздо реже, чем режим точки доступа, но часто, когда возникает в этом потребность, администраторы сталкиваются с различного рода затруднениями.
Во многом это происходит из-за недостаточного понимания особенностей работы беспроводного оборудования в данном режиме.
Поэтому в рамках данной статьи мы решили познакомить читателей с теорией и практикой применения роутеров данного производителя в качестве беспроводной станции и ответить на часто задаваемые вопросы.
https://interface31.ru/tech_it/2021/11/rabota-routerov-mikrotik-v-rezhime-besprovodnoy-stancii.html
👍23
Как правильно определить количество свободной памяти в Linux
Классика жанра – почему у меня в системе не хватает памяти, если системный монитор или панель говорят, что памяти еще достаточно.
Сегодня снова задали такой вопрос, мол если верить Proxmox, то памяти еще хватает (занято 70%), но Zabbix начал сигналить о катастрофической нехватке памяти (занято свыше 90%). Кто не прав?
Чтобы это понять выполним в консоли команду:
И изучим ее вывод, он содержит несколько столбцов:
▫️ total: Общее количество установленной физической памяти.
▫️ used: Количество памяти, которое в настоящее время используется.
▫️ free: Свободная физической памяти, доступная для немедленного использования.
▫️shared: Память, которая разделяется между процессами, например, библиотеки, которые могут быть использованы несколькими процессами одновременно.
▫️ buffers/cache: Память, которая используется в качестве буферов для операций ввода-вывода и в качестве кэша для операций
▫️ available: Количество памяти, которая доступна для использования, учитывая, что часть памяти, используемая как buffers/cache может быть освобождена при необходимости.
Если сравнить то, что показывает Proxmox, системный монитор и т.д., то он показывает именно available. Так может нечего переживать? Все норм и Zabbiх зря нагоняет панику?
А вот и нет. Во-первых, не все буферы можно сбросить, во-вторых, сброс буферов – дорогая операция, так как в последующем вместо быстрого доступа к нужным данным из памяти мы получим медленное чтение и с диска.
И система, если процесс попросит памяти больше, чем free еще десять раз подумает, а сбрасывать ли буфер?
А помогать ей в этом будет OOM Killer, который ведет строгий учет всех запущенных процессов, оценивая их по множеству критериев и присваивая «очки негодности».
И альтернативой сброса буферов может оказаться убийство «негодного» процесса. И скорее всего так оно и произойдет. Хотя со стороны кажется, что память еще есть и можно развернуться.
На нашей практике примерно в такой же ситуации регулярно выключалась неактивная виртуалка. И администратор долго не мог понять почему, пока не посмотрел на вывод free, а не дашборды Proxmox.
Поэтому не следует верить тому, что показывают графики или индикаторы, все, на что вы можете железобетонно рассчитывать – это free, а available – это то, что могут дать, а могут догнать и еще раз дать. Учитывайте это.
И Zabbix в этом случае не нагоняет жути, а по сути прав, так как учитывает описанные выше особенности.
А на закуску можем посоветовать почитать наши статьи:
🔹 Что такое пространства подкачки и как они работают
🔹 Что такое OOM Killer и как он работает
Классика жанра – почему у меня в системе не хватает памяти, если системный монитор или панель говорят, что памяти еще достаточно.
Сегодня снова задали такой вопрос, мол если верить Proxmox, то памяти еще хватает (занято 70%), но Zabbix начал сигналить о катастрофической нехватке памяти (занято свыше 90%). Кто не прав?
Чтобы это понять выполним в консоли команду:
free – h
И изучим ее вывод, он содержит несколько столбцов:
▫️ total: Общее количество установленной физической памяти.
▫️ used: Количество памяти, которое в настоящее время используется.
▫️ free: Свободная физической памяти, доступная для немедленного использования.
▫️shared: Память, которая разделяется между процессами, например, библиотеки, которые могут быть использованы несколькими процессами одновременно.
▫️ buffers/cache: Память, которая используется в качестве буферов для операций ввода-вывода и в качестве кэша для операций
▫️ available: Количество памяти, которая доступна для использования, учитывая, что часть памяти, используемая как buffers/cache может быть освобождена при необходимости.
Если сравнить то, что показывает Proxmox, системный монитор и т.д., то он показывает именно available. Так может нечего переживать? Все норм и Zabbiх зря нагоняет панику?
А вот и нет. Во-первых, не все буферы можно сбросить, во-вторых, сброс буферов – дорогая операция, так как в последующем вместо быстрого доступа к нужным данным из памяти мы получим медленное чтение и с диска.
И система, если процесс попросит памяти больше, чем free еще десять раз подумает, а сбрасывать ли буфер?
А помогать ей в этом будет OOM Killer, который ведет строгий учет всех запущенных процессов, оценивая их по множеству критериев и присваивая «очки негодности».
И альтернативой сброса буферов может оказаться убийство «негодного» процесса. И скорее всего так оно и произойдет. Хотя со стороны кажется, что память еще есть и можно развернуться.
На нашей практике примерно в такой же ситуации регулярно выключалась неактивная виртуалка. И администратор долго не мог понять почему, пока не посмотрел на вывод free, а не дашборды Proxmox.
Поэтому не следует верить тому, что показывают графики или индикаторы, все, на что вы можете железобетонно рассчитывать – это free, а available – это то, что могут дать, а могут догнать и еще раз дать. Учитывайте это.
И Zabbix в этом случае не нагоняет жути, а по сути прав, так как учитывает описанные выше особенности.
А на закуску можем посоветовать почитать наши статьи:
🔹 Что такое пространства подкачки и как они работают
🔹 Что такое OOM Killer и как он работает
👍49👎1😱1🤡1
Как все потерять и ничего не понять
Сегодня суббота, а поэтому будет одна поучительная история из жизни. Середина нулевых, один местечковый районный провайдер, тогда таких было много.
Мы одно время работали в одном здании с ними, а поэтому хорошо друг друга знали. Потом у них дела пошли в гору, и они переехали в отдельное здание и наши пути потихоньку разошлись.
Ребята там были неплохие, кроме директора, был он, мягко скажем, немного скуповатым, хотя если честно, то далеко не немного. Но была у него еще вторая негативная черта характера. Все, кто имел сомнительное удовольствие с ним долго общаться не именовали его иначе чем чудак на букву М.
Я тоже жил на том районе и пользовался их интернетом и вскоре начал замечать, что проблемы только растут и множатся. То скорости нет, то связь пропала, то еще что-нибудь.
Хотя были иногда и приятные моменты, скажем, на майские праздники отключился биллинг и каждый качал-закачивался. А интернет в ту пору тарифицировался, если кто не помнит или не знает, помегабайтно.
Потом я как-то спросил ребят провайдера, а что это за аттракцион невиданной щедрости был?
Выяснилось, что шеф расплевался с их давним сисадмимном, который стоял еще у истоков конторы и тот ушел, хлопнув дверью и назвав шефа чудаком. За серверами с диковинной FreeBSD никто не следил, так как не понимал, как следить и в один прекрасный день место на дисках просто кончилось.
Биллинг прилег и народ все праздники резвился, попутно загоняя контору в долги. После чего из конторы ушел второй человек, который также стоял у ее основания и понимал в сетях.
Но шефа ничего не смутило, подумаешь, сисадмин, ну и подумаешь сетевой инженер. Больно нужны, у нас же все хорошо. Были приглашены специалисты со стороны и был внедрен новый биллинг, уже на Linux.
Между тем качество услуг стремительно падало, но во всем оказались виноваты пользователи, мол это они положили сеть широковещательными чатами и DC++ обменом. После чего эти приложения попытались просто запретить. Мол у кого обнаружим – отключим.
Но отключить пришлось бы решительно всех, поэтому такая инициатива сошла на нет. Лучше, естественно, не стало. Да и как оно станет в отсутствие сетевого инженера.
Прошло еще года полтора, звонит мне их шеф, мол ты же в Linux понимаешь? Понимаю. Приезжай, дело есть.
Приехал. Новый биллинг лежит. Начинаю разбираться. В наличии неплохой по тем временам сервер и RAID 5 с запасным диском. В RAID 5 выпали два диска из трех, а запасной кто-то свистнул, поставив вместо него неисправный диск бытовой серии.
Ну что тут было сказать? Только похлопать по плечу и сообщить, что медицина бессильна. Особенно если в штате не было ни одного следящего за инфраструктурой сотрудника.
Пошарившись по серверной нашли сервер с бекапами, но там был только бекап БД биллинга.
Ну вот, не все так плохо, можно восстановить.
Он спрашивает меня, смогу ли я это сделать. Отвечаю, что нет, я этот биллинг первый раз в жизни вижу и лучше всего обратиться к его разработчикам.
Выяснилось, что это не вариант, так как он им денег должен и за поддержу не платил два года. А зачем, ведь все работало.
В общем принес ему свои соболезнования и сказал, что мне пора и было бы неплохо дать мне денег.
На что услышал, а за что тебе денег, ты же ничем мне не помог. В общем пояснил ему, что он чудак, развернулся и ушел.
Провайдеру тут же настал карачун, народ разбежался, а шеф, шеф продал сети одному из федеральных провайдеров.
А что же теперь? А он теперь начальник в местном отделении федерального провайдера. До чего-то важного его не допускают, но теплое кресло выделили. Ну и репутация чудака на букву М за ним числится до сих пор.
Он же, в свою очередь, особенно после пары рюмок, любит поучать молодежь и рассказывать как у него давно был свой бизнес и как он его удачно продал, поняв, что не может тягаться на равных с федералами.
Сегодня суббота, а поэтому будет одна поучительная история из жизни. Середина нулевых, один местечковый районный провайдер, тогда таких было много.
Мы одно время работали в одном здании с ними, а поэтому хорошо друг друга знали. Потом у них дела пошли в гору, и они переехали в отдельное здание и наши пути потихоньку разошлись.
Ребята там были неплохие, кроме директора, был он, мягко скажем, немного скуповатым, хотя если честно, то далеко не немного. Но была у него еще вторая негативная черта характера. Все, кто имел сомнительное удовольствие с ним долго общаться не именовали его иначе чем чудак на букву М.
Я тоже жил на том районе и пользовался их интернетом и вскоре начал замечать, что проблемы только растут и множатся. То скорости нет, то связь пропала, то еще что-нибудь.
Хотя были иногда и приятные моменты, скажем, на майские праздники отключился биллинг и каждый качал-закачивался. А интернет в ту пору тарифицировался, если кто не помнит или не знает, помегабайтно.
Потом я как-то спросил ребят провайдера, а что это за аттракцион невиданной щедрости был?
Выяснилось, что шеф расплевался с их давним сисадмимном, который стоял еще у истоков конторы и тот ушел, хлопнув дверью и назвав шефа чудаком. За серверами с диковинной FreeBSD никто не следил, так как не понимал, как следить и в один прекрасный день место на дисках просто кончилось.
Биллинг прилег и народ все праздники резвился, попутно загоняя контору в долги. После чего из конторы ушел второй человек, который также стоял у ее основания и понимал в сетях.
Но шефа ничего не смутило, подумаешь, сисадмин, ну и подумаешь сетевой инженер. Больно нужны, у нас же все хорошо. Были приглашены специалисты со стороны и был внедрен новый биллинг, уже на Linux.
Между тем качество услуг стремительно падало, но во всем оказались виноваты пользователи, мол это они положили сеть широковещательными чатами и DC++ обменом. После чего эти приложения попытались просто запретить. Мол у кого обнаружим – отключим.
Но отключить пришлось бы решительно всех, поэтому такая инициатива сошла на нет. Лучше, естественно, не стало. Да и как оно станет в отсутствие сетевого инженера.
Прошло еще года полтора, звонит мне их шеф, мол ты же в Linux понимаешь? Понимаю. Приезжай, дело есть.
Приехал. Новый биллинг лежит. Начинаю разбираться. В наличии неплохой по тем временам сервер и RAID 5 с запасным диском. В RAID 5 выпали два диска из трех, а запасной кто-то свистнул, поставив вместо него неисправный диск бытовой серии.
Ну что тут было сказать? Только похлопать по плечу и сообщить, что медицина бессильна. Особенно если в штате не было ни одного следящего за инфраструктурой сотрудника.
Пошарившись по серверной нашли сервер с бекапами, но там был только бекап БД биллинга.
Ну вот, не все так плохо, можно восстановить.
Он спрашивает меня, смогу ли я это сделать. Отвечаю, что нет, я этот биллинг первый раз в жизни вижу и лучше всего обратиться к его разработчикам.
Выяснилось, что это не вариант, так как он им денег должен и за поддержу не платил два года. А зачем, ведь все работало.
В общем принес ему свои соболезнования и сказал, что мне пора и было бы неплохо дать мне денег.
На что услышал, а за что тебе денег, ты же ничем мне не помог. В общем пояснил ему, что он чудак, развернулся и ушел.
Провайдеру тут же настал карачун, народ разбежался, а шеф, шеф продал сети одному из федеральных провайдеров.
А что же теперь? А он теперь начальник в местном отделении федерального провайдера. До чего-то важного его не допускают, но теплое кресло выделили. Ну и репутация чудака на букву М за ним числится до сих пор.
Он же, в свою очередь, особенно после пары рюмок, любит поучать молодежь и рассказывать как у него давно был свой бизнес и как он его удачно продал, поняв, что не может тягаться на равных с федералами.
🔥50🤣34👍16😁5
Прикупил себе обновку
Пользуясь, случаем сделал небольшой апгрейд, до этого я с начала 2020 года использовал платформу AM4 в составе материнской платы MSI X470 GAMING PLUS MAX и процессора Ryzen 7 2700 X.
В целом, даже на сегодняшний день, платформа обеспечивала достаточную производительность и менять ее целиком не было никакого финансового смысла. Но немного оживить, конечно, хотелось.
Изучив спецификации, выяснилось, что материнская плата поддерживает старшие модели поколения Zen 3, чем и решил воспользоваться.
Сегодня место Ryzen 7 2700 Х занял Ryzen 9 5900 X, апгрейд прошел буднично: обновил BIOS, поменял камень.
Охлаждение оставил старое, башня DEEPCOOL GAMMAXX 400 V2, при стресс-тесте «Перестойка» стабильно держала температуру на 80 – 81 градусе. Реальный тепловой пакет процессора – 145 Вт, при заявленных 105 Вт.
Но это нормально, тепловой пакет указывается для номинальной частоты 3,7 ГГц, в то время как данный процессор может разгоняться до 4,8 ГГц, но такой частоты я не видел, кроме как в тесте, а вот на 4,5 ГГц он спокойно выходит при повседневных нагрузках.
Невооруженным глазом тоже виден эффект, особенно на тяжелых задачах. Рендеринг видео, сборка проектов – все идет значительно быстрее. Новый процессор более производителен как на ядро, так и предоставляет большее количество ядер / потоков.
Поэтому AM4 еще рано списывать со счетов, особенно с учетом того, что ее можно укомплектовать относительно дешевой памятью DDR 4. В результате получаем вполне производительную платформу за умеренный прайс.
Понятно, что Ryzen 9 5900 X нужен не всем, процессор не дешевый и если вы не знаете куда деть его ядра/потоки, то он вам не нужен. Но можно взять что-то более простое из этой линейки, особенно если нужен апргейд.
В целом сегодня AM 4 выглядит все еще привлекательно, но уже не так дорого и представляет хорошую альтернативу китайским Xeon, но гораздо более производительную.
Пользуясь, случаем сделал небольшой апгрейд, до этого я с начала 2020 года использовал платформу AM4 в составе материнской платы MSI X470 GAMING PLUS MAX и процессора Ryzen 7 2700 X.
В целом, даже на сегодняшний день, платформа обеспечивала достаточную производительность и менять ее целиком не было никакого финансового смысла. Но немного оживить, конечно, хотелось.
Изучив спецификации, выяснилось, что материнская плата поддерживает старшие модели поколения Zen 3, чем и решил воспользоваться.
Сегодня место Ryzen 7 2700 Х занял Ryzen 9 5900 X, апгрейд прошел буднично: обновил BIOS, поменял камень.
Охлаждение оставил старое, башня DEEPCOOL GAMMAXX 400 V2, при стресс-тесте «Перестойка» стабильно держала температуру на 80 – 81 градусе. Реальный тепловой пакет процессора – 145 Вт, при заявленных 105 Вт.
Но это нормально, тепловой пакет указывается для номинальной частоты 3,7 ГГц, в то время как данный процессор может разгоняться до 4,8 ГГц, но такой частоты я не видел, кроме как в тесте, а вот на 4,5 ГГц он спокойно выходит при повседневных нагрузках.
Невооруженным глазом тоже виден эффект, особенно на тяжелых задачах. Рендеринг видео, сборка проектов – все идет значительно быстрее. Новый процессор более производителен как на ядро, так и предоставляет большее количество ядер / потоков.
Поэтому AM4 еще рано списывать со счетов, особенно с учетом того, что ее можно укомплектовать относительно дешевой памятью DDR 4. В результате получаем вполне производительную платформу за умеренный прайс.
Понятно, что Ryzen 9 5900 X нужен не всем, процессор не дешевый и если вы не знаете куда деть его ядра/потоки, то он вам не нужен. Но можно взять что-то более простое из этой линейки, особенно если нужен апргейд.
В целом сегодня AM 4 выглядит все еще привлекательно, но уже не так дорого и представляет хорошую альтернативу китайским Xeon, но гораздо более производительную.
👍41🔥23
Готовы написать свой первый скрипт на Bash и забыть про ручное управление?
🎥 19 декабря в 19:00 состоится открытый урок по автоматизации рутинных задач с помощью Bash скриптов.
Эксперты Михаил Охрименко, OpenStack Tech Lead, и Кирилл Борисов, SRE в VK расскажут:
👉 Что такое Bash и почему это важно
👉 Как скрипты на Bash помогают автоматизировать рутинные задачи
👉 Базовые команды для работы с Linux — управление файлами и папками через консоль, быстрый поиск информации и работа с текстом
Зрители открытого урока получат шпаргалку «Основные навыки администратора Linux» — с ней вы точно не пропустите ни один важный инструмент.
Вебинар проходит в рамках курса «Администрирование Linux».
Старт потока 27 января 📌
📍Занять место на вебинаре
#реклама
О рекламодателе
erid: LjN8KNCkk
🎥 19 декабря в 19:00 состоится открытый урок по автоматизации рутинных задач с помощью Bash скриптов.
Эксперты Михаил Охрименко, OpenStack Tech Lead, и Кирилл Борисов, SRE в VK расскажут:
👉 Что такое Bash и почему это важно
👉 Как скрипты на Bash помогают автоматизировать рутинные задачи
👉 Базовые команды для работы с Linux — управление файлами и папками через консоль, быстрый поиск информации и работа с текстом
Зрители открытого урока получат шпаргалку «Основные навыки администратора Linux» — с ней вы точно не пропустите ни один важный инструмент.
Вебинар проходит в рамках курса «Администрирование Linux».
Старт потока 27 января 📌
📍Занять место на вебинаре
#реклама
О рекламодателе
erid: LjN8KNCkk
👍3
Как правильно сделать апгрейд
Любой апгрейд или сборка новой системы начинается с процессора и только потом вокруг процессора строится система в рамках выделенного бюджета. И это правильно, так как именно процессор определяет производительность и актуальность системы на годы ее работы.
Прежде чем переходить к выбору следует сесть и честно ответить себе на следующие вопросы: какие задачи моя сегодняшняя система решает плохо и какие задачи должна решать хорошо моя будущая система?
Нет, можно, конечно, купить побольше всего, но что толку, если все эти ядра и мегагерцы не будут использоваться, а вы будете, как и прежде испытывать недостаток оперативной памяти, так может быть стоило взять процессор попроще, а памяти побольше?
Плюс есть еще один стимул для апгрейда – возможность продать устаревшую платформу по все еще адекватной цене и доплатив взять что-то более новое. Здесь, как правило, задачи не меняются и берется все тоже самое, только поновее. Ну и улучшается, что можно в рамках бюджета, например, объем ОЗУ или дисков.
Но вернемся к процессору. Для его правильного выбора нам нужно сравнить параметры нового варианта со старым и возможно еще какими-то альтернативами. Основных сравниваемых параметра три: производительность ядра, общая производительность и тепловой пакет.
Для такого сравнения можно выбрать любой ресурс, где есть тесты множества пользователей и инструмент сравнения, мы, например, используем https://www.cpubenchmark.net. Конкретно выбор источника ни на что не влияет, все равно мы сравниваем отвлеченные попугаи.
Вернемся к нашему случаю, мы сравнивали Ryzen 7 2700X и два топовых процессора в линейке АМ 4 - Ryzen 9 5900X и Ryzen 9 5950X.
Согласно данным ресурса последний – однозначный топ, набирает 45 599 попугаев в рейтинге, предоставляя 16 ядер/32 потока с базовой частотой 3,4 ГГц и разгоном до 4,9 ГГц.
Второй кандидат отстает от него на 14% и показывает 39 103 попугая, предоставляя 12 ядер и 24 потока с базовой частотой 3,7 ГГц и максимальной 4,8 ГГц.
Оба варианта обходят старый процессор на 30% в производительности одного ядра и более чем вдове в общей производительности и, казалось бы, выбор тут очевиден.
Но не все так просто. Если посмотреть на ядра Ryzen 9 5900X и Ryzen 9 5950X, то выясним, что производительность на ядро у них одинаковая, а номинальная частота Ryzen 9 5950X даже ниже, т.е. если вы эффективно не используете все имеющиеся в наличии ядра, то вы окажетесь даже немного в более худшей ситуации, нежели с Ryzen 9 5900X.
Не сказать, что это критически важно, но для некоторых приложений (например, 1С:Предприятие) может быть ощутимо.
Но главный критерий истины – цена. На момент написания этой заметки Ryzen 9 5900X стоит в рознице 36 699 ₽, а Ryzen 9 5950X - 47 999 ₽. Таким образом разница в цене составляет ~ 23.5%, тогда как разница в производительности всего 14,2%.
При этом это разница в общей производительности, т.е. ее вы увидите только в том случае, если эффективно нагрузите все ядра, так как производительность на одно ядро у вас равна.
При этом очевидно, что разница в производительности не растет пропорционально ядрам. Количество ядер в Ryzen 9 5950X больше на 25%, что как раз отображает разница в цене, а производительность выше всего на 14%.
А дальше думайте сами, готовы ли вы переплатить лишние 11 тысяч за призрачные 14% попугаев или нет, ну и найдутся ли у вас такие задачи, в которых вы этих попугаев увидите.
Ну и последний параметр – тепловой пакет. У всех трех процессоров он составляет 105 Вт, но тут есть одна тонкость, данный параметр приводится для номинальной частоты, а в разгоне все три этих процессора потребляют порядка 140-150 Вт, что следует учитывать при выборе системы охлаждения и источника питания.
В нашем случае ее можно не менять, так как тепловые параметры процессоров не изменились, тоже самое касается и блока питания. В противном случае вам придется дополнительно раскошелиться на эти два элемента, что способно серьезно изменить бюджет всего апгрейда.
Любой апгрейд или сборка новой системы начинается с процессора и только потом вокруг процессора строится система в рамках выделенного бюджета. И это правильно, так как именно процессор определяет производительность и актуальность системы на годы ее работы.
Прежде чем переходить к выбору следует сесть и честно ответить себе на следующие вопросы: какие задачи моя сегодняшняя система решает плохо и какие задачи должна решать хорошо моя будущая система?
Нет, можно, конечно, купить побольше всего, но что толку, если все эти ядра и мегагерцы не будут использоваться, а вы будете, как и прежде испытывать недостаток оперативной памяти, так может быть стоило взять процессор попроще, а памяти побольше?
Плюс есть еще один стимул для апгрейда – возможность продать устаревшую платформу по все еще адекватной цене и доплатив взять что-то более новое. Здесь, как правило, задачи не меняются и берется все тоже самое, только поновее. Ну и улучшается, что можно в рамках бюджета, например, объем ОЗУ или дисков.
Но вернемся к процессору. Для его правильного выбора нам нужно сравнить параметры нового варианта со старым и возможно еще какими-то альтернативами. Основных сравниваемых параметра три: производительность ядра, общая производительность и тепловой пакет.
Для такого сравнения можно выбрать любой ресурс, где есть тесты множества пользователей и инструмент сравнения, мы, например, используем https://www.cpubenchmark.net. Конкретно выбор источника ни на что не влияет, все равно мы сравниваем отвлеченные попугаи.
Вернемся к нашему случаю, мы сравнивали Ryzen 7 2700X и два топовых процессора в линейке АМ 4 - Ryzen 9 5900X и Ryzen 9 5950X.
Согласно данным ресурса последний – однозначный топ, набирает 45 599 попугаев в рейтинге, предоставляя 16 ядер/32 потока с базовой частотой 3,4 ГГц и разгоном до 4,9 ГГц.
Второй кандидат отстает от него на 14% и показывает 39 103 попугая, предоставляя 12 ядер и 24 потока с базовой частотой 3,7 ГГц и максимальной 4,8 ГГц.
Оба варианта обходят старый процессор на 30% в производительности одного ядра и более чем вдове в общей производительности и, казалось бы, выбор тут очевиден.
Но не все так просто. Если посмотреть на ядра Ryzen 9 5900X и Ryzen 9 5950X, то выясним, что производительность на ядро у них одинаковая, а номинальная частота Ryzen 9 5950X даже ниже, т.е. если вы эффективно не используете все имеющиеся в наличии ядра, то вы окажетесь даже немного в более худшей ситуации, нежели с Ryzen 9 5900X.
Не сказать, что это критически важно, но для некоторых приложений (например, 1С:Предприятие) может быть ощутимо.
Но главный критерий истины – цена. На момент написания этой заметки Ryzen 9 5900X стоит в рознице 36 699 ₽, а Ryzen 9 5950X - 47 999 ₽. Таким образом разница в цене составляет ~ 23.5%, тогда как разница в производительности всего 14,2%.
При этом это разница в общей производительности, т.е. ее вы увидите только в том случае, если эффективно нагрузите все ядра, так как производительность на одно ядро у вас равна.
При этом очевидно, что разница в производительности не растет пропорционально ядрам. Количество ядер в Ryzen 9 5950X больше на 25%, что как раз отображает разница в цене, а производительность выше всего на 14%.
А дальше думайте сами, готовы ли вы переплатить лишние 11 тысяч за призрачные 14% попугаев или нет, ну и найдутся ли у вас такие задачи, в которых вы этих попугаев увидите.
Ну и последний параметр – тепловой пакет. У всех трех процессоров он составляет 105 Вт, но тут есть одна тонкость, данный параметр приводится для номинальной частоты, а в разгоне все три этих процессора потребляют порядка 140-150 Вт, что следует учитывать при выборе системы охлаждения и источника питания.
В нашем случае ее можно не менять, так как тепловые параметры процессоров не изменились, тоже самое касается и блока питания. В противном случае вам придется дополнительно раскошелиться на эти два элемента, что способно серьезно изменить бюджет всего апгрейда.
👍35👌5❤1
Особенности выбора современной материнской платы
Раз уж темой этих выходных стал апгрейд, то коснемся еще такого вопроса как выбор материнской платы.
Когда-то давно к этому вопросу надо было подходить серьезно, так как это был практически равнозначный по важности наряду с процессором компонент. Неудачный выбор материнской платы мог серьезно повлиять на производительность системы.
Сегодня же все важные контроллеры переехали в сам процессор, и материнская плата утратила свое ведущее значение, превратившись с в своего рода шасси для установки остальных компонент системы с набором второстепенных контроллеров.
Поэтому ее выбор стал сугубо вторичен, единственное, на что следует обращать внимание – это на подсистему питания процессора – VRM. Это многоканальный преобразователь, преобразующий напряжение линии 12 В в низковольтное питание процессора.
Почему многоканальный? Потому что один канал не способен и близко предоставить требуемый ток, поэтому VRM делают многоканальным или многофазным.
Возьмем все тот же Ryzen 9 5900X, с номинальным потреблением 105 Вт и фактическим (в бусте) 145 Вт. При напряжении питания процессора 1,3 В это предполагает ток от 81 до 112 А.
Ток немаленький и очень и очень немного силовых элементов может такой ток коммутировать, причем коммутировать без излишней нагрузки и тепловыделения.
Поэтому подсистема питания подает этот ток по нескольким линиям – фазам. Для каждой фазы используются силовые транзисторы MOSFET с рабочими токами в 25 -45 А, в топовых платах могут использовать MOSFET и на 60 А, но это чаще всего исключения.
Таким образом для тока в 81 А нам понадобится минимум 4 фазы, а для 112 А – уже шесть. Причем такая информация производителем не публикуется и могут быть различные варианты.
Например, поставив в VRM 4 фазы по 25 А и обеспечив 100 А тока производитель может заявить совместимость с Ryzen 9 5900X и формально будет прав, штатные 105 Вт этот VRM обеспечит.
Но дальше все будет грустно. На качественно плате процессор уйдет в троттлинга по температуре VRM или все закончится достаточно быстро и печально, выходом из строя материнской платы или процессора, а может и их обоих.
Внешне быстро оценить количество фаз можно по числу дросселей, но помните, что кроме фаз питания процессора там отдельно расположены фазы питания контроллера памяти.
В любом случае если вы собираетесь апгрейдить платформу и предусматриваете установку старших моделей процессоров с разблокированным множителем, то сразу смотрите в сторону топовых и игровых материнских плат.
И это, пожалуй, основной существенный фактор по выбору материнской платы, который способен серьезно отравить вам жизнь. Остальное – это уже сугубо сервисные функции.
Все остальное, что предоставляет материнская плата, кроме VRM, это просто набор разъемов и дополнительных контроллеров: ввода-вывода, сетевого, звукового и т.д. и т.п., а также количество разведенных слотов и разъемов.
Но тут есть тоже над чем поломать голову. Если вы сначала выберете материнскую плату, то вам придется все остальные свои хотелки впихивать в ее возможности. А это неправильно.
Правильно сначала выбрать процессор, желаемое количество оперативной памяти и накопителей. После чего вы поймете сколько вам нужно слотов памяти и сколько разъемов под накопители. И если M.2 NVMe можно легко нарастить, используя неиспользуемые линии PCIe, то SATA разъемов количество конечное.
Потом определяемся с сетью, звуком и видеокартой, в отношении последней сразу смотрим сколько слотов она перекрывает, особенно если у вас есть на них виды.
А дальше подбиваем все наши хотелки и ставим соответствующие фильтры в разделе материнских плат продавца. И результатов там будет немного, преимущественно из топового сегмента.
Но тут мы экономить не советуем. Так как вы получите не только качественную систему питания, но и большое количество периферийных разъемов.
Что касается типоразмера, то следует смотреть в сторону полноразмерного ATX, который позволит разместить все компоненты без лишних проблем.
Раз уж темой этих выходных стал апгрейд, то коснемся еще такого вопроса как выбор материнской платы.
Когда-то давно к этому вопросу надо было подходить серьезно, так как это был практически равнозначный по важности наряду с процессором компонент. Неудачный выбор материнской платы мог серьезно повлиять на производительность системы.
Сегодня же все важные контроллеры переехали в сам процессор, и материнская плата утратила свое ведущее значение, превратившись с в своего рода шасси для установки остальных компонент системы с набором второстепенных контроллеров.
Поэтому ее выбор стал сугубо вторичен, единственное, на что следует обращать внимание – это на подсистему питания процессора – VRM. Это многоканальный преобразователь, преобразующий напряжение линии 12 В в низковольтное питание процессора.
Почему многоканальный? Потому что один канал не способен и близко предоставить требуемый ток, поэтому VRM делают многоканальным или многофазным.
Возьмем все тот же Ryzen 9 5900X, с номинальным потреблением 105 Вт и фактическим (в бусте) 145 Вт. При напряжении питания процессора 1,3 В это предполагает ток от 81 до 112 А.
Ток немаленький и очень и очень немного силовых элементов может такой ток коммутировать, причем коммутировать без излишней нагрузки и тепловыделения.
Поэтому подсистема питания подает этот ток по нескольким линиям – фазам. Для каждой фазы используются силовые транзисторы MOSFET с рабочими токами в 25 -45 А, в топовых платах могут использовать MOSFET и на 60 А, но это чаще всего исключения.
Таким образом для тока в 81 А нам понадобится минимум 4 фазы, а для 112 А – уже шесть. Причем такая информация производителем не публикуется и могут быть различные варианты.
Например, поставив в VRM 4 фазы по 25 А и обеспечив 100 А тока производитель может заявить совместимость с Ryzen 9 5900X и формально будет прав, штатные 105 Вт этот VRM обеспечит.
Но дальше все будет грустно. На качественно плате процессор уйдет в троттлинга по температуре VRM или все закончится достаточно быстро и печально, выходом из строя материнской платы или процессора, а может и их обоих.
Внешне быстро оценить количество фаз можно по числу дросселей, но помните, что кроме фаз питания процессора там отдельно расположены фазы питания контроллера памяти.
В любом случае если вы собираетесь апгрейдить платформу и предусматриваете установку старших моделей процессоров с разблокированным множителем, то сразу смотрите в сторону топовых и игровых материнских плат.
И это, пожалуй, основной существенный фактор по выбору материнской платы, который способен серьезно отравить вам жизнь. Остальное – это уже сугубо сервисные функции.
Все остальное, что предоставляет материнская плата, кроме VRM, это просто набор разъемов и дополнительных контроллеров: ввода-вывода, сетевого, звукового и т.д. и т.п., а также количество разведенных слотов и разъемов.
Но тут есть тоже над чем поломать голову. Если вы сначала выберете материнскую плату, то вам придется все остальные свои хотелки впихивать в ее возможности. А это неправильно.
Правильно сначала выбрать процессор, желаемое количество оперативной памяти и накопителей. После чего вы поймете сколько вам нужно слотов памяти и сколько разъемов под накопители. И если M.2 NVMe можно легко нарастить, используя неиспользуемые линии PCIe, то SATA разъемов количество конечное.
Потом определяемся с сетью, звуком и видеокартой, в отношении последней сразу смотрим сколько слотов она перекрывает, особенно если у вас есть на них виды.
А дальше подбиваем все наши хотелки и ставим соответствующие фильтры в разделе материнских плат продавца. И результатов там будет немного, преимущественно из топового сегмента.
Но тут мы экономить не советуем. Так как вы получите не только качественную систему питания, но и большое количество периферийных разъемов.
Что касается типоразмера, то следует смотреть в сторону полноразмерного ATX, который позволит разместить все компоненты без лишних проблем.
👍54⚡1🤣1
⁉️ Хотите понять, как Kubernetes управляет контейнерами?
🔥Узнайте всё о его ключевых компонентах: Control Plane, Worker Nodes, Pods, Namespaces. На открытом вебинаре мы разберём архитектуру Kubernetes и покажем, как настроить систему для масштабирования и отказоустойчивости.
📗Этот урок — ваш первый шаг к созданию инфраструктурной платформы. После вебинара вы поймёте, как управлять контейнерами, их взаимодействием и хранением данных.
🔗Регистрируйтесь на вебинар 17 декабря в 20:00 мск. Участники получат скидку 🎁 на обучение на курсе «Инфраструктурная платформа на основе Kubernetes»: https://otus.pw/4Ym4/
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
🔥Узнайте всё о его ключевых компонентах: Control Plane, Worker Nodes, Pods, Namespaces. На открытом вебинаре мы разберём архитектуру Kubernetes и покажем, как настроить систему для масштабирования и отказоустойчивости.
📗Этот урок — ваш первый шаг к созданию инфраструктурной платформы. После вебинара вы поймёте, как управлять контейнерами, их взаимодействием и хранением данных.
🔗Регистрируйтесь на вебинар 17 декабря в 20:00 мск. Участники получат скидку 🎁 на обучение на курсе «Инфраструктурная платформа на основе Kubernetes»: https://otus.pw/4Ym4/
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
👎3
Custom Resolution Utility (CRU)
Небольшая, но полезная утилита по установке произвольных значений разрешения монитора.
Для чего это надо? Рассказываем. Сегодня на одной точке поменяли ПК, как водится, разъема VGA в новом ПК нет, а в старом мониторе нет HDMI. Ну да это не проблема, купили переходник.
С этого момента и начались приключения, монитор имеет рабочее разрешение 1366x768, а переходник выдает стандартные 1920×1080, 1280×720 и 1024x768. Понятно, что картинка на экране выглядит растянутой и смазанной.
Что делать? Искать переходник с поддержкой 1366x768? Так это занятие бесполезное, с учетом того, что производятся они в китайских подвалах и нигде подобных данных не указывают.
В общем, без особой надежды стали искать информацию по подобным переходникам и нашему разрешению и наткнулись на описанную утилиту.
Скачали, попробовали и у нас все получилось. Утилита считала данные монитора (даже через переходник) и на их основе добавила данные в реестр, после чего в настройках видеоадаптера стало возможно выбрать родное разрешение.
Ситуация довольно редкая, но время от времени случается. Поэтому берите на заметку.
https://www.monitortests.com/forum/Thread-Custom-Resolution-Utility-CRU
Небольшая, но полезная утилита по установке произвольных значений разрешения монитора.
Для чего это надо? Рассказываем. Сегодня на одной точке поменяли ПК, как водится, разъема VGA в новом ПК нет, а в старом мониторе нет HDMI. Ну да это не проблема, купили переходник.
С этого момента и начались приключения, монитор имеет рабочее разрешение 1366x768, а переходник выдает стандартные 1920×1080, 1280×720 и 1024x768. Понятно, что картинка на экране выглядит растянутой и смазанной.
Что делать? Искать переходник с поддержкой 1366x768? Так это занятие бесполезное, с учетом того, что производятся они в китайских подвалах и нигде подобных данных не указывают.
В общем, без особой надежды стали искать информацию по подобным переходникам и нашему разрешению и наткнулись на описанную утилиту.
Скачали, попробовали и у нас все получилось. Утилита считала данные монитора (даже через переходник) и на их основе добавила данные в реестр, после чего в настройках видеоадаптера стало возможно выбрать родное разрешение.
Ситуация довольно редкая, но время от времени случается. Поэтому берите на заметку.
https://www.monitortests.com/forum/Thread-Custom-Resolution-Utility-CRU
👍88🔥19
Простой и удобный инструмент мониторинга производительности - nmon
Любой системный администратор знает, что инструментов для мониторинга производительности много не бывает, особенно таких, которые позволяют одновременно контролировать сразу множество параметров, давая возможность оценить их взаимосвязь в реальном времени.
Одной из таких утилит является nmon, пришедшая в мир Linux из настоящих UNIX-систем, а именно IBM AIX. Несмотря на свой солидный, по меркам IT, возраст она не потеряла актуальности и будет полезна для первоначальной диагностики проблем с производительностью для любого Linux администратора, как начинающего, так и опытного.
https://interface31.ru/tech_it/2022/03/prostoy-i-udobnyy-instrument-monitoringa-proizvodiel-nosti---nmon.html
Любой системный администратор знает, что инструментов для мониторинга производительности много не бывает, особенно таких, которые позволяют одновременно контролировать сразу множество параметров, давая возможность оценить их взаимосвязь в реальном времени.
Одной из таких утилит является nmon, пришедшая в мир Linux из настоящих UNIX-систем, а именно IBM AIX. Несмотря на свой солидный, по меркам IT, возраст она не потеряла актуальности и будет полезна для первоначальной диагностики проблем с производительностью для любого Linux администратора, как начинающего, так и опытного.
https://interface31.ru/tech_it/2022/03/prostoy-i-udobnyy-instrument-monitoringa-proizvodiel-nosti---nmon.html
👍36⚡2