Записки IT специалиста
7.97K subscribers
1.57K photos
50 videos
15 files
2.23K links
IT-канал, просто о сложном
https://interface31.ru

Купить рекламу:
https://telega.in/c/interface31
加入频道
​​Программные лицензии 1С – как узнать причину слета лицензии и быстро активировать ее заново

Про программные лицензии ходит много мифов, мол они сильно капризные, слетают на ровном месте и т.д. и т.п.

Но на самом деле работа программных лицензий подвержена жесткой логике, которая описана в тоненькой желтой книжке, которую никто не читает.

При отсутствии этой самой тонкой желтой книжки всегда можете обратиться к нашей статье:

▫️ Особенности применения программных лицензий 1С:Предприятие

Итак, если лицензия слетела, то первым делом нужно открыть подробную информацию в окне, где вам об этом сообщается, вы увидите примерно то, что показано на рисунке.

В данном случае причиной слета лицензии было изменение дисковой конфигурации компьютера, что соответствует реальному положению дел.

Но не следует спешить активировать новую лицензию. Сначала внимательно изучите текущий список оборудования. В нашем случае в него затесались два внешних жестких диска. Их перед получением лицензии следует отключить.

Потому что добавлять в конфигурацию оборудование можно, удалять нельзя.

Кстати, после того как вы отключите внешние диски, то запустите 1С еще раз и снова посмотрите Журнал поиска ключа, чтобы четко понимать какие именно накопители будут влиять на текущую лицензию и уже после этого занимайтесь ее восстановлением.

Если у вас нет резервного ПИН-кода, то следует воспользоваться сервисами самообслуживания, либо написать письмо на адрес [email protected]. Письмо желательно писать с того адреса, на который зарегистрирована лицензия.

В нем в произвольной форме указываете номер поставки и просите выдать резервный пин-код.

Если пишите с другого адреса, то укажите также текущий пин-код и сведения о владельце лицензии.

Теперь о сервисах самообслуживания, это быстро и удобно, сейчас их четыре:

▫️ Восстановить данные о лицензии
▫️ Получить текущее состояние пин-кодов
▫️ Получить резервный пин-код
▫️ Получить лицензию из файла

Обратите внимание на новый, четвертый сервис, который позволяет получить данные лицензии из файла, что очень удобно если вы не знаете какая именно лицензия была активирована на данном устройстве.
👍42🔥3
🐧 Вы уже работаете с Linux, но хотите оперативно устранять сбои и решать нестандартные задачи при настройке серверов?

💪 Все продвинутые навыки — от баш-скриптов и умения гибко рулить авторизацией до применения подхода Infrastructure as code — ждут вас на онлайн-курсе «Administrator Linux. Professional» от OTUS.

Пройдите тестирование, чтобы:
- оценить свои навыки;
- занять место на курсе по специальной цене;
- получить доступ к бесплатным урокам курса (доступны сайте курса).

👉 Полное тестирование: https://otus.pw/A0v3/?erid=2W5zFHdRTFn 

Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
​​Сакральная желтая бумажка

С завидным постоянством наблюдем необъяснимое, можно даже сказать – сакральное отношение некоторых пользователей к пин-кодам программных лицензий 1С:Предприятие.

Когда любой предложение что-то там сделать разбивается о «да вы что, это же новый пин-код придется использовать». На встречный вопрос «а что в этом такого, они для этого и нужны» приходится выслушивать истории одна другой удивительнее.

Но все они сходятся к тому, что как закончатся пин-коды на бумажке, так сразу будет беда, все обязательно станет, лицензии слетят, а для их получения придется пройти сложный квест и прорваться сквозь злую поддержку.

Причина таких страшных сказок кроется не в системе программного лицензирования 1С:Предприятие, а в отсутствии культуры работы с ней.

Начнем с того, что любой лист программной лицензии содержит некоторое количество активных кодов и резервных к ним. Резервный коды нужны как раз для переактивации системы и сама поддержка 1С русским языком пишет:

Мы рекомендуем запрос доп пин-кода присылать сразу после использования последнего пин-кода, не дожидаясь запроса лицензии от программы. В запросе указывайте наименование организации, рег.номер лицензии и все цифры активного пин-кода, взамен которого требуется доп.пин-код.

По факту, если вы используете для обращения почту указанную при регистрации достаточно просто указать рег.номер лицензии и вам вышлют резервный пин-код в течении короткого времени.

Также та же самая поддержка рекомендует:

Также мы рекомендуем пользователям самостоятельно вести учет пин-кодов по всем программным лицензиям, указывая в таблице:
- рег.номер лицензии
- пин-код
- дату активации пин-кода
- имя компьютера, где активирован пин-код
- предыдущий пин-код (взамен которого активирован данный пин-код)
- имя файла, куда сохранены данные пользователя, указанные при первичном получении данной лицензии


Правила несложные, но мы очень редко видели, что кто-то им следует. Зато многократно сталкивались с тем, что администратор в принципе не имел понятия какой именно рег.номер лицензии на этом компьютере, какой пин-код активирован и с какими данными пользователя.

А в этом случае никакое наличие бумажек с кодами вам не поможет. Поэтому никакой сакральности в этих желтых бумажках нет. Нужно использовать код – используйте. И тут же запрашивайте новый. Задача полностью будничная, указали рег.номер – получили новый код. И никому не интересно зачем он вам и для чего.

Ну и не ждите слета лицензии, если по правилам она должна слететь. Просто переактивируйте не дожидаясь слета, а то, что она слетит – это 100%. И никакие соображения о мнимой «экономии» лицензий тут неприемлемы.

Экономить тут нечего и незачем, разве что заведомо спровоцировать остановку сервиса в самый неподходящий момент. Оно вам надо?
👍261
Настраиваем таймеры systemd вместо заданий cron

Технологии постоянно развиваются, внося в нашу жизнь новые инструменты, которые вытесняют и заменяют старые и привычные нам. Но зачастую администраторы не спешат не только применять их на практике, но даже изучать.

Нет, здоровый консерватизм безусловно оправдан, но исключительно в разумных пределах. Гораздо хуже, когда внедрение новых технологий тормозится по надуманным или "идеологическим" причинам несмотря на то, что они предоставляют гораздо более широкие возможности.

Одна из таких технологий - таймеры systemd, которые позволяют по-новому взглянуть на некоторые классические задачи.

https://interface31.ru/tech_it/2021/04/nastraivaem-taymery-systemd-vmesto-zadaniy-cron.html
👍39
Аренда IT-Оборудования от АТОМДАТА под любые задачи и масштаб

От базовых решений - до создания критической информационной инфраструктуры:
- Быстрое предоставление оборудования с собственного склада или подбор и закупка под проект;
- Оперативный подбор конфигурации под задачу, бюджет или по другими параметрам;
- Техническая поддержка 24/7. 3 линии поддержки
- Помощь с настройкой ПО и запуском оборудования;
- SLA 99,98 с финансовой компенсацией;
- Размещение оборудования в собственных ЦОДах "Росатома", а также партнерских ЦОДах в РФ или на площадке заказчика;

Бесплатное тестирование оборудования под задачу!

Подробности и бесплатная консультация

#реклама
О рекламодателе
👍4
​​Шеф, все пропало!

В продолжение вчерашней темы, что делать если у вас вообще ничего не осталось. Или вы не знаете где это все.

Ситуация неприятная, но решаемая. Исходить будем из того, что лицензии по факту есть и куда-то установлены. Ну как куда-то, вариантов немного – сервер или рабочие станции пользователей.

Поэтому берем утилиту LicDataViewer или, если жалко 300 руб., утилиту ring и пытаемся получить доступную информацию из файлов лицензии. В результате вы узнаете:

Регистрационный номер поставки
Наименование продукте
Использованный пин-код
Регистрационная информация пользователя
Почта, на которую зарегистрирована лицензия

Все это сохраняем в надежном месте, эта информация нам еще понадобится.

Далее смотрим, если мы выяснили судьбу всех пин-кодов лицензии кроме резервных, то хорошо. Иначе пишем на линию лицензирования [email protected] и просим предоставить информацию о состоянии пин-кодов, в запросе указываем регистрационный номер поставки.

Если вы писали с почты, на который зарегистрирован продукт, то пин-коды придут в развернутом виде. Нет – часть кода будет закрыта звездочками, но это пока не важно. Нам нужен их статус.

Коды могут быть:

Активными – активирован на оборудовании
Использованными (заблокированными) – код использовался ранее, потом была выполнена повторная активация с резервным кодом
Резервные – свободный код для активации

Нас интересуют активные, они должны совпадать с фактически используемыми компьютерами, если же вы видите в этом списке непонятные имена ПК, то значит эти лицензии остаются активными на оборудовании, которое выведено из эксплуатации или утрачено.

По возможности находим эти ПК и удаляем файлы лицензии. Это исключит возможный слет лицензии по причине активации ее на более чем одном ПК.

Если же по факту у вас лицензия работает на одном ПК, а в присланной информации числится за другим, то лучше не ждать пока эти два узла окажутся включены одновременно и повторно получить лицензию на доступном ПК при помощи резервного кода.

В случае, когда коды закончились или утрачен листочек с программной лицензией, а доступа к почте нет, то снова обращаемся на линию поддержки и просим прислать резервный код, или коды, закрытые звездочкой указав всю доступную информацию, которую мы выдернули из файла лицензии.

Наконец, если файл лицензии утрачен (вышел из строя ПК и т.д.) и мы не знаем регистрационных данных, которые надо повторно ввести посимвольно, то снова пишем запрос на линию поддержки, в котором указываем всю доступную информацию, а также регистрационные данные, которые вы пытались вводить.

В этом случае вас могут попросить сформировать и прислать файл запроса лицензии. После чего предоставят в письме данные о регистрационной информации, которая была реально использована.

Ее луче переносить копипастом, а после успешной активации лицензии обязательно сохранить в виде файла.

Как видим, ничего страшного в данной ситуации нет, особенно если есть активные лицензии.

Если же нет, то вам достаточно знать регистрационный номер поставки и хотя бы приблизительно организацию или физическое лицо, на которое выполнялась активация. Если не помните, можете указать несколько. А дальше алгоритм тот же: состояние кодов, получение недостающих кодов, уточнение регистрационной информации.
👍297
​​Почему современные приложения все чаще используют конфигурационные файлы в форматах JSON или YAML

Среди многих наших коллег очень часто возникает непонимание и даже возмущение, когда они сталкиваются с конфигурационными файлами в JSON или YAML. Основное нарекание вызывает «неудобный» формат, который заставляет контролировать пробелы или вложенность скобок.

То ли дело старый добрый текстовый конфиг. Когда-то я тоже не особо понимал это стремление и также временами возмущался свалившимися «на ровном месте» сложностями.

Но, по мере того как стал более плотно заниматься разработкой и разными обменами между разнотипными системами полностью поменял свое мнение.

Текстовый конфиг прост только на первый взгляд, с технической точки зрения это непрерывный поток символов, который нам нужно каждый раз полностью парсить и разбирать, при этом с учетом контекста, в случае, когда следующая запись относится к предыдущей.

Сложностей тут много, особенно учитывая, что строгого порядка написания конфигурационных файлов нет и тут может быть так, а там иначе.

А еще веселее становится, когда нам нужно настроить взаимодействие нескольких систем и вносит изменения в конфигурацию программно, допустим через API.

Особенно это касается всяких скриптов и панелек, которые должны сначала прочитать и показать вам текущую конфигурацию, а потом внести в нее изменения.

Каждый раз вам придется полностью читать и разбирать файл конфигурации, а потом еще решать задачу, как записать свои изменения правильно. Особенно если файл еще мог правиться вручную.

Поэтому истории известны множество историй, когда или панели ломали рабочие конфиги, либо после ручных правок ломалась работа панелей, либо сочетание этих обоих способов давало совершенно неожиданный результат.
Как быть?

Отказаться от текста в пользу структур. Основной особенностью JSON или YAML является то, что и то и другое набор объектов уровня ключ – значение, совокупность которых представляет из себя структуру.

Что такое структура хорошо известно любому, кто программирует на любом современном языке. И ее плюсы по сравнению с плоским текстом.

При этом каждый объект может как просто иметь значение, так и быть хранилищем еще одного объекта, позволяя создавать разветвленные структуры.

Но суть не в этом. Любая структура позволяет работать с собой избегая ее полного перебора.

Мы можем просто выполнить поиск по ключу и получить новую структуру, которая будет содержать только выбранные ключи и их значения.

Также просто и вносить изменения, мы находим нужный элемент структуры и добавляем в него новую пару ключ – значение.

И совершенно неважно, правили или будет править этот конфиг после нас руками. Благодаря структуре нам не надо анализировать текстовый файл и думать куда именно вставить изменения.

Есть структура и мы работаем именно с ней. В качестве примера, возьмем тот же Netplan.

Чтобы получить информацию о сетевых интерфейсах нам не надо читать весь файл, нам достаточно получить значение ключа ethernets, который будет содержать в качестве значения еще одну структуру, в которой уже ключом будет наименование сетевого адаптера.

Возможно, на первый взгляд, выглядит немного сложно, но на самом деле мы всегда знаем где что искать и откуда что удалять или добавлять, не боясь при этом пересечься с чьими-то правками и поломать синтаксис конфига.

Поэтому JSON или YAML будут все чаще использоваться для конфигурационных файлов по вполне объективными причинам.

Из минусов? Работать с ними в традиционных консольных текстовых редакторах неудобно, да это и не нужно.

В 21 веке существуют гораздо более удобные среды разработки, которые позволяют редактировать такие файлы с проверкой и подсветкой синтаксиса с рабочего ПК подключаясь к серверу по SSH.

Например, VS Code, про который мы рассказывали в нашей недавней статье:

🔹 Настраиваем Visual Studio Code для удаленной работы через SSH
👍29🤡122
Имеется связка PostgreSQL + Сервер 1С в LXC контейнерах.

И если для сервера 1С в панели Proxmox память отображается правильно, то для PostgreSQL вот такая ерунда.

Почему так? Комментарии в опросе ниже.
Как и где айтишнику искать валютную удаленку? 

Если вы знаете английский хотя бы на среднем уровне и имеете пару лет опыта работы

Линкедин - не самый подходящий для этого ресурс, как тогда ее получить, договорившись о лучших для себя условиях?

Полина Мещерякова, основательница GOTHIRED, которая помогает с трудоустройством IT-специалистов в международные компании, рассказывает в своем свежем посте про Линкедин

‼️Она также предоставит пошаговый план по поиску валютной удаленки на эфире 28 февраля в 18:00 по Москве в канале @efmchannel.

Cкорее подписывайтесь и забирайте после эфира подарок: 🎁 шаблон резюме для международной компании. 

🚀Полина (ex-ООН, ех-МГИМО) помогла 150+ кандидатам трудоустроиться в ведущие компании - Вольво, Майкрософт и др., и выучить английский язык, присоединяйтесь!

#реклама
О рекламодателе
1
​​Скорость виртуальной сети в Proxmox

После вчерашней публикации возник ряд вопросов по скорости виртуальной сети в пределах одного хоста.

Т.е. мы рассматриваем скорость сетевого взаимодействия между виртуальными машинами и/или контейнерами, находящимися на одном физическом гипервизоре и подключенных к одному сетевому мосту. При этом неважно, подключен данный мост к сетевому интерфейсу или нет.

Начнем с контейнеров. Контейнер с принципа не имеет сетевого интерфейса в его классическом понимании, нам нет необходимости что-то эмулировать на этом уровне, он просто пользуется ресурсами хоста.

В этом случае скорость лимитируется только вычислительными способностями CPU и пропускной способностью памяти и как правило измеряется в десятках Гбит/с.

Для виртуальных машин ситуация немного посложнее, там появляется эмулируемое оборудование и определенные сопутствующие потери на виртуализацию, также многое зависит от того, какой тип эмулируемого оборудования мы используем.

При использовании эмуляции реальных сетевых адаптеров, скажем E1000 мы можем упереться в ограничения драйвера. Если же используем полностью виртуальный VirtIO, то скорость также ограничивается только возможностями процессора и памяти.

Если сравнивать контейнер и виртуальную машину, то контейнер будет всегда немного быстрее, за счет меньших накладных расходов.

Что касается конкретных физических чисел, то на современном этапе развития вычислительной техники вы скорее всего упретесь в пропускную способность памяти.

Для примера мы выполнили тест на процессоре Core i5-4670 3,4 ГГц с 32 ГБ DDR3 2400 и получили значения около 35 Гбит/с, что близко к потолку пропускной способности этого типа памяти в двухканальном режиме (около 38 Гбит/с).

Поэтому бояться виртуальных сетей не нужно, скорость в пределах одного сетевого моста всегда будет выше физических возможностей относительно недорого Ethernet оборудования.
👍572
​​Как и зачем делить базы данных по отдельным установкам СУБД

В комментариях также спрашивали, как и по каким принципам делить базы по установкам экземпляров сервера БД и сколько памяти кому выделять.

Если брать конкретные цифры, то дать тут общие рекомендации сложно, нужно смотреть на сценарии применения, объемы данных, интенсивность и характер обращения к СУБД, в общем – требуется индивидуальный подход.

Поэтому вместо этого мы рассмотрим общие принципы, и вы могли понять для чего и зачем мы плодим установки и какие плюсы от этого получаем.

Описывая модель нами сознательно предельна упрощена и не требует каких-либо специфических знаний, а также применима к любым СУБД, а не только PostgreSQL.

Одной из задач СУБД – является быстрое и эффективное предоставление прикладному ПО доступа к хранящихся в базе данных. А получить мы их можем одним единственным образом – прочитать с диска.

Но чтение с диска – процесс дорогой и достаточно медленный. Поэтому, чтобы избежать повторного чтения СУБД помещает поднятые с диска данные в оперативную память. И делать так она будет до тех пор, пока будет иметь доступную память.

Именно этим объясняется известное всем стремление SQL-серверов занять всю доступную память. В простейших случаях, когда база по размеру гораздо меньше, чем размер оперативной памяти, то она будет закеширована практически вся.

Если же суммарный размер данных больше размера доступной памяти, то данные в кеше будут иметь приоритет по количеству обращений к ним. Таким образом более горячие данные будут вытеснять более холодные.

При достаточном количестве памяти через некоторое время будет достигнут некоторый баланс и все горячие данные будут в кеше. Иначе одни будут постоянно вытеснять другие и СУБД будет вынуждена постоянно прибегать к дисковому чтению.

Хотя это не всегда плохо, с появлением быстрых дисков, таких как NVMe, иногда более оптимально будет читать данные с диска, нежели тратить на их хранение достаточно ограниченный ресурс оперативной памяти.
А теперь про то, зачем делить базы по разным экземплярах СУБД. Представим, что у нас есть некоторый единый сервер, где находятся базы торгового подразделения и бухгалтерии.

Весь месяц бухгалтерия тихо вбивает первичку, проводит оплаты, а торговля торгует, получает остатки, взаиморасчеты, резервы и задолженности. Кеш прогрет, его хватает обоим базам и вроде бы все хорошо.

Но вот наступает конец месяца, и бухгалтерия начинает закрывать месяц, готовить отчетность, начислять зарплату, считать налоги, формировать регламентированные отчеты.

Объем потребляемых ею данных резко вырастет, и они просто вытеснят из кеша данные торгового отдела. И чем активнее будет работать бухгалтерия, тем хуже будет торговле.

При этом у бухгалтерии все хорошо, у них все летает, а у торговли раньше резервы или задолженность считались за пару секунд, а теперь программа тупит десятками секунд или минутами. Что вызывает сплошной негатив пользователей.

Также возможен обратный сценарий, когда торговля активно подбивает итоги и тормозит уже бухгалтерия.

Какой выход? В лоб – добавить память. Но опять-таки мы не можем гарантировать, что кто-то не перетянет на себя все одеяло, разве что памяти с запасом хватит на всех. Но это не про современные объемы данных.

Поэтому просто делим один экземпляр СУБД на два и каждому выделяем свое количество памяти. Да, в итоге каждый получит меньше, чем мог бы откусить из общей кучи и может начать работать немного медленнее.

Но это будет гарантированная производительность, особенно после того, как вы определите достаточный объем памяти для хранения всего горячего кеша. Соседи могут делать все, что угодно. Равно как и вы.

Но теперь мы можем анализировать и оптимизировать выделение ресурсов под единственный характер нагрузки. Можем делать быстрее, можем медленнее, но самого плохого сценария – качелей, когда сегодня все летает, а завтра все тормозит – мы избежим.

При этом накладные расходы на дублирование экземпляров СУБД минимальные, особенно если мы используем контейнеры.
👍40👌5
Слышали ли вы, что...

SRE — это просто «продвинутый DevOps»,
внедрение SRE требует огромных ресурсов и подходит только гигантам вроде Google,
SRE занимается только устранением инцидентов.

Правда в том, что эти и многие другие убеждения далеки от реальности. Мы собрали для вас PDF-файл, в котором разоблачаем самые популярные мифы о SRE.

Это must-have для тех, кто хочет понять, как SRE может помочь именно вашей работе и бизнесу, без лишних сложностей и заблуждений.

📍Переходите к боту-помощнику и забирайте полезный PDF прямо сейчас 🔗

Реклама. ООО "СЛЁРМ". ИНН 3652901451. erid: 2W5zFGhuBRi
​​Тонкие настройки LXC. Процессор

Мы активно используем контейнеры LXC и постоянно сталкиваемся с необходимостью их тонкой настройки. Поэтому в данной заметке мы приведем только то, с чем постоянно имеем дело и что может вам пригодиться, не перегружая ее теоретической информацией.

Для примера возьмем задачу, когда у нас есть некоторый процессор 16 ядер / 32 потока и мы хотим разместить на нем сервер 1С, сервер СУБД и всяко-разно по мелочи.

Сервер 1С версии ПРОФ может использовать не более 12 ядер, но просто взять и указать в его настройках ограничение по ядрам мы не можем, потому что при старте контейнер будет выбирать ядра случайным образом, что ведет к изменению процессора и слету лицензии 1С.

Поэтому укажем ядра явно, для этого в конфигурационный файл /etc/pve/lxc/nnn.conf (где nnn – ID контейнера) добавим:

lxc.cgroup2.cpuset.cpus = 0-11


Это заставит его использовать 12 первых ядер. Ядра нумеруются начиная с нуля. Можно указывать отдельные номера через запятую или диапазон через тире, оба способа можно комбинировать. Например:

lxc.cgroup2.cpuset.cpus = 0, 1, 8-10,17-20


Серверу 1С ядра выделили, но остальные контейнеры, даже будучи ограниченными по количеству ядер могут использовать ядра совместно с сервером 1С, хотя у нас есть много еще свободных.

Поэтому явно указываем доступные ядра и для других машин, скажем 12-23 серверу СУБД и диапазон 24-31 для всех остальных.

В многопроцессорных системах дополнительно можно указать номер узла NUMA который может использовать контейнер, это позволит избежать задержек, когда процессор работая на ядрах одного процессора будет обращаться к памяти, которую обслуживает другой процессор.

Для этого используйте:

lxc.cgroup2.cpuset.mems: 0


Где цифра указывает номер узла NUMA начиная с нуля, можем указать несколько значений с нуля или через запятую.

Хорошо, когда ядер много и можно всем раздать, но как быть, если процессорные ресурсы делятся между несколькими контейнерами. В этом случае следует настроить лимиты. Как мы помним, процессорное время выделяется процессам порциями – тиками. Если тиков всем не хватает – собирается очередь.

Это ведет к росту LA, значение LA в 1 на ядро означает, что свободных тиков нет, а значение более единицы указывает на наличие очереди.

Начнем с гибкого лимита, который позволяет установить относительный приоритет процессов, для этого мы используем следующий параметр:

lxc.cgroup2.cpu.shares: 512


Число 512 указывает приоритет, он может принимать значение от 1 до 1024, значение по умолчанию – 1024. Таким образом контейнер со значением 512 в случае возникновения конкуренции за ресурсы получит в два раза меньше тиков, чем контейнер без этой настройки.

Если же тиков хватает всем, либо более привилегированный контейнер не проявляет большой активности, то ограничения не применяются. Но если вдруг ему снова потребуются ресурсы, то они будут выделены в первую очередь.

Вместе с мягким есть и жесткое ограничение, когда мы просто не выделяем процессорных ресурсов более лимита, при этом у нас не растет очередь и процессы контейнера ограничены указанными рамками вне зависимости от наличия свободного ресурса.

lxc.cgroup2.cpu.max: 50000 100000


Числа означают следующее: максимальное время использования ЦПУ, период в течении которого применяется ограничение в микросекундах. В приведенном примере мы выделили контейнеру половину процессорного ресурса. И он не сможет никогда его превысить, даже если процессор полностью простаивает.

Ну и наконец мы можем полностью закрепить ядро за контейнером, после чего ни один другой контейнер не сможет его использовать, если ядро занято хоть одним процессом назначенного ему контейнера.

Это позволяет обеспечить гарантированную производительность критичным сервисам.

lxc.cgroup2.cpuset.cpu_exclusive = 1


Этот параметр нужно обязательно сочетать с

lxc.cgroup2.cpuset.cpus = 0-3


При этом мы можем выделить контейнеру большее количество ядер, скажем 8, но в эксклюзивное использование ему перейдут только 4, а за остальные он будет конкурировать с другими контейнерами.
👍61🔥12
​​По этой теме не утихают холивары, поэтому повторим данный материал.

Папка, каталог или директория?

Данный вопрос давно занимает умы коллег и является предметом частых споров на счет того, какой из этих терминов является единственно правильным.

Сегодня в очередной раз пришлось столкнуться с измышлениями на данную тему, что и послужило поводом для написания данной заметки.

Начнем с языковых трудностей. В английском языке есть два слова: directory и catalog, которые переводятся на русский как каталог.

Но имеют различный смысл, directory, по сути, ближе к справочнику, это список однотипных данных, предназначенный для поиска по нему. Например: телефонный или адресный справочник.

Но встречаются и варианты со словом каталог, скажем, каталог запчастей. Хотя на английском все это будет directory (Parts Directory).

Слово catalog применяется для коллекций однотипных элементов предполагающий их более широкий выбор и обработку. Например, каталог марок, монет, книг. Каталог интернет-магазина и т.д. и т.п. Т.е. каталог не предназначен только для поиска, а содержит исчерпывающие данные о каждом элементе, позволяя подробно ознакомиться с ним.

Но вернемся к файловым системам, первоначально файловые системы были плоские, т.е. все файлы находились в единственном корневом каталоге. Потом возникла иерархия на основе тех самых каталогов.

Каталог представлял и представляет специальный файл с набором записей о принадлежащих ему файлах и подкаталогах, которые содержат имя объекта и ссылку на место файловой системы (кластер, inode) где он хранится.

В английском языке данная структура однозначно попадает под понятие directory и на русский переводится как каталог. И литературно правильно использовать именно этот термин.

Слово директория возникло в любительских переводах 90-х, когда этим занимались различные энтузиасты и представляет обычную транслитерацию слова directory. По подобному принципу возникли флоппи и хард диски вместо гибких и жестких.

Но данный термин плотно вошел сначала в компьютерный сленг, а после и в русский язык и также обрел массовое употребление.

В настоящий момент слово директория употребляется в том числе и серьезной компьютерной литературе в качестве синонима слова каталог и их можно считать полностью равнозначными.

За рубежом же никакого разночтения не было и повсеместно использовался термин directory, что нашло отражение в командах: cd, dir, mkdir и т.д.

Иногда встречается ошибочное мнение, что директории – это в UNIX/Linux, а каталоги в DOS/Windows, однако это не так. Достаточно взять англоязычные версии и убедиться, что кроме directory никаких иных терминов не используется.

Шло время, компьютеры становились все более распространенными и все чаще работать с ними начинали обычные пользователи, далекие от всех этих технических терминов.

Чтобы облегчить им работу была придумана концепция рабочего стола, который логически повторял обычный рабочий стол. Файлы представлялись как документы, а каталоги как папки (folder) с этими документами.

С тех пор повелось файлы изображать преимущественно в виде близком бумажным документам, а каталоги в виде канцелярских папок. Такой подход впервые был внедрен в Apple в Mac System Software, предшественнице Mac OS.

Начиная с Windows 95 папки стали использоваться в ОС Microsoft, а также перекочевали в графические оболочки Linux, первоначально в KDE и GNOME.

Со временем термин стал общеупотребительным и стал употребляться наравне с directory (каталогом). В русском языке появилось сразу три термина обозначающие одно и то же: каталог, папка и директория.

Существует еще одно заблуждение, что термин папка можно применять только в графической среде. Однако это не так. Каталог – это объект файловой системы и его свойства не меняются в зависимости от наличия или отсутствия графической оболочки. И поэтому мы можем называть его любым из этих трех терминов.
👍33🥱11👎3
​​История создания и развития IBM PC

На рынок персональных компьютеров руководство IBM обратило внимание в начале 80-го года, когда он был плотно занять такими признанными игроками Apple, Atari, Tandy и Commodore. Они выпускали 8-битные компьютеры для любителей писать программы на языке Бейсик.

Основным разработчиком Бейсик-продуктов была небольшая компания Microsoft, которую возглавлял недоучившийся студент Гарварда Билл Гейтс.

Бизнес по производству ПК в то время не представлялся руководству IBM имеющим настоящее, не говоря уже о будущем, но тем не менее компания считала нужным свое присутствие на этом рынке.

Команде разработчиков были поставлены самые жесткие сроки – менее года, а провал проекта грозил серьезными оргвыводами, поэтому были приняты многие решения, о которых компания впоследствии сильно пожалела.

Сжатые сроки означали, что система должна была строиться на основе уже существующих технологий и в качестве процессора был выбран 16-разрядный процессор 8088 от компании Intel.

Руководитель проекта, Дональд Эстридж, настоял на том, чтобы сделать архитектуру будущего IBM PC открытой, это позволяло воспользоваться силами сторонних производителей для выпуска периферии для нового компьютера, чтобы сразу обеспечить ее широкий ассортимент.

Вторая роковая ошибка была в том, что IBM позволило Билу Гейтсу самостоятельно продавать новую операционную систему под именем MS-DOS. Но тут деваться было некуда.

Первоначально Эстридж хотел использовать уже существующую CP/M, но руководитель Digital Research Гари Килдалл отказался подписать соглашение о неразглашении и проект зашел в тупик. Также версию CP/M для 16-разрядных компьютеров еще только предстояло разработать.

Ограничение по времени было очень жестким и тогда Гейтс и Эстридж пошли на авантюрное решение.

У Пола Аллена был знакомый Тим Паттерсон, который в начале 80-года начал писать CP/M совместимую систему для Intel 8086, назвав ее QDOS

Гейтсу осталось только перекупить QDOS за скромные 50 тыс. долларов и силами того же Тима довести до ума.

Это решение, несмотря не все его недостатки, фактически созданное в невероятной спешке на коленках стало для Эстриджа палочкой-выручалочкой, позволившей получить в срок операционную систему для будущего компьютера.

IBM PC (IBM 5150, процессор Intel 8088) был представлен публике 12 августа 1981 года и неожиданно стал пользоваться огромным успехом, если изначально компания планировала продать 250 тыс. ПК в течении пяти лет, то очень скоро она начала продавать такое же количество ПК ежемесячно.

Эстридж, как грамотный инженер, получил то, что хотел – ПК практически сразу стал поддержан большим количеством периферии, но компания получила еще один неприятный момент – клоны.

Действительно, любой мог купить процессор от Intel и операционную систему от Microsoft и уже в 1982 некая компания-выскочка Compaq представила клон IBM PC, а к 1984 году на рынке IBM-совместимых ПК конкурировали как новички, так и известные компании.

Но IBM сохраняло за собой лидерство, выпустив в 1983 году IBM PC XT, в состав которого впервые входил жесткий диск, а в 1984 PC AT на базе процессора 286.

Лидерство ускользнуло в 1986, когда Compaq первым представил 32-разрядный компьютер на базе процессора 386. Несмотря на то, что технически это клон AT, все-таки это был самый быстрый и современный ПК и выпустила его не IBM.

Тем временем компания готовила «ответный удар» в виде нового поколения ПК PS/2, для которого учла ошибки прошлого и которое базировалась на закрытой, обложенной патентами архитектуре.

Но несмотря на мощную рекламную компанию PS/2 провалился и термин IBM-совместимые компьютеры стал просто неуместен и все бывшие клоны IBM PC превратились просто в ПК или персональные компьютеры.

А компании IBM так и не смогла вернуть себе лидерство на рынке персональных компьютеров.

Эта история закончилась в декабре 2004 г. продажей IBM за 1,75 млрд. долл. своего подразделения ПК китайской компании Lenovo.
👍38
​​Для тех, кому не нравится Plasma, а хочется старого доброго KDE есть проект Trinity Desktop Environment (TDE), который является форком KDE 3.5 и старательно воспроизводит эту рабочую среду.

При этом Trinity - это полноценная современная оболочка, которая следует за прогрессом и в которой можно спокойно работать.

Посмотреть на нее можно в Q4OS, специальном дистрибутиве на базе Debian с оболочкой TDE.

Почитать наш обзор можно здесь:

https://interface31.ru/tech_it/2019/08/q4os-interesnyy-i-neobychnyy-linux-distributiv.html
👍27
Последнее время сталкивались с тем, что сканеры Mindeo идут из коробки с неоптимальными настройками и плохо читают коды маркировки.

Для того, чтобы исправить ситуацию достаточно скинуть настройки к заводским, а затем включить нужные служебными штрих-кодами.

А в идеале еще будет не лишним и прошить. Процесс простой и незамысловатый, в то время как прошивка постоянно обновляется в плане улучшения считывания.

Обо всем этом в нашей статье:

Обновление прошивки сканеров штрих-кода Mindeo MD6ххх
👍25
​​Angie – лучший Nginx, чем Nginx

Редко, но случаются ситуации, когда форк превосходит основной продукт. И Angie как раз этот случай.

Данный форк основан нашими бывшими разработчиками Nginx и в первую очередь представлял вариант известного веб-сервера, но включенный в реестр отечественного ПО.

А, импортозамещение, цены по запросу и все такое прочее… Мы тоже сначала так подумали и отнеслись к продукту с некоторым скепсисом, но, как оказалось, зря.

Прежде чем продолжить, подсветим основные проблемы бесплатного Nginx, а именно крайне ограниченный набор возможностей из коробки.

Эта политика давно и сознательно проводится головной компанией, для которой бесплатный Nginx просто ознакомительная версия для проявления интереса к основному продукту.

Во что это выливалось на практике? Хотим поддержку той или иной современной технологии – пересобираем Nginx и необходимые модули к нему. С одной стороны ничего сложного, но с другой, если перефразировать Экзюпери: Мы в ответе за тех, кого пересобрали.

Как только мы вступили на скользкий путь сборки мы берем на себя все бремя ответственности и поддержки, а если такой сервер не один? Забудьте про простое apt update – apt upgrade, теперь все куда интереснее и увлекательнее.

Только вот развлекаться таким образом обычно нет ни времени, ни желания.

Вторая проблема – это отсутствие в официальных репозиториях поддержки отечественных ОС, ну это и понятно, головная компания NGINX Inc находится в американской юрисдикции.

Да, в репозиториях отечественных ОС есть пакеты Nginx, но это не самые последние версии и обновляются они не так быстро, как бы нам хотелось, а веб – это очень быстро изменяющаяся отрасль.

Разработчики Angie учли эти моменты и сделали официальные сборки под все отечественные ОС и добавили отдельный репозиторий с уже собранными бинарными модулями. Мелочь, но это именно то, чего так не хватало в официальном Nginx.

Просто поставили Angie, просто поставили модули, а потом просто обновляетесь пакетным менеджером системы. В готовых модулях есть все самое нужное, то, что всегда хотелось на Nginx, но от чего останавливала необходимость сборки.

Перейти с Nginx на Angie также просто и данный процесс хорошо документирован на сайте. Но если вы в должной мере владеете утилитами командной строки Linux, тот же sed позволит выполнить это буквально в одну команду.

Конфиги Nginx полностью совместимы, требуется только лишь поправить пути. И переход можно выполнить без простоя. Потушили Nginx и запустили Angie.

Мы уже перевели несколько несложных проектов и никаких проблем у нас не возникло, теперь в планах перевод на Angie основного сайта.

Также у Angie есть и то, чего нет в Nginx, например экспорт метрик или собственная веб-панель для мониторинга сервера, позволяющего контролировать основные параметры через браузер.

В общем, если вы являетесь активными пользователями Nginx, то вам стоит обратить самое пристальное внимание на Angie. И с очень большой вероятностью он придется вам ко двору.
👍563🤣1
Как узнать в какой физический порт Mikrotik подключено сетевое устройство.

Время от времени подобные задачи возникают. Для того, чтобы ответить на поставленный вопрос нам нужно заглянуть в MAC-таблицу коммутатора.

В RouterOS это сделать довольно просто. Можно заглянуть в Switch - Host. Здесь все просто: находим нужный MAC-адрес и смотрим с каким портом он связан.

Если на одном порту присутствует несколько MAC-адресов, значит далее есть еще один коммутатор, не обязательно физический. В наше время это вполне может оказаться виртуальным коммутатором гипервизора.

Второй вариант - это Bridge - Нosts, здесь все в принципе тоже самое, но обращаем внимание на флаги. Флаг L обозначает, что этот адрес добавлен самим мостом, т.е. принадлежит локальному интерфейсу. Нас интересует флаг E, который говорит что этот MAC-адрес получен от чипа коммутации и принадлежит внешнему устройству.
👍46