#книга
В книге Edward Raff «Inside Deep Learning, Math, Algorithms, Models» применяется интересный приём. Я и сам иногда формулы раскрашиваю и делаю цветную легенду с пояснениями. Но тут все центральные формулы полностью раскрашены, а в тексте идёт аналогичная подсветка описания, см. рис. В книге вообще очень хорошие рисунки и она довольно продумана для начального уровня, много примеров кода.
В книге Edward Raff «Inside Deep Learning, Math, Algorithms, Models» применяется интересный приём. Я и сам иногда формулы раскрашиваю и делаю цветную легенду с пояснениями. Но тут все центральные формулы полностью раскрашены, а в тексте идёт аналогичная подсветка описания, см. рис. В книге вообще очень хорошие рисунки и она довольно продумана для начального уровня, много примеров кода.
#конференция
Бесплатные летние образовательные проекты от научно-исследовательского института ИИ: летняя школа и конференция
https://airi.net/ru/summer-school/
Бесплатные летние образовательные проекты от научно-исследовательского института ИИ: летняя школа и конференция
https://airi.net/ru/summer-school/
airi.net
Лето с AIRI
Ежегодная Школа для молодых ученых — это глубокое погружение в работу с широким спектром современных методов искусственного интеллекта и машинного обучения.
#экзамены
На экзаменах по курсу ML в OzonMasters сегодня я всем задавал практически один и тот же набор вопросов (это по частям классического ML - до нейронок):
1. L2-регуляризация, говорят она борется с какой-то вырожденностью: что вырождено, по каким причинам, почему L2-регуляризация с этим справляется?
2. Назовите критерии расщепления при построении решающих деревьях в задаче классификации, можно ли их сравнить (в каких случаях один предпочтительнее остальных).
3. В задаче бинарной классификации 2 объекта имеют метку 1, 3 – метку 0, построили алгоритм с Accuracy < 1, какая максимальная F1-мера может у него быть?
4. Перечислите известные методы отбора признаков (можно начать с групп методов).
5. Есть два алгоритма кластеризации: k-means, mean shift. Приведите пример задачи, с которой первый справляется лучше. И задачи, с которой второй справляется лучше.
6. Отличия CatBoost от XGBoost и LightGBM.
7. Когда Extreme Random Trees предпочтительнее Random Forest?
На экзаменах по курсу ML в OzonMasters сегодня я всем задавал практически один и тот же набор вопросов (это по частям классического ML - до нейронок):
1. L2-регуляризация, говорят она борется с какой-то вырожденностью: что вырождено, по каким причинам, почему L2-регуляризация с этим справляется?
2. Назовите критерии расщепления при построении решающих деревьях в задаче классификации, можно ли их сравнить (в каких случаях один предпочтительнее остальных).
3. В задаче бинарной классификации 2 объекта имеют метку 1, 3 – метку 0, построили алгоритм с Accuracy < 1, какая максимальная F1-мера может у него быть?
4. Перечислите известные методы отбора признаков (можно начать с групп методов).
5. Есть два алгоритма кластеризации: k-means, mean shift. Приведите пример задачи, с которой первый справляется лучше. И задачи, с которой второй справляется лучше.
6. Отличия CatBoost от XGBoost и LightGBM.
7. Когда Extreme Random Trees предпочтительнее Random Forest?
#интервью
Ректор «Сколтеха» о текущем положении дел и перспективах:
https://www.kommersant.ru/doc/5357614
Ректор «Сколтеха» о текущем положении дел и перспективах:
https://www.kommersant.ru/doc/5357614
Коммерсантъ
«Тотального бегства иностранцев не наблюдаем, хотя отдельные обидные потери есть»
Ректор Сколтеха Александр Кулешов — о перспективах российской науки в условиях санкций
#конференция
Ещё одна бесплатная летняя научная школа «Сложные нейронные сети и когнитивно специализированные нейроны»:
https://brain.scientificideas.org/neuroscience-school-2022/ru
Ещё одна бесплатная летняя научная школа «Сложные нейронные сети и когнитивно специализированные нейроны»:
https://brain.scientificideas.org/neuroscience-school-2022/ru
brain.scientificideas.org
Научный Центр «Идея» / IDEAS Center
IDeAS: Inter-Disciplinary & Advanced Studies Center
#книга
Посмотрел книжку Эйлин Магнелло «Статистика в комиксах». В целом, мне понравилась - хороший обзор для нематематиков, хотя не могу утверждать, что всё ясно изложено для неспециалистов. Несколько вещей открыл для себя: откуда взялся термин «статистика» и как появилась эта наука, чем были известны некоторые учёные до своих открытий. Не понравились сами картинки… ожидал большего.
Посмотрел книжку Эйлин Магнелло «Статистика в комиксах». В целом, мне понравилась - хороший обзор для нематематиков, хотя не могу утверждать, что всё ясно изложено для неспециалистов. Несколько вещей открыл для себя: откуда взялся термин «статистика» и как появилась эта наука, чем были известны некоторые учёные до своих открытий. Не понравились сами картинки… ожидал большего.
#интервью
Интервью с Райгородским о его школе на Физтехе. Думаю, что у абитуриента, который это послушает, не будет вопросов куда поступать;) Андрей Михайлович и рассказывает зажигательно и делает очень много для образования вообще (не только в МФТИ).
https://youtu.be/eouUz_uPcBs
Интервью с Райгородским о его школе на Физтехе. Думаю, что у абитуриента, который это послушает, не будет вопросов куда поступать;) Андрей Михайлович и рассказывает зажигательно и делает очень много для образования вообще (не только в МФТИ).
https://youtu.be/eouUz_uPcBs
YouTube
Зачем любить МАТЕМАТИКУ? МФТИ и ЗАРПЛАТЫ ПОСЛЕ! Райгородский
Подписывайтесь на Telegram-канал Глеба Соломина: https://yangx.top/gleb_solomin
Аудиоформат выпуска: https://glebsolomin.mave.digital/ep-23
ССЫЛКИ
1. Магистратуры ФПМИ: https://mipt.ru/education/departments/fpmi/master/
2. Группа ФПМИ для абитуриентов: https://vk.com/abitu…
Аудиоформат выпуска: https://glebsolomin.mave.digital/ep-23
ССЫЛКИ
1. Магистратуры ФПМИ: https://mipt.ru/education/departments/fpmi/master/
2. Группа ФПМИ для абитуриентов: https://vk.com/abitu…
#канал
Добавил в описание канала "РЕКЛАМУ НЕ ПУБЛИКУЮ". Интересно, поможет ли? Слишком много писем "Опубликуйте ...". Например, письмо с предложением за плату опубликовать ссылку на ШАДовский учебник по ML через несколько часов после того, как я бесплатно уже её опубликовал.
Особо не слежу за статистикой канала, но заметил, как число подписчиков перевалило за 6 000 - хотя я его никак не пиарю - ссылку даю только студентам, да и вообще он всегда был ориентирован "на тех, кто со мною знаком". Из забавного - почти сотня отписалась, когда я скинул ссылку с описанием работы в PornHub.
Спасибо всем, кто ставит смайлики - можно проследить за интересами подписчиков. Странно, что не особо заходят объявления о разных научных школах. Если бы я был студентом, то не вылезал бы из них (столько возможностей узнать нового и пообщаться с интересными людьми, плюс подыскать себе что-то типа аспирантуры).
Добавил в описание канала "РЕКЛАМУ НЕ ПУБЛИКУЮ". Интересно, поможет ли? Слишком много писем "Опубликуйте ...". Например, письмо с предложением за плату опубликовать ссылку на ШАДовский учебник по ML через несколько часов после того, как я бесплатно уже её опубликовал.
Особо не слежу за статистикой канала, но заметил, как число подписчиков перевалило за 6 000 - хотя я его никак не пиарю - ссылку даю только студентам, да и вообще он всегда был ориентирован "на тех, кто со мною знаком". Из забавного - почти сотня отписалась, когда я скинул ссылку с описанием работы в PornHub.
Спасибо всем, кто ставит смайлики - можно проследить за интересами подписчиков. Странно, что не особо заходят объявления о разных научных школах. Если бы я был студентом, то не вылезал бы из них (столько возможностей узнать нового и пообщаться с интересными людьми, плюс подыскать себе что-то типа аспирантуры).
#интересно
Нашёл сегодня такой скатер-плот. Интересно, что тут есть противоречия с моим опытом и интуицией, но не с потолка же его взяли...
Нашёл сегодня такой скатер-плот. Интересно, что тут есть противоречия с моим опытом и интуицией, но не с потолка же его взяли...
Почему random_seed = 42?
Anonymous Quiz
9%
Курт Воннегут
56%
Адамс Дуглас
6%
Кристофер Нолан
3%
Квентин Тарантино
3%
Джеффри Хинтон
10%
Ян ЛеКун
13%
не понимаю, что происходит
#новости
Прошли защиты бакалавров и магистров ММП. Из МГУ выпустилось ещё несколько десятков классных специалистов (что-то мы перестали выкладывать в открытый доступ выпускные работы, поэтому не могу похвастаться, насколько классных). Кстати, кафедре в этом году исполняется 25 лет! Всем выпускникам - удачной карьеры, постоянного саморазвития и реализации всех планов!
Прошли защиты бакалавров и магистров ММП. Из МГУ выпустилось ещё несколько десятков классных специалистов (что-то мы перестали выкладывать в открытый доступ выпускные работы, поэтому не могу похвастаться, насколько классных). Кстати, кафедре в этом году исполняется 25 лет! Всем выпускникам - удачной карьеры, постоянного саморазвития и реализации всех планов!
#данные
На этом ресурсе в свободном доступе выложено несколько десятков медицинских наборов данных (КТ, МРТ и т.п.):
https://mosmed.ai/datasets/
На этом ресурсе в свободном доступе выложено несколько десятков медицинских наборов данных (КТ, МРТ и т.п.):
https://mosmed.ai/datasets/
#новости
Печальная новость… Образовательная программа OzonMasters прекратила своё существование. Очень жаль. На мой взгляд, на старте это был самый удачный проект среди образовательных в DS/ML/BI.
Спасибо всем!
Юрию Дорну и организаторам программы - очень профессиональная работа! Мне никогда не было так комфортно преподавать.
Своим коллегам преподавателям - у нас собрался очень классный коллектив и потрясающая линейка курсов. Очень благодарен, что работал с вами.
Особенно своим семинаристам и лично Артёму Попову - самое лучшее в наших курсах было от вас.
Всем нашим студентам - за то, что выбрали нашу программу! Некоторые выпускники уже делают потрясающую карьеру, некоторые стали активно помогать на курсах программы, что очень ценно. Вы все очень классные! Надеюсь, будете с теплотой вспоминать Озонмастерс и не разрывать связи, особенно, со своими однокурсниками;) «Дружба заканчивается только, если она не была настоящей».
Всем, кто поддерживал OzonMasters! В том числе, коллегам из аналогичных образовательных программ за корректную конкуренцию и тёплое отношение - удачи вам и долгого существования!
«Счастливый конец — это когда вовремя опускаешь занавес. Чтобы закончить в момент наивысшего счастья, потому что потом всё будет опять плохо.» Чак Паланик
П.С. Мы, конечно, прикладываем все усилия, чтобы сохранить накопленный опыт - ищем партнёров и варианты существования.
Печальная новость… Образовательная программа OzonMasters прекратила своё существование. Очень жаль. На мой взгляд, на старте это был самый удачный проект среди образовательных в DS/ML/BI.
Спасибо всем!
Юрию Дорну и организаторам программы - очень профессиональная работа! Мне никогда не было так комфортно преподавать.
Своим коллегам преподавателям - у нас собрался очень классный коллектив и потрясающая линейка курсов. Очень благодарен, что работал с вами.
Особенно своим семинаристам и лично Артёму Попову - самое лучшее в наших курсах было от вас.
Всем нашим студентам - за то, что выбрали нашу программу! Некоторые выпускники уже делают потрясающую карьеру, некоторые стали активно помогать на курсах программы, что очень ценно. Вы все очень классные! Надеюсь, будете с теплотой вспоминать Озонмастерс и не разрывать связи, особенно, со своими однокурсниками;) «Дружба заканчивается только, если она не была настоящей».
Всем, кто поддерживал OzonMasters! В том числе, коллегам из аналогичных образовательных программ за корректную конкуренцию и тёплое отношение - удачи вам и долгого существования!
«Счастливый конец — это когда вовремя опускаешь занавес. Чтобы закончить в момент наивысшего счастья, потому что потом всё будет опять плохо.» Чак Паланик
П.С. Мы, конечно, прикладываем все усилия, чтобы сохранить накопленный опыт - ищем партнёров и варианты существования.
#математика
Интересный научпоп ресурс, скорее для школьников, по разным разделам математики. Например,в разделе Data - про визуализацию и распределения (иногда попадаются картинки в стиле "Статистика и котики"), а в разделе Puzzles есть трёхмерный тетрис (на рис.)
https://www.mathsisfun.com/
Интересный научпоп ресурс, скорее для школьников, по разным разделам математики. Например,в разделе Data - про визуализацию и распределения (иногда попадаются картинки в стиле "Статистика и котики"), а в разделе Puzzles есть трёхмерный тетрис (на рис.)
https://www.mathsisfun.com/
#новости
Первый раз в моей жизни диссертация может пригодиться;)
https://tass.ru/nedvizhimost/14863543
Первый раз в моей жизни диссертация может пригодиться;)
https://tass.ru/nedvizhimost/14863543
TACC
В Думе предложили ввести беспроцентную ипотеку для кандидатов и докторов наук до 45 лет - ТАСС
По мнению вице-спикера Госдумы Бориса Чернышова, это поможет остановить "утечку мозгов" за рубеж и снизить эмиграцию молодых специалистов на фоне давления коллективного Запада
#новости
На выступлении перед молодыми учёными и бизнесменами Путин рассказал, в чём Россия впереди планеты всей. Поздравляю специалистов по большим данным;)
На выступлении перед молодыми учёными и бизнесменами Путин рассказал, в чём Россия впереди планеты всей. Поздравляю специалистов по большим данным;)
РИА Новости
Россия обогнала другие страны в обработке больших данных, заявил Путин
Россия, которую называют страной-бензоколонкой, уже обогнала другие государства не только в балете, но и по другим направлениям, в том числе по части обработки... РИА Новости, 09.06.2022
#интересно
ОзонМастерса больше нет, но о некоторых недоделанных проектах можно написать... мало, кто знает, что у ОМ и Юрия Дорна не так давно появился подкаст "Рандомные дрова", и хотя успел выйти всего один выпуск "DS изнутри. Рассказываем как начать, куда расти и чего ожидать на карьерном пути датасаентиста", но он довольно интересный и гости хорошие;)
https://music.yandex.ru/album/22354556?dir=desc&activeTab=about
ОзонМастерса больше нет, но о некоторых недоделанных проектах можно написать... мало, кто знает, что у ОМ и Юрия Дорна не так давно появился подкаст "Рандомные дрова", и хотя успел выйти всего один выпуск "DS изнутри. Рассказываем как начать, куда расти и чего ожидать на карьерном пути датасаентиста", но он довольно интересный и гости хорошие;)
https://music.yandex.ru/album/22354556?dir=desc&activeTab=about
Яндекс Музыка
Рандомные дрова
Рандомные дрова – это подкаст о Data Science и Data аналитике.
Ведущие Ван Хачатрян (Head of ML... • Подкаст • 686 подписчиков
Ведущие Ван Хачатрян (Head of ML... • Подкаст • 686 подписчиков
#конференция
А вот летняя школа от Сбера для преподавателей (не всё же студентам учиться):
https://sbergraduate.ru/digitalsummer/
А вот летняя школа от Сбера для преподавателей (не всё же студентам учиться):
https://sbergraduate.ru/digitalsummer/
SberGraduate
Летняя цифровая школа Сбера - SberGraduate
#забавно
Какая долгая судьба у работы...
Статья Why Random Reshuffling Beats Stochastic Gradient Descent была впервые выложена на Arxiv в 2015 году
https://arxiv.org/abs/1510.08560
В 2019 она выложена на сайте журнала Mathematical Programming (с модификациями)
https://link.springer.com/article/10.1007/s10107-019-01440-w
Официально она опубликована в номере только 2021 года: Mathematical Programming volume 186, pages 49–84 (2021)
А последняя правка на Arxive сделана в этом году.
Статью пишут уже 7 лет;)
Какая долгая судьба у работы...
Статья Why Random Reshuffling Beats Stochastic Gradient Descent была впервые выложена на Arxiv в 2015 году
https://arxiv.org/abs/1510.08560
В 2019 она выложена на сайте журнала Mathematical Programming (с модификациями)
https://link.springer.com/article/10.1007/s10107-019-01440-w
Официально она опубликована в номере только 2021 года: Mathematical Programming volume 186, pages 49–84 (2021)
А последняя правка на Arxive сделана в этом году.
Статью пишут уже 7 лет;)
SpringerLink
Why random reshuffling beats stochastic gradient descent
Mathematical Programming - We analyze the convergence rate of the random reshuffling (RR) method, which is a randomized first-order incremental algorithm for minimizing a finite sum of convex...
#забавно
В комментариях к предыдущему посту я поделился ссылкой, но надо бы её вынести на всеобщее обозрение - там есть любопытные статьи (с самым длинным названием, с самым коротким заголовком, с наибольшим числом ссылок и т.п.) А на картинке - мотивашка - такие статьи тоже бывают;) Кстати, я подобную диссертацию видел, и ничего, человек защитился. А через несколько лет он и подобную докторскую представил, точно не помню, вроде страниц 18 всего.
https://www.researchgate.net/post/Have_you_seen_these_strange_statistics_in_scientific_publications
В комментариях к предыдущему посту я поделился ссылкой, но надо бы её вынести на всеобщее обозрение - там есть любопытные статьи (с самым длинным названием, с самым коротким заголовком, с наибольшим числом ссылок и т.п.) А на картинке - мотивашка - такие статьи тоже бывают;) Кстати, я подобную диссертацию видел, и ничего, человек защитился. А через несколько лет он и подобную докторскую представил, точно не помню, вроде страниц 18 всего.
https://www.researchgate.net/post/Have_you_seen_these_strange_statistics_in_scientific_publications