В одной из книг по DL этот рисунок приводится в главе, посвящённой этому виду нейронных сетей...
Anonymous Quiz
29%
Свёрточные сети
9%
Рекуррентные сети
21%
Капсульные сети
6%
Сети Больцмана
4%
Графовые сети
33%
GAN
#попросили_разместить
Бесплатная онлайн конференция DataStart от хороших людей для хороших людей. На конфе по DS можно услышать о культуре использования данных в бизнесе и узнать об инженерных хитростях в машинном обучении. Отличный способ провести 30 июня с пользой — присоединиться к нашему онлайну!
ссылка на мероприятие: https://clck.ru/NvMXw
Бесплатная онлайн конференция DataStart от хороших людей для хороших людей. На конфе по DS можно услышать о культуре использования данных в бизнесе и узнать об инженерных хитростях в машинном обучении. Отличный способ провести 30 июня с пользой — присоединиться к нашему онлайну!
ссылка на мероприятие: https://clck.ru/NvMXw
datastart.ru
Бесплатная летняя онлайн-конференция Data Science 2020
Обучающие конференции по Data Science в
Москве и Санкт-Петербурге. Программа мероприятий содержит актуальные темы по Big Data,
Machine Learning, AI. Практические занятия позволят лучше усвоить полученные
на мероприятии знания.
Москве и Санкт-Петербурге. Программа мероприятий содержит актуальные темы по Big Data,
Machine Learning, AI. Практические занятия позволят лучше усвоить полученные
на мероприятии знания.
#статья
Интересно, Хасти и Тибширани решили доработать LASSO, внеся дополнительные штрафующие множители в регуляризацию (инверсия настраиваемого софтмакса). Возрождение классики в эпоху глубокого обучения:
https://arxiv.org/pdf/2006.01395.pdf
Интересно, Хасти и Тибширани решили доработать LASSO, внеся дополнительные штрафующие множители в регуляризацию (инверсия настраиваемого софтмакса). Возрождение классики в эпоху глубокого обучения:
https://arxiv.org/pdf/2006.01395.pdf
#видео
Отличная лекция Воронцова про методы оптимизации, которые возникают при разных постановках задач машинного обучения:
https://youtu.be/tX_MeIbfEmw
Отличная лекция Воронцова про методы оптимизации, которые возникают при разных постановках задач машинного обучения:
https://youtu.be/tX_MeIbfEmw
YouTube
К.В. Воронцов "Обзор постановок оптимизационных задач машинного обучения"
http://www.mathnet.ru/php/seminars.phtml?option_lang=rus&presentid=27231
Аннотация: В последние годы всё более экзотические постановки задач возникают в машинном обучении. Мы уже не можем сказать, что машинное обучение – это в основном классификация, кластеризация…
Аннотация: В последние годы всё более экзотические постановки задач возникают в машинном обучении. Мы уже не можем сказать, что машинное обучение – это в основном классификация, кластеризация…
#код
Ну вот, российские компании всё больше выкладывают кода в общий доступ:
https://habr.com/ru/company/abbyy/blog/506808/
Ну вот, российские компании всё больше выкладывают кода в общий доступ:
https://habr.com/ru/company/abbyy/blog/506808/
Хабр
ABBYY NeoML: как мы делали библиотеку машинного обучения и зачем она нужна
Привет, Хабр! Меня зовут Стас, и я отвечаю за направление Common Libraries в компании ABBYY. Недавно мы выложили на GitHub созданную нами библиотеку для машинно...
#книга
По-моему, очень неплохо сделано, тут и книга и видеолекции по теме «Алгоритмы биоинформатики»:
https://www.bioinformaticsalgorithms.org/read-the-book
По-моему, очень неплохо сделано, тут и книга и видеолекции по теме «Алгоритмы биоинформатики»:
https://www.bioinformaticsalgorithms.org/read-the-book
Bioinformatics
Read the Book | Bioinformatics Algorithms
Read our textbook for free online, buy a printed copy, or find online courses using an interactive version of the book.
#курс
В этом году прочитал курс "Глубокое обучение" для студентов ММП ВМК МГУ. Курс экспериментальный - хотелось охватить всё-всё (пока не успели тему "атаки на сети" и обработку звуков, материалов по видео тоже нет, но они и не планировались). Видеоролики пока в общий доступ не выкладываю, а слайды можно посмотреть здесь:
https://github.com/Dyakonov/DL
В этом году прочитал курс "Глубокое обучение" для студентов ММП ВМК МГУ. Курс экспериментальный - хотелось охватить всё-всё (пока не успели тему "атаки на сети" и обработку звуков, материалов по видео тоже нет, но они и не планировались). Видеоролики пока в общий доступ не выкладываю, а слайды можно посмотреть здесь:
https://github.com/Dyakonov/DL
GitHub
GitHub - Dyakonov/DL: Курс "Глубокое обучение (Deep Learning)" (ВМК, МГУ имени М.В. Ломоносова)
Курс "Глубокое обучение (Deep Learning)" (ВМК, МГУ имени М.В. Ломоносова) - Dyakonov/DL
#забавно
От чего зависит популярность в Инстаграмме...
https://algorithmwatch.org/en/story/instagram-algorithm-nudity/
От чего зависит популярность в Инстаграмме...
https://algorithmwatch.org/en/story/instagram-algorithm-nudity/
AlgorithmWatch
Undress or fail: Instagram’s algorithm strong-arms users into showing skin - AlgorithmWatch
An exclusive investigation reveals that Instagram prioritizes photos of scantily-clad men and women, shaping the behavior of content creators and the worldview of 140 millions Europeans in what remains a blind spot of EU regulations.
#конференции
Ежегодная Летняя школа "Управление, информация и оптимизация" всё-таки пройдёт в традиционном режиме, но споки изменились: в образовательном центре "Сириус", Сочи, с 23 по 29 августа.
Зарегистрироваться и узнать подробности можно на сайте
https://ssopt.org
Ежегодная Летняя школа "Управление, информация и оптимизация" всё-таки пройдёт в традиционном режиме, но споки изменились: в образовательном центре "Сириус", Сочи, с 23 по 29 августа.
Зарегистрироваться и узнать подробности можно на сайте
https://ssopt.org
ssopt.org
Летняя школа "Управление, информация и оптимизация" им. Б. Т. Поляка
Иннополис 2025
#save
Всегда хотел написать что-то на тему "Парадоксы в ML", но останавливало то, что мало материала на эту тему. Сегодня нашёл себе в копилку "Эффект Транка":
http://37steps.com/2448/trunks-example/
Всегда хотел написать что-то на тему "Парадоксы в ML", но останавливало то, что мало материала на эту тему. Сегодня нашёл себе в копилку "Эффект Транка":
http://37steps.com/2448/trunks-example/
Pattern Recognition Tools
Trunk's example of the peaking phenomenon
In 1979 G.V. Trunk published a very clear and simple example of the peaking phenomenon. It has been cited many times to explain the existence of peaking. Here, we will summarize and discuss it for those who want to have a better idea about the peaking problem.…
#статья
Поскольку среди читателей канала много рисковиков - свежий обзор "Машинное обучение в кредитном риске"
https://www.researchgate.net/profile/Joseph_Breeden/publication/341804274_A_Survey_of_Machine_Learning_in_Credit_Risk/links/5ed56800299bf1c67d325d19/A-Survey-of-Machine-Learning-in-Credit-Risk.pdf
Поскольку среди читателей канала много рисковиков - свежий обзор "Машинное обучение в кредитном риске"
https://www.researchgate.net/profile/Joseph_Breeden/publication/341804274_A_Survey_of_Machine_Learning_in_Credit_Risk/links/5ed56800299bf1c67d325d19/A-Survey-of-Machine-Learning-in-Credit-Risk.pdf
#книга
А кстати, неплохая книга... для тех, кто хочет повторить весь-весь университетский курс математики:
https://web.evanchen.cc/napkin.html
А кстати, неплохая книга... для тех, кто хочет повторить весь-весь университетский курс математики:
https://web.evanchen.cc/napkin.html
#статья
Буду кидать сюда статьи, которые мне показались любопытные (но, по традиции этого канала, их обошли вниманием другие ML-популяризаторы):
Shortcut Learning in Deep Neural Networks
работа о т.н. Shortcut Learning, когда формально сеть что-то выучивает, но это бесполезно при практическом применении (есть хороший обзор работ):
https://arxiv.org/pdf/2004.07780.pdf
Буду кидать сюда статьи, которые мне показались любопытные (но, по традиции этого канала, их обошли вниманием другие ML-популяризаторы):
Shortcut Learning in Deep Neural Networks
работа о т.н. Shortcut Learning, когда формально сеть что-то выучивает, но это бесполезно при практическом применении (есть хороший обзор работ):
https://arxiv.org/pdf/2004.07780.pdf
#статья
Статья от Майкла Джордана и соавторов
О темпах обучения о операторах Шрёдингера
- связь между стохастическим градиентным спуском и дифференциальными уравнениями
https://arxiv.org/pdf/2004.06977.pdf
Статья от Майкла Джордана и соавторов
О темпах обучения о операторах Шрёдингера
- связь между стохастическим градиентным спуском и дифференциальными уравнениями
https://arxiv.org/pdf/2004.06977.pdf
#статья
Работа ребят из Беркли
Zitong Yang et al Rethinking Bias-Variance Trade-off for Generalization of Neural Networks
о пересмотре для нейросетей концепции разброс-смещение
https://arxiv.org/pdf/2002.11328.pdf
Работа ребят из Беркли
Zitong Yang et al Rethinking Bias-Variance Trade-off for Generalization of Neural Networks
о пересмотре для нейросетей концепции разброс-смещение
https://arxiv.org/pdf/2002.11328.pdf
...это всё было на тему теоретических работ по настройке сетей. Сегодня посмотрел около сотни новых статей. Эти зацепили больше остальных.
Что в этом списке лишнее?
Anonymous Quiz
25%
saliency maps
20%
deconvolution
5%
guided backprop
24%
batch normalization
19%
GradCAM
7%
integrated gradient
#обучение
Ещё одна магистерская программа по биоинформатике, теперь в МФТИ
https://biotech.napoleonit.com/
Ещё одна магистерская программа по биоинформатике, теперь в МФТИ
https://biotech.napoleonit.com/