#книга
Probabilistic Deep Learning with Python by Oliver Duerr, Beate Sick
Оригинальная и продуманная книга. Подойдёт для новичков, здесь последовательно читателя проводят по миру DL от того «что такое вероятность» до байесовских нейронных сетей. Как я понимаю, есть аналогичный курс на Курсере (не смотрел). Есть сопровождающие ноутбуки. Из минусов: код в основном на tf (хотя в заголовке обещают и Pytorch, но ближе к концу книги его становится всё меньше), книга в меньшей степени «практическая», а в большей теоретическая (вся суть обучения объясняется с точки зрения оптимизации правдоподобия).
Probabilistic Deep Learning with Python by Oliver Duerr, Beate Sick
Оригинальная и продуманная книга. Подойдёт для новичков, здесь последовательно читателя проводят по миру DL от того «что такое вероятность» до байесовских нейронных сетей. Как я понимаю, есть аналогичный курс на Курсере (не смотрел). Есть сопровождающие ноутбуки. Из минусов: код в основном на tf (хотя в заголовке обещают и Pytorch, но ближе к концу книги его становится всё меньше), книга в меньшей степени «практическая», а в большей теоретическая (вся суть обучения объясняется с точки зрения оптимизации правдоподобия).
Data_science_applications_to_string_theory_2020_Physics_Reports.pdf
7.6 MB
#статьи
В работе "Data science applications to string theory" прошлого года фактически содержится краткий обзор многих тем ML.
В работе "Data science applications to string theory" прошлого года фактически содержится краткий обзор многих тем ML.
#образование
Пост Константина Сонина о том, что стоит сделать на мехмате МГУ (естественно, ничего из этого в ближайшее время делаться не будет):
https://www.facebook.com/plugins/post.php?href=https%3A%2F%2Fwww.facebook.com%2Fkonstantin.sonin%2Fposts%2F5079937455366082
Пост Константина Сонина о том, что стоит сделать на мехмате МГУ (естественно, ничего из этого в ближайшее время делаться не будет):
https://www.facebook.com/plugins/post.php?href=https%3A%2F%2Fwww.facebook.com%2Fkonstantin.sonin%2Fposts%2F5079937455366082
#курс
По обработке сигналов есть неплохой курс (классические темы), оформленный в виде Python-ноутбуков:
https://github.com/capitanov/dsp-theory
По обработке сигналов есть неплохой курс (классические темы), оформленный в виде Python-ноутбуков:
https://github.com/capitanov/dsp-theory
GitHub
GitHub - hukenovs/dsp-theory: Theory of digital signal processing (DSP): signals, filtration (IIR, FIR, CIC, MAF), transforms (FFT…
Theory of digital signal processing (DSP): signals, filtration (IIR, FIR, CIC, MAF), transforms (FFT, DFT, Hilbert, Z-transform) etc. - hukenovs/dsp-theory
#забавно
Сейчас смотрю всякие курсы по обработке сигналов и звуков и забавно отмечать, что совсем недавно не было никакого DL (как стандартного инструмента), помню как сам решал задачи идентификации голоса с помощью подобных признаков (как на картинке). И это был стандарт. А какие признаки приходилось выдумывать, если качество было плохое! Прошло каких-то 20 лет... и так уже никто не решает задачи.
Сейчас смотрю всякие курсы по обработке сигналов и звуков и забавно отмечать, что совсем недавно не было никакого DL (как стандартного инструмента), помню как сам решал задачи идентификации голоса с помощью подобных признаков (как на картинке). И это был стандарт. А какие признаки приходилось выдумывать, если качество было плохое! Прошло каких-то 20 лет... и так уже никто не решает задачи.
#курс
Курс по теории управления - очень качественно сделан (также есть симпатичная книга):
https://icct.cafre.unipi.it/
Курс по теории управления - очень качественно сделан (также есть симпатичная книга):
https://icct.cafre.unipi.it/
icct.cafre.unipi.it
Welcome to the official website of the Erasmus+ project ICCT Interactive Course for Control Theory!
Почему архитектура Inception в DL так названа?
Anonymous Quiz
1%
Фамилия одного из создателей
2%
Название института, где разработана
8%
Это сокращение
23%
Так обозначили "начало" новой парадигмы в DL
14%
Так называлась одна из моделей конструктора Lego
51%
Спасибо Нолану
#книга
Practical Machine Learning for Computer Vision
Симпатичная получилась книга, подробно описана классификация изображений и детектирование объектов, чуть менее подробно сегментация. Многие задачи (например, подсчёт объектов, оценка позы) оформлены в виде небольших кейсов. Куча примеров на TF. Из любопытного: многое упрощено, например описание YOLO, но упрощено очень грамотно. Из плюсов: классные иллюстрации, разобраны вопросы эволюции модели, сбора датасета и т.п. Из минусов: некий сумбур в изложении, не уверен, что всё будет понятно с нуля (хотя книга рассчитана больше на начинающих)
Practical Machine Learning for Computer Vision
Симпатичная получилась книга, подробно описана классификация изображений и детектирование объектов, чуть менее подробно сегментация. Многие задачи (например, подсчёт объектов, оценка позы) оформлены в виде небольших кейсов. Куча примеров на TF. Из любопытного: многое упрощено, например описание YOLO, но упрощено очень грамотно. Из плюсов: классные иллюстрации, разобраны вопросы эволюции модели, сбора датасета и т.п. Из минусов: некий сумбур в изложении, не уверен, что всё будет понятно с нуля (хотя книга рассчитана больше на начинающих)
#интересно
Министерство образования разработала учебный модуль по искусственному интеллекту, вот что у них получилось… http://fgosvo.ru/uploadfiles/metod/Ps_MON_5_2657__02072021.pdf
Можно сравнить с курсами по ИИ, например стендфорским ;)
Министерство образования разработала учебный модуль по искусственному интеллекту, вот что у них получилось… http://fgosvo.ru/uploadfiles/metod/Ps_MON_5_2657__02072021.pdf
Можно сравнить с курсами по ИИ, например стендфорским ;)
#данные
Нашёл канал, в котором полно всяких аналитических отчётов, по компаниям и целым отраслям. Моим знакомым бизнес-аналитикам - прям кладовая (выборочно посмотрел, некоторые отчёты очень неплохие).
https://yangx.top/businessincognita
Нашёл канал, в котором полно всяких аналитических отчётов, по компаниям и целым отраслям. Моим знакомым бизнес-аналитикам - прям кладовая (выборочно посмотрел, некоторые отчёты очень неплохие).
https://yangx.top/businessincognita
Telegram
Business Incognita
Агрегатор обзоров на рынки и мировые тренды + @incognita_summary
Регистрация в РКН: clck.ru/3FxDbi
Регистрация в РКН: clck.ru/3FxDbi
#обзор
Разные виды dropout-a по годам появления. Картинка из обзорной статьи https://arxiv.org/pdf/1904.13310.pdf
Разные виды dropout-a по годам появления. Картинка из обзорной статьи https://arxiv.org/pdf/1904.13310.pdf
#новости
И параллельно предыдущей новости - Яндекс создал образовательный фонд имени Ильи Сегаловича. Яндекс всегда активно занимался образованием и была стипендия имени Сегаловича. Вроде, фонд - это просто перевод образовательной деятельности на конкретное подразделение. Из последних активностей - участие в проведении математического конгресса.
https://fund.yandex.ru
И параллельно предыдущей новости - Яндекс создал образовательный фонд имени Ильи Сегаловича. Яндекс всегда активно занимался образованием и была стипендия имени Сегаловича. Вроде, фонд - это просто перевод образовательной деятельности на конкретное подразделение. Из последних активностей - участие в проведении математического конгресса.
https://fund.yandex.ru
Фонд Сегаловича
#интересно
И всё-таки в ML наука пока чуть больше делается в университетах, а не в больших компаниях (если судить по аффилиациям в статьях). Источник: https://arxiv.org/pdf/2106.15590v1.pdf
И всё-таки в ML наука пока чуть больше делается в университетах, а не в больших компаниях (если судить по аффилиациям в статьях). Источник: https://arxiv.org/pdf/2106.15590v1.pdf
#статьи
Чтение на выходные... какие интересные статьи вышли за неделю;)
Primer: Searching for Efficient Transformers for Language Modeling
David R. So, Wojciech Mańke, Hanxiao Liu, Zihang Dai, Noam Shazeer, Quoc V. Le
http://arxiv.org/abs/2109.08668v1
Новая трансформерная модель Primer, которую легче обучать (меняется активация и механизм внимания). 35 страниц со всеми приложениями. Это самая обсуждаемая статья недели.
Relation-Guided Pre-Training for Open-Domain Question Answering
Ziniu Hu, Yizhou Sun, Kai-Wei Chang
http://arxiv.org/abs/2109.10346v1
Создаётся искусственный реляционный датасет, на котором производят предобучение моделей. Это делает модели более качественными.
Recursively Summarizing Books with Human Feedback
Jeff Wu, Long Ouyang, Daniel M. Ziegler, Nissan Stiennon, Ryan Lowe, Jan Leike, Paul Christiano
https://arxiv.org/pdf/2109.10862v1.pdf
Ребята из OpenAI приспособили GPT-3 для саммаризации (или "реферирования", если по русски). Потребовалась иерархическая процедура. Примеры краткого изложения книг впечатляют.
ConvFiT: Conversational Fine-Tuning of Pretrained Language Models
Ivan Vulić, Pei-Hao Su, Sam Coope, Daniela Gerz, Paweł Budzianowski, Iñigo Casanueva, Nikola Mrkšić, Tsung-Hsien Wen
http://arxiv.org/abs/2109.10126v1
Предлагается процедура превращения предобученной языковой модели в специальные кодировщики (универсальные или узкоспециализированные). Выглядит интересно для многих приложений.
PLATO-XL: Exploring the Large-scale Pre-training of Dialogue Generation
Siqi Bao, Huang He, Fan Wang, Hua Wu, Haifeng Wang, Wenquan Wu, Zhihua Wu, Zhen Guo, Hua Lu, Xinxian Huang, Xin Tian, Xinchao Xu, Yingzhan Lin, Zhengyu Niu
http://arxiv.org/abs/2109.09519v1
Двуязычная диалоговая модель с 11 млрд параметрами от ребят из Байду.
Machine-learning hidden symmetries
Ziming Liu, Max Tegmark
http://arxiv.org/abs/2109.09721v1
Маленькая статья с математикой через которую лично мне сложно продираться - поиск паттернов, которые являются симметриями в неизвестной системе координат.
SCSS-Net: Solar Corona Structures Segmentation by Deep Learning
Šimon Mackovjak, Martin Harman, Viera Maslej-Krešňáková, Peter Butka
http://arxiv.org/abs/2109.10834v1
Какого-то крутого результата нет, просто решена частная задача сегментации - на снимках солнца. Интересна как пример приложения сегментации.
Trust Your Robots! Predictive Uncertainty Estimation of Neural Networks with Sparse Gaussian Processes
Jongseok Lee, Jianxiang Feng, Matthias Humt, Marcus G. Müller, Rudolph Triebel
http://arxiv.org/abs/2109.09690v2
Нейросети представляются как разреженные гауссовские процессы.
ElasticFace: Elastic Margin Loss for Deep Face Recognition
Fadi Boutros, Naser Damer, Florian Kirchbuchner, Arjan Kuijper
http://arxiv.org/abs/2109.09416v2
Новинка в распознавании лиц - предложена новая Loss-функция.
Grouping Search Results with Product Graphs in E-commerce Platforms
Suhas Ranganath, Shibsankar Das, Sanjay Thilaivasan, Shipra Agarwal, Varun Shrivastava
http://arxiv.org/abs/2109.09349v1
От ребят из Волмарта про организацию правильного поиска товаров.
Intra-Inter Subject Self-supervised Learning for Multivariate Cardiac Signals
Xiang Lan, Dianwen Ng, Shenda Hong, Mengling Feng
http://arxiv.org/abs/2109.08908v1
Самообучение в анализе кардиосигналов.
Pix2seq: A Language Modeling Framework for Object Detection
Ting Chen, Saurabh Saxena, Lala Li, David J. Fleet, Geoffrey Hinton
От команды Хинтона: языковые модели теперь детектируют объекты.
Deviation-Based Learning
Junpei Komiyama, Shunya Noda
https://arxiv.org/pdf/2109.09816v1.pdf
Новая техника в рекомендательных системах.
Audiomer: A Convolutional Transformer for Keyword Spotting
Surya Kant Sahu, Sai Mitheran, Juhi Kamdar, Meet Gandhi
https://arxiv.org/abs/2109.10252
Здесь приспособили трансформер для конкретной задачи со звуком. Ничего особо прорывного, но есть вещи, которые можно взять на вооружение.
Чтение на выходные... какие интересные статьи вышли за неделю;)
Primer: Searching for Efficient Transformers for Language Modeling
David R. So, Wojciech Mańke, Hanxiao Liu, Zihang Dai, Noam Shazeer, Quoc V. Le
http://arxiv.org/abs/2109.08668v1
Новая трансформерная модель Primer, которую легче обучать (меняется активация и механизм внимания). 35 страниц со всеми приложениями. Это самая обсуждаемая статья недели.
Relation-Guided Pre-Training for Open-Domain Question Answering
Ziniu Hu, Yizhou Sun, Kai-Wei Chang
http://arxiv.org/abs/2109.10346v1
Создаётся искусственный реляционный датасет, на котором производят предобучение моделей. Это делает модели более качественными.
Recursively Summarizing Books with Human Feedback
Jeff Wu, Long Ouyang, Daniel M. Ziegler, Nissan Stiennon, Ryan Lowe, Jan Leike, Paul Christiano
https://arxiv.org/pdf/2109.10862v1.pdf
Ребята из OpenAI приспособили GPT-3 для саммаризации (или "реферирования", если по русски). Потребовалась иерархическая процедура. Примеры краткого изложения книг впечатляют.
ConvFiT: Conversational Fine-Tuning of Pretrained Language Models
Ivan Vulić, Pei-Hao Su, Sam Coope, Daniela Gerz, Paweł Budzianowski, Iñigo Casanueva, Nikola Mrkšić, Tsung-Hsien Wen
http://arxiv.org/abs/2109.10126v1
Предлагается процедура превращения предобученной языковой модели в специальные кодировщики (универсальные или узкоспециализированные). Выглядит интересно для многих приложений.
PLATO-XL: Exploring the Large-scale Pre-training of Dialogue Generation
Siqi Bao, Huang He, Fan Wang, Hua Wu, Haifeng Wang, Wenquan Wu, Zhihua Wu, Zhen Guo, Hua Lu, Xinxian Huang, Xin Tian, Xinchao Xu, Yingzhan Lin, Zhengyu Niu
http://arxiv.org/abs/2109.09519v1
Двуязычная диалоговая модель с 11 млрд параметрами от ребят из Байду.
Machine-learning hidden symmetries
Ziming Liu, Max Tegmark
http://arxiv.org/abs/2109.09721v1
Маленькая статья с математикой через которую лично мне сложно продираться - поиск паттернов, которые являются симметриями в неизвестной системе координат.
SCSS-Net: Solar Corona Structures Segmentation by Deep Learning
Šimon Mackovjak, Martin Harman, Viera Maslej-Krešňáková, Peter Butka
http://arxiv.org/abs/2109.10834v1
Какого-то крутого результата нет, просто решена частная задача сегментации - на снимках солнца. Интересна как пример приложения сегментации.
Trust Your Robots! Predictive Uncertainty Estimation of Neural Networks with Sparse Gaussian Processes
Jongseok Lee, Jianxiang Feng, Matthias Humt, Marcus G. Müller, Rudolph Triebel
http://arxiv.org/abs/2109.09690v2
Нейросети представляются как разреженные гауссовские процессы.
ElasticFace: Elastic Margin Loss for Deep Face Recognition
Fadi Boutros, Naser Damer, Florian Kirchbuchner, Arjan Kuijper
http://arxiv.org/abs/2109.09416v2
Новинка в распознавании лиц - предложена новая Loss-функция.
Grouping Search Results with Product Graphs in E-commerce Platforms
Suhas Ranganath, Shibsankar Das, Sanjay Thilaivasan, Shipra Agarwal, Varun Shrivastava
http://arxiv.org/abs/2109.09349v1
От ребят из Волмарта про организацию правильного поиска товаров.
Intra-Inter Subject Self-supervised Learning for Multivariate Cardiac Signals
Xiang Lan, Dianwen Ng, Shenda Hong, Mengling Feng
http://arxiv.org/abs/2109.08908v1
Самообучение в анализе кардиосигналов.
Pix2seq: A Language Modeling Framework for Object Detection
Ting Chen, Saurabh Saxena, Lala Li, David J. Fleet, Geoffrey Hinton
От команды Хинтона: языковые модели теперь детектируют объекты.
Deviation-Based Learning
Junpei Komiyama, Shunya Noda
https://arxiv.org/pdf/2109.09816v1.pdf
Новая техника в рекомендательных системах.
Audiomer: A Convolutional Transformer for Keyword Spotting
Surya Kant Sahu, Sai Mitheran, Juhi Kamdar, Meet Gandhi
https://arxiv.org/abs/2109.10252
Здесь приспособили трансформер для конкретной задачи со звуком. Ничего особо прорывного, но есть вещи, которые можно взять на вооружение.
#статьи
Продолжение и картинка для привлечения внимания из одной статьи...
DS-Net++: Dynamic Weight Slicing for Efficient Inference in CNNs and Transformers
Changlin Li, Guangrun Wang, Bing Wang, Xiaodan Liang, Zhihui Li, Xiaojun Chang
https://arxiv.org/abs/2109.10060v1
Попытка сделать крутую динамическую сеть. Как я понимаю, при честном сравнении таки сети пока хуже SoTA в смысле качества, но могут выигрывать по другим показателям.
Towards Zero-Label Language Learning
Zirui Wang, Adams Wei Yu, Orhan Firat, Yuan Cao
https://arxiv.org/abs/2109.09193v1
Работа от гугла - попытка обойтись без размеченных данных, в том числе, для задач синтеза.
И ещё вышла библиотека:
Merlion
https://github.com/salesforce/Merlion
Новая библиотека для временных рядов.
Продолжение и картинка для привлечения внимания из одной статьи...
DS-Net++: Dynamic Weight Slicing for Efficient Inference in CNNs and Transformers
Changlin Li, Guangrun Wang, Bing Wang, Xiaodan Liang, Zhihui Li, Xiaojun Chang
https://arxiv.org/abs/2109.10060v1
Попытка сделать крутую динамическую сеть. Как я понимаю, при честном сравнении таки сети пока хуже SoTA в смысле качества, но могут выигрывать по другим показателям.
Towards Zero-Label Language Learning
Zirui Wang, Adams Wei Yu, Orhan Firat, Yuan Cao
https://arxiv.org/abs/2109.09193v1
Работа от гугла - попытка обойтись без размеченных данных, в том числе, для задач синтеза.
И ещё вышла библиотека:
Merlion
https://github.com/salesforce/Merlion
Новая библиотека для временных рядов.
#юмор
Ну и Шмидхубера можно почитать, всё-таки в Сбере работает;) тема старая: всё сделано в моей лаборатории, а премии дают каким-то популяризаторам:
https://people.idsia.ch/~juergen/scientific-integrity-turing-award-deep-learning.html
Ну и Шмидхубера можно почитать, всё-таки в Сбере работает;) тема старая: всё сделано в моей лаборатории, а премии дают каким-то популяризаторам:
https://people.idsia.ch/~juergen/scientific-integrity-turing-award-deep-learning.html
people.idsia.ch
Scientific Integrity, History of Deep Learning, 2021 Turing Lecture, 2018 Turing Award
ACM and the awardees credit the awardees for work that did not cite the inventors of the used methods. But science is self-correcting.