Small Data Science for Russian Adventurers
11.2K subscribers
303 photos
3 videos
13 files
705 links
БЕЗ ЧУЖОЙ РЕКЛАМЫ Авторский канал Александра Дьяконова (dyakonov.org)
машинное (machine learning) и
глубокое обучение (deep learning)
анализ данных (data mining)
наука о данных (data science)
ИИ (artificial intelligence)
математика (math)
и др.
ЕСТЬ ЧАТ;)
加入频道
В некотором научном сообществе на крупных конференциях вручается приз - эта статуэтка - за то, что докладчик первым среди участников упомянит это...
Anonymous Quiz
33%
имя Шмидхубера
6%
датасет
9%
первую нейросеть
6%
название своего доклада
20%
первую статью про GAN
25%
слово "F**K"
#реклама
👾❗️Уже в эту субботу в 12:00 (МСК) стартует чемпионат для Data Science Alfa Battle 2.0. Для того, чтобы погрузить участников в нюансы задач и рассказать, что интересного для дата сайентистов происходит в Альфа-Групп в формате стрима пройдет брифинг-конференция: “ОТ МОДЕЛИ К ПРОДУКТАМ” с экспертами из Альфа-Банка, X5 RG, Билайн и АльфаСтрахования.

Коротко о программе:
◾️Ошибки в А/В тестах — как не быть уволенным
◾️Кейс Action Recognition: как мы сделали +15% к Accuracy
◾️Кейс голосовых сервисов: робот Даша
◾️Редизайн Альфа-Мобайл — что изменилось?
◾️Дискуссионная панель “Будущее Data Science в Альфа-Групп”

Открывает конференцию — Владимир Верхошинский, главный управляющий директор Альфа-Банка, член Наблюдательного совета «Альфа-Групп».

😉 Участвуйте в эпической битве зимы за 1 000 000 рублей!

Подключайтесь и задавайте вопросы по задачам в прямом эфире.

Подробности и регистрация: https://link.alfabattle.ru/U5TXI
#блог
Не знал, что у Владимира Игловикова есть блог:
https://ternaus.blog
#забавно
и залипательная гифка на ночь;)
https://mingyuliutw.github.io/gifs/pointflow.gif
#обзор
Для тех, кто в чатике интересовался обзорами по Ганам. В принципе, их много хороших. Но для провокационности контента канала, скажу -
Посмотрите на Хуи Джонатана:
https://jonathan-hui.medium.com/gan-gan-series-2d279f906e7b
#забавно
Ох уж эти переводы, "ПОЕЗД" - это train;)
#обзор
Поискал какое-нибудь свежее независимое и более-менее приличное сравнение разных реализация градиентного бустинга. Нашёл только за 2019 год...
Выгоднее смотрится CatBoost, но автор контактировал с его создателями, как показывает практика, это действительно улучшает качество в экспериментах (имеется в виду, что создатели подсказывают, что в данном случае надо ещё подкрутить). Жалко, что у xgb и lgb нет такой помощи онлайн (у catboost-a есть, кстати, свой телеграм-канал).
https://medium.com/riskified-technology/xgboost-lightgbm-or-catboost-which-boosting-algorithm-should-i-use-e7fda7bb36bc
Forwarded from Chat Small Data Science for Russian Adventurers
Какой бустинг Вы считаете лучшим?
Anonymous Poll
23%
XGBoost
38%
LightGBM
35%
CatBoost
3%
другой
#данные
А Озон, оказывается, дынными делится;)
https://opendata.ozon.ru
#книга
Очень атмосферная книга Тома Лейнстера "Энтропия и разнообразие: аксиоматический подход" - прям ностальгия по аспирантуре, нас так учили: долой практику, из естественных допущений вывести какими должны быть функции, которые формализуют "количество информации" или "разнообразие" (я пока не дочитал до конца, но первая треть хороша):
https://arxiv.org/abs/2012.02113
#книга
По просьбам в чате - ссылки на книги по математике...
Не скажу, что обзоры сверхудачные, но довольно полные и, главное, они есть:

Математика в ML
Marc Peter Deisenroth, A Aldo Faisal, and Cheng Soon Ong "Mathematics for Machine Learning", 2019, https://mml-book.github.io

Одна их последних больших книг по математике в ML
Jean Gallier, Jocelyn Quaintance «Algebra, Topology, Differential Calculus, and
Optimization Theory for Computer Science and Machine Learning» // Book in Progress, 1958 pp. (2019) http://www.cis.upenn.edu/~jean/gbooks/geomath.html
#ии
Статья про китайский голосовой помощник или помощницу. Написано в интересном стиле, делается даже страшно за будущее;)
http://www.sixthtone.com/news/1006531
#забавно
Наконец-то формулы стали няшными...
https://youtu.be/5zaB1B4hOnQ
#визуализация
Картинка дня - наши студенты отчитываются по практике, пример стилизации, которая не нравится ни людям, ни чёрным ящикам (которые обучены "хорошему вкусу").
#забавно
Любопытное из произнесения имён учёных... если подумать (как их произносят соотечественники учёных), то

Фрэнсис Га́льтон, который дал название регрессии, оказался Голтоном (Sir Francis Galton, /Frɑːnsɪs ˈɡɔːltən/)

То́мас Ба́йес, самая известная личность среди вероятностников, на самом деле Бейз (Thomas Bayes [beɪz]), т.е. правильно говорить "формула Бейза"

В статистике известно распределение Стьюдента. И все знают историю учёного Уильяма Госсета, который публиковался под псевдонимом Student. Это тот самый случай, когда произношение правильное, хотя, может, и не к месту... кажется, что логичнее было бы сказать "распределение Студента".

Леонард Эйлер... пожалуй, самый известный математик. Казалось бы, что неправильного в фамилии? Смотрим википедию. Он оказывается Ойла!