Small Data Science for Russian Adventurers
11.1K subscribers
300 photos
3 videos
13 files
702 links
БЕЗ ЧУЖОЙ РЕКЛАМЫ Авторский канал Александра Дьяконова (dyakonov.org)
машинное (machine learning) и
глубокое обучение (deep learning)
анализ данных (data mining)
наука о данных (data science)
ИИ (artificial intelligence)
математика (math)
и др.
ЕСТЬ ЧАТ;)
加入频道
#термин
Есть такое интересное понятие - Цена анархии. По простому, это во сколько раз эгоистичное поведение хуже согласованного. Например, есть 3 грибника и 2 удалённых грибницы в разных сторонах, в одной ~ 300 грибов, в другой ~ 150. Согласованное поведение: двое идут к первой, третий ко второй, в результате все набирают по ~ 150 грибов. Эгоистичное поведение: все бросаются к большей грибнице и каждый набирает по ~ 100 грибов. Цена анархии = 150/100 = 1.5.

Это понятие возникает в и DS-задачах. Часто бизнес-продукты оптимизируются в рамках "идеального мира" (скажем, прогнозируем продажу N единиц товара - и столько завозим на склад), но пользователи не будут действовать согласованно, они чаще эгоистичны (приходит перекупщик и скупает все N), поэтому нужно заранее уметь оценивать, насколько меньше может быть их удовлетворённость, наши доходы и т.п.

Иногда цена анархии появляется и в совсем ML-ных статьях, например в статьях про RL.
#термин
Есть такой феномен "Банерная слепота" - если человек долго пользуется сайтом с рекламой, то его внимание к рекламе притупляется и она перестаёт на него эффективно действовать. Постоянно появляются исследования подтверждающие, уточняющие или опровергающие этот эффект. Например, в работе Small percentage of users is able to reliably distinguish between ads and organic results утверждается, что пользователи не особо различают рекламные и органические ссылки в поисковой выдаче, а в работе Investigating the influence of ads on user search performance, behaviour, and experience during information seeking, что наличие рекламы сильно вредит работе (притупляется внимание и т.п.)
#забавно
Есть такая старая картинка с колодой карт, на которой изображены математики. Интересно, что есть и другие подобные колоды в интернете, довольно качественно оформленные.
#длясправки
Есть несколько стандартных модификаций метода k-средних, наиболее известная - алгоритм Ллойда, именно он реализован в scikit-learn. А вот на R реализованы:
* Lloyd,
* Forgy,
* MacQueen,
* Hartigan and Wong.
И много чего ещё. Там отличия в инициализации и пересчёте, очень неплохо написано здесь (хотя это не прям ценные знания). Но в очередной раз поражаюсь, сколько всего в разных библиотеках языка R...
#соревнования
Самые популярные показатели качества, которые были использованы в соревновательных задачах на платформе Kaggle. В лидерах - площадь по ROC-кривой. [источник]
#забавно
Как в том анекдоте (хочу поехать в Новгород - в какой? - а что их несколько?). На коротком промежутке времени нескольким коллективам авторов пришло в голову назвать их метод "DEAR" (и на скриншоте далеко не все работы, остальные просто не вынесли это в заголовок). Если так подумать, то кризис свободных запоминающихся аббревиатур уже начался...
Если Вы DS/аналитик/IT-шник(ца)... сколько в Вашем коллективе (окружении) представительниц прекрасного пола?
Anonymous Poll
21%
0% - 9%
20%
10% - 19%
14%
20% - 29%
7%
30% - 39%
5%
40% - 49%
6%
50% и больше
26%
просто посмотреть результаты
#поздравление
Всех читательниц канала с праздником! Весеннего настроения и удачи! 🌹

П.С. На рис. "девушка в DL" по версии генеративной нейронки;)
#визуализация
Немного красоты свёрток перед первым рабочим днём на неделе;)
https://animatedai.github.io/

Здесь не изображены векторы смещения (bias), но это не значит, что их нет;)

П.С. Спасибо коллеге Сергею за ссылку.
#книга
Наконец-то я дочитал книгу Яна Лекуна "Как учится машина: Революция в области нейронных сетей и глубокого обучения" (вышла давно, но я к ней возвращался урывками).

Что касается названия, то, на мой взгляд, в книге не раскрывается полностью и ясно "как учится машина". Есть некоторые наброски - как может быть устроен сильный ИИ, что для этого потребуется, но тут собраны довольно известные (для специалистов) мысли.

Но самое ценное в ней - автобиографичность, автор подробно рассказывает, где работал, чем занимался и как. Хотелось бы, чтобы её прочитали все "организаторы науки". Я многое узнал, например, о происхождении некоторых фото или крылатых фраз в ML.

Много чего можно процитировать из книги. Вот лишь один фрагмент...
"Если вы сталкиваетесь со стартапом, руководители которого заявляют, что они обладают какими-либо секретными результатами, относящимися к ИИ чуть ли не человеческого уровня, они или лгут вам, или обманывают сами себя. Не доверяйте им!"

Читать обязательно!
#конференция
Года 3 назад постил эту ссылку, но если кто-то не добавил в закладки...
Список научных школ по машинному обучению (в том числе будущих):
https://github.com/sshkhr/awesome-mlss
#история (которую я часто рассказываю в своём курсе)

На одном из хакатонов, который проводила крупная нефтяная компания, в финале участники выступали с презентациями о своих решениях задачи прогнозирования дебита нефти... Почти все настраивали бустинг (различались лишь библиотеки), генерировали признаки, искали лики и т.п.

Предпоследним вышел парень из Уфы, который занял 2е место в лидерборде, и сказал: я не очень понимаю смысл всего, что тут говорилось, такие слова как "бустинг" я слышу в первый раз. Я учусь "в нефтянке", нас учили, что есть такая формула для дебита (выводит на слайд небольшую формулу), я просто в неё подставил известные значения, а неизвестные прикинул, какими они могли бы быть.
#к_вопросу
В одной из статей авторы добавили к названию предложенной нейронки (трансформеру) такой забавный значок. Ниже вопрос;)
#забавно
Потестил новую отечественную генеративную модель.
Слева генерация по запросу "Сотрудница Cбера пишет ruDALL-E", справа - "Сотрудник Сбера не пишет ruGPT4".
#приёмы
На своих курсах я часто сообщаю такой приём: не выбрасывать плохие данные, а примерить их пусть не для моделирования, но для служебных задач. Например, у Вас есть кусок данных, где много неизвестных значений, а в целевых значениях много выбросов. Можно изъять его из обучения (допустим это повышает качество), но использовать, например, для mean target encoding категориальных признаков (и утечки не будет и кодирование будет вполне нормальным).
#чужие_блоги
Есть такой не очень часто упоминаемый блог Amit Chaudhary. С 2021 года он, к сожалению, не пополняется, но там есть очень неплохие посты с качественными авторскими рисунками. Вот, например, рисунок из поста про подсчёт Average Precision (AP).
#опрос
Мне сейчас актуальны проблемы качества образования. Поэтому я попробую использовать аудиторию канала для опроса. Какие-то общие выводы опроса я, конечно, в канале напишу...

Нас обычно привлекают
- преподаватели (которые отличаются от других харизмой, манерой подачи и т.п.),
- курсы (которые оказываются полезными и запоминаются),
- приёмы (ну какие-то фишки, которые редко встречаются, но вызывают "вау-эффект": интересные формы контрольных, неформальные обсуждения материала и т.д.)

Если у Вас что-то такое было, напишите в форму. Там всего несколько полей, можно заполнять несколько раз, за одно заполнение можно указать что-то одно (преподавателя, курс или приём). Также желательно кратко объяснить, а что Вас зацепило... Это НЕ обязательно должно быть связано с DS или MATH образованием! Любопытно всё интересное.

Заранее всем спасибо!
#книга
Jakub M. Tomczak "Deep Generative Modeling"
По ощущениям это как раз книга для продвинутого ML, т.к. в стандартных программах не всегда глубокие генеративные модели подробно излагаются. Автор довольно известен, у него очень симпатичный сайт и доклады о генеративных моделях на разных научных школах. Там и блог есть, но в нём излагаются главы книги.

Минус у книги один:
- не смотря на объём, глубоко в специфику отдельных методов автор не погружается.

Зато много плюсов:
+ обзор всех популярных классов генеративных моделей;
+ для каждого класса даётся перечень приёмов/улучшений со ссылками на первоисточниками;
+ даны примеры кода.
#ссылка
Учебные материалы по теории хаоса. В полном доступе выложена авторская книга (более 1000 страниц) и материалы курсов.
https://chaosbook.org/