Small Data Science for Russian Adventurers
11.2K subscribers
300 photos
3 videos
13 files
702 links
БЕЗ ЧУЖОЙ РЕКЛАМЫ Авторский канал Александра Дьяконова (dyakonov.org)
машинное (machine learning) и
глубокое обучение (deep learning)
анализ данных (data mining)
наука о данных (data science)
ИИ (artificial intelligence)
математика (math)
и др.
ЕСТЬ ЧАТ;)
加入频道
картинка к опросу ниже
Здесь показана формула, по которой производится вычисления в этой графовой сети (GNN). Что это за сеть?
Anonymous Quiz
16%
GIN (Graph Isomorphism Network)
29%
GraphSAGE (Graph Sample and Aggregate)
27%
GAT (Graph Attention Network)
15%
Jumping Knowledge Network
13%
DeepGCN
#видео
Не очень известный, но интересный доклад Филиппа Сингера (на момент доклада 1е место в рейтинге Кэгла). Без пафоса «Как выиграть всё что можно» рассказывает о своём соревновательном опыте. Интересно, что своё первое соревнование он провёл 10 лет назад (и сейчас самый «старый» в топе кэгла, если смотреть по дате регистрации на платформе), а потом 7 лет не соревновался.
https://youtu.be/OenmJTdF0-M
#забавно
Графики в логарифмических шкалах для семейства GPT-1/2/3: иллюстрация степенных законов в пространстве "сложность модели" - "ошибка". Утверждается (я не проверял), что аналогичные графики будут и для других известных архитектур нейросетей. Источник - автор сайта https://www.eleuther.ai/

А теперь что тут интересного... условно, если хотим уменьшить ошибку в 2 раза, надо собрать в 10 раз больше данных, и пока подобные законы справедливы для многих архитектур, т.е. какого-то насыщения не видно, например, что GPT* подошли к пределу своих возможностей (просто собирайте больше данных/берите больше мощностей/усложняйте модели).
#статьи
Что было за неделю... но тут только половина самого интересного и популярного

Unsolved Problems in ML Safety
Dan Hendrycks, Nicholas Carlini, John Schulman, Jacob Steinhardt
http://arxiv.org/abs/2109.13916v1
Просто небольшой обзорчик направлений по безопасности в машинном обучении (со ссылками).

Localizing Objects with Self-Supervised Transformers and no Labels
Oriane Siméoni, Gilles Puy, Huy V. Vo, Simon Roburin, Spyros Gidaris, Andrei Bursuc, Patrick Pérez, Renaud Marlet, Jean Ponce
http://arxiv.org/abs/2109.14279v1
Модное в последнее время самообучение в этой работе позволяет локализовывать объекты не используя размеченные данные (есть код).

Reconstruction for Powerful Graph Representations
Leonardo Cotta, Christopher Morris, Bruno Ribeiro
http://arxiv.org/abs/2110.00577v1
Попытка построить хорошее представление графа, для этого используется реконструкция (сеть должна получать представление всего графа по его частям). Довольно интересно!

Be Confident! Towards Trustworthy Graph Neural Networks via Confidence Calibration
Xiao Wang, Hongrui Liu, Chuan Shi, Cheng Yang
http://arxiv.org/abs/2109.14285v1
Про калибровку графовых сетей, интересно, что они, как правило, "недоуверенны" (т.е. выдаваемая вероятность ниже, чем доля объектов с такой вероятностью).

Stochastic Contrastive Learning
Jason Ramapuram, Dan BusBridge, Xavier Suau, Russ Webb
http://arxiv.org/abs/2110.00552v1
В Contrastive Learning вносят латентные переменные.

ResNet strikes back: An improved training procedure in timm
Ross Wightman, Hugo Touvron, Hervé Jégou
https://arxiv.org/abs/2110.00476v1
Взяли ванильный резнет и попробавали натренировать со всеми хаками последних лет. Довольно полезная статья!

A Survey of Knowledge Enhanced Pre-trained Models
Jian Yang, Gang Xiao, Yulong Shen, Wei Jiang, Xinyu Hu, Ying Zhang, Jinghui Peng
http://arxiv.org/abs/2110.00269v1
Статья про KEPTM - это предтренированные модели в которые внесены ещё и некоторые дополнительные знания (что такое "знание" в работе специально поясняется). Приводится обзор подобных решений.

DualNet: Continual Learning, Fast and Slow
Quang Pham, Chenghao Liu, Steven Hoi
http://arxiv.org/abs/2110.00175v1
Ещё одна попытка сделать непрерывное обучение "как у человека" (взяли идею быстрого и медленного обучения).

Multilingual AMR Parsing with Noisy Knowledge Distillation
Deng Cai, Xin Li, Jackie Chun-Sing Ho, Lidong Bing, Wai Lam
http://arxiv.org/abs/2109.15196v1
Предложен мультиязычный AMR-парсер (по тексту получается дерево).

Fake It Till You Make It: Face analysis in the wild using synthetic data alone
Erroll Wood, Tadas Baltrušaitis, Charlie Hewitt, Sebastian Dziadzio, Matthew Johnson, Virginia Estellers, Thomas J. Cashman, Jamie Shotton
http://arxiv.org/abs/2109.15102v1
Две задачи CV решаются при помощи синтетических данных.

Fine-tuning wav2vec2 for speaker recognition
Nik Vaessen, David A. van Leeuwen
http://arxiv.org/abs/2109.15053v1
Вроде сейчас это модно: на основе wav2vec2 пытаются делать стандартные задачи со звуком и речью.
#юмор
С днём учителя! Чтобы не как в этой статье...
#блог
Если Вы не знали, у ArXiv есть собственный блог:
https://blog.arxiv.org
#курс
Курс по машинному обучению на украинском языке: https://github.com/fbeilstein/machine_learning
(видео - на украинском, в ноутбуках - английский). Некоторые темы очень неплохо преподнесены.
#ссылка
Подборка ссылок по теме "Metric Learning"

Хороший большой обзор "Deep Metric Learning":
https://hav4ik.github.io/articles/deep-metric-learning-survey

Математические аспекты классического Metric Learning:
https://arxiv.org/pdf/1812.05944.pdf

библиотека для классического Metric Learning:
http://contrib.scikit-learn.org/metric-learn/introduction.html

Большой обзор "Contrastive Representation Learning"
https://lilianweng.github.io/lil-log/2021/05/31/contrastive-representation-learning.html

Обзор "Deep Metric Learning"
https://www.mdpi.com/2073-8994/11/9/1066/htm

Сравнение Loss-функций «A Metric Learning Reality Check»
https://arxiv.org/pdf/2003.08505.pdf

Одни из наиболее свежих Loss-функций:
Circle Loss: https://arxiv.org/pdf/2002.10857.pdf
Curriculum Face: https://arxiv.org/pdf/2004.00288.pdf
#курс
Курс «Математика и деньги на бирже», среди создателей бывшие ВМКашники и среди слушателей тоже много ВМКашников. Когда я учился, тоже посещал подобный курс - было интересно, но он тогда был не с прицелом «мы научим зарабатывать на бирже», а «мы научим ловить инсайдеров на бирже».
https://pfladvisors.com/mathmoney/
#курс
Интенсив по анализу данных NGS: введение в медицинскую и статистическую генетику
https://bioinf.me/education/workshops/ngs
#конференция
В МГУ скоро пройдёт такое мероприятие (с этого года всё, что хоть как-то связано с ИИ, помечают "AI"):
https://event.msu.ru/aiconference
#статьи
Вроде бы это последний (и очень неплохой) обзор по детектированию объектов:
« A Survey of Modern Deep Learning based Object Detection Models» https://arxiv.org/pdf/2104.11892v2.pdf
#длясправки
Как оказалось, не все знают. Есть такой ресурс, который позволяет читать статьи из ArXiv-a в виде HTML. Правда, он немного криво переводит (обычно страдают формулы).
https://www.arxiv-vanity.com