DL in NLP
12.5K subscribers
547 photos
13 videos
27 files
1.1K links
Новости и обзоры статей на тему обработки естественного языка, нейросетей и всего такого.

Связь: @dropout05 (рекламы нет)
加入频道
Кстати всем спасибо, кто пришёл на митап из этого канала. Вы классные. Не со всеми успел поговорить, но много кого видел.
Вчера увидел новую статью от Alexander Rush
И она по unsupervised суммаризации

Simple Unsupervised Summarization by Contextual Matching
Zhou et Rush [Harvard]
arxiv.org/pdf/1907.13337v1.pdf
#rl
Сегодня занятия по RL не будет. Устроим голосовалку в чате, когда его провести.
Завтра в ШАДе у нас будет аж два события: семинар по RL и reading club по интерпретации BERT.
Я уже внёс в списки тех, кто участвует в summer camp, кто-то может добавиться ещё.
Время будет сообщено позже: ориентируйтесь на 12-15 часов.

Форма для охраны. Закроется в 12:00, торопитесь. Ещё у нас маленькая аудитория (Сорбонна, а не Оксфорд), надеюсь что вас будет не очень много)

https://forms.office.com/Pages/ResponsePage.aspx?id=DQSIkWdsW0yxEjajBLZtrQAAAAAAAAAAAAMAAKZ1i4JUQlBMQURTNFRIVksxT1lFUDBSUEgzQjdHQy4u
PyTorch 1.2 и TorchText 0.4 🎉
pytorch.org/blog/pytorch-1.2-and-domain-api-release

В PyTorch:

nn.Transformer
nn.TransformerEncoder
nn.TransformerEncoderLayer

etc.

Поддержка tensorboard вышла из статуса экспериментальной. Просто используйте torch.utils.tensorboard

В torchtext завезли больше встроенных датасетов и туториалов и улучшили поддержку torch.data.dataset
Оказывается, у RASA есть свой research blog. Они попытались ускорить берт с помощью квантизации. Вообще довольно хорошая статья с обзором методов сжатия, почитайте.

Compressing BERT for faster prediction
blog.rasa.com/compressing-bert-for-faster-prediction-2

Спойлер: не смогли, но скорее всего всё дело в TF Lite
Статьи, которые будут разобраны на reading club.
Кто хочет прийти - почитайте.
Forwarded from DL in NLP
Некоторые статьи по анализу того, как работает BERT. Наверное, неплохо было бы их разобрать.

Visualizing and Measuring the Geometry of BERT
arxiv.org/pdf/1906.02715.pdf

Right for the Wrong Reasons: Diagnosing Syntactic Heuristics in Natural Language Inference
arxiv.org/abs/1902.01007

Probing Neural Network Comprehension of Natural Language Arguments
arxiv.org/abs/1907.07355

How multilingual is Multilingual BERT?
arxiv.org/pdf/1906.01502.pdf

BERT Rediscovers the Classical NLP Pipeline
arxiv.org/abs/1905.05950

What Does BERT Look At? An Analysis of BERT's Attention
arxiv.org/abs/1906.04341
Завтра встречаемся по RL в 12
По reading club в 15:40

ШАД, Сорбонна

Будет организована трансляция на twitch, но не готов гарантировать, что она будет работать хорошо.
Гайд по тому, как конвертировать модели из TF в PyTorch от, наверное, самой опытной в этом команды - 🤗

Переходите на 🔥сторону.

medium.com/huggingface/from-tensorflow-to-pytorch-265f40ef2a28
ppo2.ipynb
46.2 KB
#rl

Как обещал, упрощённая версия задания по PPO. Буду рад фидбэку - что слишком сложно, что слишком просто, где плохое описание.
NLP reading club starts
Всвязи с окончанием курса по #rl . Было весело.
На архиве появилась какая-то дичь. Новый лосс для обучения генерации текста. Выглядит интересно.
How to Fine-Tune BERT for Text Classification?
Sun et al. Fudan University
arxiv.org/pdf/1905.05583.pdf

В статье пытаются смешать BERT и ULMfit. Получается довольно средне, но в конце концов они обходят ULMfit на почти всех датасетах (хоть и не сильно). В статье много хаков и мало убедительных ablation studies, но это best we have. На удивление мало статей, рассказывающих о том, как правильно применять BERT.
Как выяснилось не все знают о существовании discussion group для этого канала. Заходите поговорить.