Как называется 3я архитектура на картинке (это из мира чат-ботов)?
Anonymous Quiz
20%
Multiple-encoder
23%
Complex-encoder
13%
Simplex-encoder
28%
Poly-encoder
2%
Mono-encoder
14%
Stereo-encoder
Forwarded from Sberloga (Alexander C)
🚀 @SBERLOGA начинает серию онлайн докладов посвященных Альфафолд (революционному достижению от Гугл ДипМайнд на стыке датасайнс и биологии)
👨🔬 проф. О. Калинина (Helmholtz Institute), к.б.н А. Залевский (ИБХ РАН): "Предсказание трехмерной пространственной структуры белков: классические подходы и методы глубокого обучения"
⌚️ Пятница 23 июля, 18.00 по Москве
AlphaFold – программа для предсказания пространственной структуры белков с помощью глубоких нейронных сетей, созданная компанией DeepMind, которая уже отметилась значительными успехами в создании программ, играющих в шахматы и го. AlphaFold наделала много шума осенью 2020 года, когда ей удалось с большим отрывом выиграть соревнования по предсказанию трехмерных структур белков CASP. 15 июля этого года была опубликована статья в Nature с описанием метода (https://www.nature.com/articles/s41586-021-03819-2) и код на GitHub (https://github.com/deepmind/alphafold). Прежде чем разбираться в деталях реализации нейросети, мы хотим рассказать про классические методы предсказания пространственной структуры и историю CASP. Также мы обсудим особенности локального развертывания AlphaFold и покажем результаты первых бенчмарков на собственных научных задачах.
Подробнее о докладчиках:
Ольга Калинина, профессор drug bioinformatics, Helmholtz Institute for Pharmaceutical Research Saarland and Saarland University (https://www.helmholtz-hips.de/en/research/people/person/prof-dr-olga-kalinina/), Артур Залевский, кандидат биологических наук, младший научный сотрудник, Институт биоорганической химии РАН (http://www.ibch.ru/structure/groups/lbaccb/1510)
PS
Ссылка на зум будет доступна через тг чат https://yangx.top/sberlogabio ближе к началу доклада.
Видео записи докладов доступны на ютуб канале SBERLOGA https://www.youtube.com/c/sberloga
👨🔬 проф. О. Калинина (Helmholtz Institute), к.б.н А. Залевский (ИБХ РАН): "Предсказание трехмерной пространственной структуры белков: классические подходы и методы глубокого обучения"
⌚️ Пятница 23 июля, 18.00 по Москве
AlphaFold – программа для предсказания пространственной структуры белков с помощью глубоких нейронных сетей, созданная компанией DeepMind, которая уже отметилась значительными успехами в создании программ, играющих в шахматы и го. AlphaFold наделала много шума осенью 2020 года, когда ей удалось с большим отрывом выиграть соревнования по предсказанию трехмерных структур белков CASP. 15 июля этого года была опубликована статья в Nature с описанием метода (https://www.nature.com/articles/s41586-021-03819-2) и код на GitHub (https://github.com/deepmind/alphafold). Прежде чем разбираться в деталях реализации нейросети, мы хотим рассказать про классические методы предсказания пространственной структуры и историю CASP. Также мы обсудим особенности локального развертывания AlphaFold и покажем результаты первых бенчмарков на собственных научных задачах.
Подробнее о докладчиках:
Ольга Калинина, профессор drug bioinformatics, Helmholtz Institute for Pharmaceutical Research Saarland and Saarland University (https://www.helmholtz-hips.de/en/research/people/person/prof-dr-olga-kalinina/), Артур Залевский, кандидат биологических наук, младший научный сотрудник, Институт биоорганической химии РАН (http://www.ibch.ru/structure/groups/lbaccb/1510)
PS
Ссылка на зум будет доступна через тг чат https://yangx.top/sberlogabio ближе к началу доклада.
Видео записи докладов доступны на ютуб канале SBERLOGA https://www.youtube.com/c/sberloga
Nature
Highly accurate protein structure prediction with AlphaFold
Nature - AlphaFold predicts protein structures with an accuracy competitive with experimental structures in the majority of cases using a novel deep learning architecture.
#забавно
Возможные варианты будущего (из слайдов одной лекции):
Возможные варианты будущего (из слайдов одной лекции):
#книга
Меня спрашивали, зачем публиковать отрицательные отзывы… ну чтобы не читали, чтобы не спрашивали, что я думаю о книге, и чтобы я сам запомнил книгу.
«Regression Analysis: An Intuitive Guide for Using and Interpreting Linear Models» привлекла объёмом (300+ страниц) и новизной (2019 год), но оформлена (рисунки и формулы) плохо, а содержание не очень глубокое: формул почти нет, про регуляризация не слова, про решение задачи линейной регрессии (аналитическое или с помощью SGD) тоже ничего. Зато есть многие базовые термины, примеры и иллюстрации.
Меня спрашивали, зачем публиковать отрицательные отзывы… ну чтобы не читали, чтобы не спрашивали, что я думаю о книге, и чтобы я сам запомнил книгу.
«Regression Analysis: An Intuitive Guide for Using and Interpreting Linear Models» привлекла объёмом (300+ страниц) и новизной (2019 год), но оформлена (рисунки и формулы) плохо, а содержание не очень глубокое: формул почти нет, про регуляризация не слова, про решение задачи линейной регрессии (аналитическое или с помощью SGD) тоже ничего. Зато есть многие базовые термины, примеры и иллюстрации.
#книга
Efficient Processing of Deep Neural Networks
Авторский материал, очень аккуратно оформлена, хорошие иллюстрации, много о реализации нейроннок на железках и вообще об эффективной реализации (картинки из книги часто используются в разных курсах). Нет кода и примеров, нет последних архитектур сетей, некоторые вещи повторяются по тексту несколько раз.
Efficient Processing of Deep Neural Networks
Авторский материал, очень аккуратно оформлена, хорошие иллюстрации, много о реализации нейроннок на железках и вообще об эффективной реализации (картинки из книги часто используются в разных курсах). Нет кода и примеров, нет последних архитектур сетей, некоторые вещи повторяются по тексту несколько раз.
#книга
Probabilistic Deep Learning with Python by Oliver Duerr, Beate Sick
Оригинальная и продуманная книга. Подойдёт для новичков, здесь последовательно читателя проводят по миру DL от того «что такое вероятность» до байесовских нейронных сетей. Как я понимаю, есть аналогичный курс на Курсере (не смотрел). Есть сопровождающие ноутбуки. Из минусов: код в основном на tf (хотя в заголовке обещают и Pytorch, но ближе к концу книги его становится всё меньше), книга в меньшей степени «практическая», а в большей теоретическая (вся суть обучения объясняется с точки зрения оптимизации правдоподобия).
Probabilistic Deep Learning with Python by Oliver Duerr, Beate Sick
Оригинальная и продуманная книга. Подойдёт для новичков, здесь последовательно читателя проводят по миру DL от того «что такое вероятность» до байесовских нейронных сетей. Как я понимаю, есть аналогичный курс на Курсере (не смотрел). Есть сопровождающие ноутбуки. Из минусов: код в основном на tf (хотя в заголовке обещают и Pytorch, но ближе к концу книги его становится всё меньше), книга в меньшей степени «практическая», а в большей теоретическая (вся суть обучения объясняется с точки зрения оптимизации правдоподобия).
Data_science_applications_to_string_theory_2020_Physics_Reports.pdf
7.6 MB
#статьи
В работе "Data science applications to string theory" прошлого года фактически содержится краткий обзор многих тем ML.
В работе "Data science applications to string theory" прошлого года фактически содержится краткий обзор многих тем ML.
#образование
Пост Константина Сонина о том, что стоит сделать на мехмате МГУ (естественно, ничего из этого в ближайшее время делаться не будет):
https://www.facebook.com/plugins/post.php?href=https%3A%2F%2Fwww.facebook.com%2Fkonstantin.sonin%2Fposts%2F5079937455366082
Пост Константина Сонина о том, что стоит сделать на мехмате МГУ (естественно, ничего из этого в ближайшее время делаться не будет):
https://www.facebook.com/plugins/post.php?href=https%3A%2F%2Fwww.facebook.com%2Fkonstantin.sonin%2Fposts%2F5079937455366082
#курс
По обработке сигналов есть неплохой курс (классические темы), оформленный в виде Python-ноутбуков:
https://github.com/capitanov/dsp-theory
По обработке сигналов есть неплохой курс (классические темы), оформленный в виде Python-ноутбуков:
https://github.com/capitanov/dsp-theory
GitHub
GitHub - hukenovs/dsp-theory: Theory of digital signal processing (DSP): signals, filtration (IIR, FIR, CIC, MAF), transforms (FFT…
Theory of digital signal processing (DSP): signals, filtration (IIR, FIR, CIC, MAF), transforms (FFT, DFT, Hilbert, Z-transform) etc. - hukenovs/dsp-theory
#забавно
Сейчас смотрю всякие курсы по обработке сигналов и звуков и забавно отмечать, что совсем недавно не было никакого DL (как стандартного инструмента), помню как сам решал задачи идентификации голоса с помощью подобных признаков (как на картинке). И это был стандарт. А какие признаки приходилось выдумывать, если качество было плохое! Прошло каких-то 20 лет... и так уже никто не решает задачи.
Сейчас смотрю всякие курсы по обработке сигналов и звуков и забавно отмечать, что совсем недавно не было никакого DL (как стандартного инструмента), помню как сам решал задачи идентификации голоса с помощью подобных признаков (как на картинке). И это был стандарт. А какие признаки приходилось выдумывать, если качество было плохое! Прошло каких-то 20 лет... и так уже никто не решает задачи.
#курс
Курс по теории управления - очень качественно сделан (также есть симпатичная книга):
https://icct.cafre.unipi.it/
Курс по теории управления - очень качественно сделан (также есть симпатичная книга):
https://icct.cafre.unipi.it/
icct.cafre.unipi.it
Welcome to the official website of the Erasmus+ project ICCT Interactive Course for Control Theory!
Почему архитектура Inception в DL так названа?
Anonymous Quiz
1%
Фамилия одного из создателей
2%
Название института, где разработана
8%
Это сокращение
23%
Так обозначили "начало" новой парадигмы в DL
14%
Так называлась одна из моделей конструктора Lego
51%
Спасибо Нолану
#книга
Practical Machine Learning for Computer Vision
Симпатичная получилась книга, подробно описана классификация изображений и детектирование объектов, чуть менее подробно сегментация. Многие задачи (например, подсчёт объектов, оценка позы) оформлены в виде небольших кейсов. Куча примеров на TF. Из любопытного: многое упрощено, например описание YOLO, но упрощено очень грамотно. Из плюсов: классные иллюстрации, разобраны вопросы эволюции модели, сбора датасета и т.п. Из минусов: некий сумбур в изложении, не уверен, что всё будет понятно с нуля (хотя книга рассчитана больше на начинающих)
Practical Machine Learning for Computer Vision
Симпатичная получилась книга, подробно описана классификация изображений и детектирование объектов, чуть менее подробно сегментация. Многие задачи (например, подсчёт объектов, оценка позы) оформлены в виде небольших кейсов. Куча примеров на TF. Из любопытного: многое упрощено, например описание YOLO, но упрощено очень грамотно. Из плюсов: классные иллюстрации, разобраны вопросы эволюции модели, сбора датасета и т.п. Из минусов: некий сумбур в изложении, не уверен, что всё будет понятно с нуля (хотя книга рассчитана больше на начинающих)