🎥 Andrea Montanari (Stanford) -- Mean Field Descriptions of Two Layers Neural Network
👁 1 раз ⏳ 3939 сек.
👁 1 раз ⏳ 3939 сек.
MIFODS - Workshop on Non-convex optimization and deep learning
Cambridge, US
January 27-20, 2019
Vk
Andrea Montanari (Stanford) -- Mean Field Descriptions of Two Layers Neural Network
MIFODS - Workshop on Non-convex optimization and deep learning
Cambridge, US
January 27-20, 2019
Cambridge, US
January 27-20, 2019
A birds-eye view of optimization algorithms
By Fabian Pedregosa: http://fa.bianp.net/teaching/2018/eecs227at/
By Fabian Pedregosa: http://fa.bianp.net/teaching/2018/eecs227at/
from Google AI about music generation
https://magenta.tensorflow.org/gansynth
🔗 GANSynth: Making music with GANs
In this post, we introduce GANSynth, a method for generating high-fidelity audio with Generative Adversarial Networks (GANs). Colab Notebook 🎵Audio E...
https://magenta.tensorflow.org/gansynth
🔗 GANSynth: Making music with GANs
In this post, we introduce GANSynth, a method for generating high-fidelity audio with Generative Adversarial Networks (GANs). Colab Notebook 🎵Audio E...
Magenta
GANSynth: Making music with GANs
In this post, we introduce GANSynth, a method for generating high-fidelity audio with Generative Adversarial Networks (GANs). Colab Notebook 🎵Audio E...
🎥 77. Apache Spark. 1 триллион измерений Logistic Regression в Spark
👁 1 раз ⏳ 1071 сек.
👁 1 раз ⏳ 1071 сек.
Как правило, спарк не может хорошо поддерживать крупномасштабное машинное обучение, потому что размер модели может превышать ограничение памяти одного узла. Тем не менее, мы разработали алгоритм обучения тренировочной логистической регрессии и модели softmax с 1 триллионом измерений на стандартной версии искры за 15 минут (500 миллионов обучающих выборок). Для достижения этой цели мы предложили новый алгоритм оптимизации, тщательно выбранный подходящий метод распределения и применяемую технологию сжатия мод
Vk
77. Apache Spark. 1 триллион измерений Logistic Regression в Spark
Как правило, спарк не может хорошо поддерживать крупномасштабное машинное обучение, потому что размер модели может превышать ограничение памяти одного узла. Тем не менее, мы разработали алгоритм обучения тренировочной логистической регрессии и модели softmax…
🎥 14. Neural Style Transfer и Generative Adversarial Networks
👁 78 раз ⏳ 6550 сек.
👁 78 раз ⏳ 6550 сек.
В этом видео Кирилл Голубев (МФТИ) рассказывает об очень красивом и интересном применении нейросетей -- переносе стиля изображений.
После этого речь идёт о генеративных сетях, которые сегодня очень бурно развиваются и показывают себя в самых различных задачах.
В этом же видео продемонстрирован код, осуществляющий перенос стиля, и код простой генеративной нейросети, чтобы слушатели могли сразу попрактиковаться.
Материалы занятия:
http://bit.ly/2FmTnUJ
---
Deep Learning School при ФПМИ МФТИ.
Официальны
Vk
14. Neural Style Transfer и Generative Adversarial Networks
В этом видео Кирилл Голубев (МФТИ) рассказывает об очень красивом и интересном применении нейросетей -- переносе стиля изображений.
После этого речь идёт о генеративных сетях, которые сегодня очень бурно развиваются и показывают себя в самых различных задачах.…
После этого речь идёт о генеративных сетях, которые сегодня очень бурно развиваются и показывают себя в самых различных задачах.…
🎥 2. Основы линейной алгебры: семинар
👁 3 раз ⏳ 3878 сек.
👁 3 раз ⏳ 3878 сек.
ВАЖНО: Проблемы со звуком пропадают после 11:16.
Данный семинар посвящён основам линейной алгебры. Её понимание необходимо для дальнейшего продвижения в Deep Learning и в машинном обучении в целом.
Рассматриваются такие понятия, как линейное пространство, линейное преобразование, вектор, матрица и операции с ними.
Материалы занятия:
https://github.com/DLSchool/dlschool/tree/master/02.%20Linear%20Algebra%2C%20Numpy
Семинарист: Данил Лыков (МФТИ)
---
Deep Learning School при ФПМИ МФТИ
Официальный сай
Vk
2. Основы линейной алгебры: семинар
ВАЖНО: Проблемы со звуком пропадают после 11:16.
Данный семинар посвящён основам линейной алгебры. Её понимание необходимо для дальнейшего продвижения в Deep Learning и в машинном обучении в целом.
Рассматриваются такие понятия, как линейное пространство…
Данный семинар посвящён основам линейной алгебры. Её понимание необходимо для дальнейшего продвижения в Deep Learning и в машинном обучении в целом.
Рассматриваются такие понятия, как линейное пространство…
В России создаётся национальная стратегия в области искусственного интеллекта
Правительству РФ поручено до 15 июня 2019 года разработать национальную стратегию в области искусственного интеллекта. В поручении президента не указаны подробности, что должна из себя представлять эта стратегия, указана только дата.
Для примера, можно посмотреть на аналогичную стратегию Китая. В отличие от российской, она принята несколько лет назад и сейчас постепенно реализуется.
https://habr.com/ru/post/442024/
🔗 В России создаётся национальная стратегия в области искусственного интеллекта
Правительству РФ поручено до 15 июня 2019 года разработать национальную стратегию в области искусственного интеллекта. В поручении президента не указаны подробно...
Правительству РФ поручено до 15 июня 2019 года разработать национальную стратегию в области искусственного интеллекта. В поручении президента не указаны подробности, что должна из себя представлять эта стратегия, указана только дата.
Для примера, можно посмотреть на аналогичную стратегию Китая. В отличие от российской, она принята несколько лет назад и сейчас постепенно реализуется.
https://habr.com/ru/post/442024/
🔗 В России создаётся национальная стратегия в области искусственного интеллекта
Правительству РФ поручено до 15 июня 2019 года разработать национальную стратегию в области искусственного интеллекта. В поручении президента не указаны подробно...
Хабр
В России создаётся национальная стратегия в области искусственного интеллекта
Правительству РФ поручено до 15 июня 2019 года разработать национальную стратегию в области искусственного интеллекта. В поручении президента не указаны подробности, что должна из себя представлять...
Mayhem — машина, способная находить уязвимости в программах и исправлять их
Программа заняла первое место в конкурсе Cyber Grand Challenge от DARPA, посвящённом автоматизации этичного взлома
https://habr.com/ru/post/442178/
🔗 Mayhem — машина, способная находить уязвимости в программах и исправлять их
Программа заняла первое место в конкурсе Cyber Grand Challenge от DARPA, посвящённом автоматизации этичного взлома В 2011 года, когда инвестор Марк Андриссен с...
Программа заняла первое место в конкурсе Cyber Grand Challenge от DARPA, посвящённом автоматизации этичного взлома
https://habr.com/ru/post/442178/
🔗 Mayhem — машина, способная находить уязвимости в программах и исправлять их
Программа заняла первое место в конкурсе Cyber Grand Challenge от DARPA, посвящённом автоматизации этичного взлома В 2011 года, когда инвестор Марк Андриссен с...
Хабр
Mayhem — машина, способная находить уязвимости в программах и исправлять их
Программа заняла первое место в конкурсе Cyber Grand Challenge от DARPA, посвящённом автоматизации этичного взлома В 2011 года, когда инвестор Марк Андриссен с...
Random thoughts on my first ML deployment
5 things I didn’t know six months ago and that’s better not to forget in the months to come
Наш телеграм канал - https://tele.click/ai_machinelearning_big_data
https://towardsdatascience.com/random-thoughts-on-my-first-ml-deployment-8e8c89df047f?source=collection_home---4------2---------------------
🔗 Random thoughts on my first ML deployment – Towards Data Science
5 things I didn’t know six months ago and that’s better not to forget in the months to come
5 things I didn’t know six months ago and that’s better not to forget in the months to come
Наш телеграм канал - https://tele.click/ai_machinelearning_big_data
https://towardsdatascience.com/random-thoughts-on-my-first-ml-deployment-8e8c89df047f?source=collection_home---4------2---------------------
🔗 Random thoughts on my first ML deployment – Towards Data Science
5 things I didn’t know six months ago and that’s better not to forget in the months to come
Towards Data Science
Random thoughts on my first ML deployment
5 things I didn’t know six months ago and that’s better not to forget in the months to come
Готовим следующий Data Science Meetup🔥На этот раз собираемся в Иннополисе.
Спикеры:
1. Дмитрий Карасев (QuLab)
Тема: Практическое применение Face Recognition
2. Игорь Шульган (Университет Иннополис)
Тема: Neural grammatical error correction models
Data Science Meetup пройдет 17 марта в Технопарке (г.Иннополис)
Начало в 14:30🙌🏻
Ссылки на регистрацию и контакты ниже:
💻 provectus.com/events/kazan-data-science-meetup-3/
📩 через почту: [email protected]
☎ по номеру телефона: telegram +79625651594
🔗 Events - Participate in our events
Provectus's Events in Odessa, Kazan and California. Educate oneself of the topics of Artificial Intelligence, Data Engineering. Browse and sign up.
Спикеры:
1. Дмитрий Карасев (QuLab)
Тема: Практическое применение Face Recognition
2. Игорь Шульган (Университет Иннополис)
Тема: Neural grammatical error correction models
Data Science Meetup пройдет 17 марта в Технопарке (г.Иннополис)
Начало в 14:30🙌🏻
Ссылки на регистрацию и контакты ниже:
💻 provectus.com/events/kazan-data-science-meetup-3/
📩 через почту: [email protected]
☎ по номеру телефона: telegram +79625651594
🔗 Events - Participate in our events
Provectus's Events in Odessa, Kazan and California. Educate oneself of the topics of Artificial Intelligence, Data Engineering. Browse and sign up.
Unsupervised NLP Topic Models as a Supervised learning input
https://towardsdatascience.com/unsupervised-nlp-topic-models-as-a-supervised-learning-input-cf8ee9e5cf28?source=collection_home---4------1---------------------
🔗 Unsupervised NLP Topic Models as a Supervised learning input
Predicting Future Yelp Review Sentiment
https://towardsdatascience.com/unsupervised-nlp-topic-models-as-a-supervised-learning-input-cf8ee9e5cf28?source=collection_home---4------1---------------------
🔗 Unsupervised NLP Topic Models as a Supervised learning input
Predicting Future Yelp Review Sentiment
Towards Data Science
Using LDA Topic Models as a Classification Model Input
Predicting Future Yelp Review Sentiment
🎥 Занятие 2 | Машинное обучение
👁 1 раз ⏳ 3403 сек.
👁 1 раз ⏳ 3403 сек.
Преподаватель: Власов Кирилл Вячеславович
Материалы курса: https://github.com/ml-dafe/ml_mipt_dafe_minor
Дата: 02.03.2019
Vk
Занятие 2 | Машинное обучение
Преподаватель: Власов Кирилл Вячеславович
Материалы курса: https://github.com/ml-dafe/ml_mipt_dafe_minor
Дата: 02.03.2019
Материалы курса: https://github.com/ml-dafe/ml_mipt_dafe_minor
Дата: 02.03.2019
🎥 L8/5 Deep Learning Hardware
👁 1 раз ⏳ 1180 сек.
👁 1 раз ⏳ 1180 сек.
Dive into Deep Learning
UC Berkeley, STAT 157
Slides are at
http://courses.d2l.ai
The book is at
http://www.d2l.ai
Naive Bayes Classifiers
Vk
L8/5 Deep Learning Hardware
Dive into Deep Learning UC Berkeley, STAT 157 Slides are at http://courses.d2l.ai The book is at http://www.d2l.ai Naive Bayes Classifiers
Цифровая трансформация на примере Call центра любого бизнеса
https://habr.com/ru/post/442446/
🔗 Цифровая трансформация на примере Call центра любого бизнеса
https://habr.com/ru/post/442446/
🔗 Цифровая трансформация на примере Call центра любого бизнеса
Хабр
Цифровая трансформация на примере Call центра любого бизнеса
На этой фотографии видно как со временем изменилось производство автомобилей и то, что офис Call-центра остался практически на том же уровне: Сегодня настало время цифровой трансформации Call...
Finding code while searching Google scholar or arxiv is now easy with this chrome extension
https://chrome.google.com/webstore/detail/researchcode-code-finder/fjlgffkjbojpamibnefignobehknjane
🔗 ResearchCode code finder
Find code for research papers
https://chrome.google.com/webstore/detail/researchcode-code-finder/fjlgffkjbojpamibnefignobehknjane
🔗 ResearchCode code finder
Find code for research papers
Google
Chrome Web Store
Add new features to your browser and personalize your browsing experience.
🎥 Algorithmic bias and explainability in machine learning with tensorflow (Alejandro Saucedo)
👁 1 раз ⏳ 2324 сек.
👁 1 раз ⏳ 2324 сек.
A practical guide towards explainability and bias evaluation in machine learning - Alejandro Saucedo In this talk we will demystify the concept of "bias in machine learning" through a hands-on example. We will be tasked to automate an end-to-end loan approval process by training a deep learning tensorflow model on sample data. We will then dissect the model and dataset showcasing hidden common risks, and we will provide important insight on the key tools and techniques you can use to identify and mitigate u
Vk
Algorithmic bias and explainability in machine learning with tensorflow (Alejandro Saucedo)
A practical guide towards explainability and bias evaluation in machine learning - Alejandro Saucedo In this talk we will demystify the concept of "bias in machine learning" through a hands-on example. We will be tasked to automate an end-to-end loan approval…
DeepMind StarCraft
https://www.youtube.com/watch?v=98V6PnwVXCc
🎥 DeepMind StarCraft
👁 12 раз ⏳ 801 сек.
https://www.youtube.com/watch?v=98V6PnwVXCc
🎥 DeepMind StarCraft
👁 12 раз ⏳ 801 сек.
The AI research lab DeepMind created an algorithm that beat a top professional StarCraft 2 player for the first time! This is a huge achievement since this is an incredibly complex game that requires long term planning, game theory, and cooperative play. Their algorithm used a mixture of techniques that in the field of deep reinforcement learning. I'll explain how each of these techniques works, and how they all work together in unison. This is an exciting time for the field. Enjoy!
Code for this video:
h
YouTube
DeepMind StarCraft
The AI research lab DeepMind created an algorithm that beat a top professional StarCraft 2 player for the first time! This is a huge achievement since this i...
A Closed-form Solution to Photorealistic Image Stylization
Li et al.: https://arxiv.org/abs/1802.06474
Code: https://github.com/NVIDIA/FastPhotoStyle
#artificialintelligence #deeplearning #machinelearning
🔗 A Closed-form Solution to Photorealistic Image Stylization
Photorealistic image stylization concerns transferring style of a reference photo to a content photo with the constraint that the stylized photo should remain photorealistic. While several photorealistic image stylization methods exist, they tend to generate spatially inconsistent stylizations with noticeable artifacts. In this paper, we propose a method to address these issues. The proposed method consists of a stylization step and a smoothing step. While the stylization step transfers the style of the reference photo to the content photo, the smoothing step ensures spatially consistent stylizations. Each of the steps has a closed-form solution and can be computed efficiently. We conduct extensive experimental validations. The results show that the proposed method generates photorealistic stylization outputs that are more preferred by human subjects as compared to those by the competing methods while running much faster. Source code and additional results are available at https://github.com/NVIDIA/FastPhotoS
Li et al.: https://arxiv.org/abs/1802.06474
Code: https://github.com/NVIDIA/FastPhotoStyle
#artificialintelligence #deeplearning #machinelearning
🔗 A Closed-form Solution to Photorealistic Image Stylization
Photorealistic image stylization concerns transferring style of a reference photo to a content photo with the constraint that the stylized photo should remain photorealistic. While several photorealistic image stylization methods exist, they tend to generate spatially inconsistent stylizations with noticeable artifacts. In this paper, we propose a method to address these issues. The proposed method consists of a stylization step and a smoothing step. While the stylization step transfers the style of the reference photo to the content photo, the smoothing step ensures spatially consistent stylizations. Each of the steps has a closed-form solution and can be computed efficiently. We conduct extensive experimental validations. The results show that the proposed method generates photorealistic stylization outputs that are more preferred by human subjects as compared to those by the competing methods while running much faster. Source code and additional results are available at https://github.com/NVIDIA/FastPhotoS
arXiv.org
A Closed-form Solution to Photorealistic Image Stylization
Photorealistic image stylization concerns transferring style of a reference photo to a content photo with the constraint that the stylized photo should remain photorealistic. While several...
Как можно упростить и ускорить вычисление нейронной сети прямого распространения
Наш телеграм канал - https://tele.click/ai_machinelearning_big_data
Здравствуйте, уважаемые читатели. О нейронных сетях написано и сказано очень много, преимущественно о том, как и для чего их можно применить. При этом как-то не очень много внимания уделяется двум важным вопросам: а) как нейронную сеть упростить и быстро вычислить (одно вычисление экспоненты реализуется библиотечными функциями языков программирования, обычно, не менее чем за 15-20 процессорных инструкций), б) какова, хотя бы отчасти, логика работы построенной сети – в самом деле, получаемые после обучении сети огромные матрицы значений весов и смещений как-то не очень помогают понять закономерности, которые эта сеть нашла (они остаются скрытыми и задача их определить – задача вербализации – иногда очень важна). Я расскажу об одном своем подходе к решению этих вопросов для обычных нейронных сетей прямого распространения, при этом постараюсь обойтись минимумом математики.
https://habr.com/ru/post/442478/
🔗 Как можно упростить и ускорить вычисление нейронной сети прямого распространения
Здравствуйте, уважаемые читатели. О нейронных сетях написано и сказано очень много, преимущественно о том, как и для чего их можно применить. При этом как-то не...
Наш телеграм канал - https://tele.click/ai_machinelearning_big_data
Здравствуйте, уважаемые читатели. О нейронных сетях написано и сказано очень много, преимущественно о том, как и для чего их можно применить. При этом как-то не очень много внимания уделяется двум важным вопросам: а) как нейронную сеть упростить и быстро вычислить (одно вычисление экспоненты реализуется библиотечными функциями языков программирования, обычно, не менее чем за 15-20 процессорных инструкций), б) какова, хотя бы отчасти, логика работы построенной сети – в самом деле, получаемые после обучении сети огромные матрицы значений весов и смещений как-то не очень помогают понять закономерности, которые эта сеть нашла (они остаются скрытыми и задача их определить – задача вербализации – иногда очень важна). Я расскажу об одном своем подходе к решению этих вопросов для обычных нейронных сетей прямого распространения, при этом постараюсь обойтись минимумом математики.
https://habr.com/ru/post/442478/
🔗 Как можно упростить и ускорить вычисление нейронной сети прямого распространения
Здравствуйте, уважаемые читатели. О нейронных сетях написано и сказано очень много, преимущественно о том, как и для чего их можно применить. При этом как-то не...
Хабр
Как можно упростить и ускорить вычисление нейронной сети прямого распространения
Здравствуйте, уважаемые читатели. О нейронных сетях написано и сказано очень много, преимущественно о том, как и для чего их можно применить. При этом как-то не очень много внимания уделяется двум...
Дискретный анализ и теория вероятностей
Наш телеграм канал - https://tele.click/ai_machinelearning_big_data
1. Основы перечислительной комбинаторики
2. Обобщенная функция Мёбиуса и асимптотики
3. Деревья и унициклические графы
4. Разбиение чисел на слагаемые
5. Производящие функции и линейные рекуррентные соотношения
6. Хроматические числа графов и Кнезеровский граф
7. Классическое определение вероятности, схема Бернулли и их применение
8. Локальная лемма Ловаса. Начала теории вероятностей
9. Локальная лемма Ловаса. Теория вероятностей
10. Распределения случайных величин
🎥 001. Основы перечислительной комбинаторики - А.М.Райгородский
👁 3337 раз ⏳ 7928 сек.
🎥 002. Обобщенная функция Мёбиуса и асимптотики - А.М.Райгородский
👁 559 раз ⏳ 6618 сек.
🎥 003. Деревья и унициклические графы - А.М. Райгородский
👁 557 раз ⏳ 4719 сек.
🎥 004. Разбиение чисел на слагаемые - А.М.Райгородский
👁 413 раз ⏳ 4570 сек.
🎥 005. Производящие функции и линейные рекуррентные соотношения - А.М.Райгородский
👁 273 раз ⏳ 4702 сек.
🎥 006. Хроматические числа графов и Кнезеровский граф - А.М.Райгородский
👁 322 раз ⏳ 6128 сек.
🎥 007. Классическое определение вероятности, схема Бернулли и их применение - А.М.Райгородский
👁 331 раз ⏳ 4534 сек.
🎥 008. Локальная лемма Ловаса. Начала теории вероятностей - А.М.Райгородский
👁 295 раз ⏳ 5381 сек.
🎥 009. Локальная лемма Ловаса. Теория вероятностей - А.М.Райгородский
👁 292 раз ⏳ 4214 сек.
🎥 010. Распределения случайных величин - А.М.Райгородский
👁 94 раз ⏳ 6815 сек.
Наш телеграм канал - https://tele.click/ai_machinelearning_big_data
1. Основы перечислительной комбинаторики
2. Обобщенная функция Мёбиуса и асимптотики
3. Деревья и унициклические графы
4. Разбиение чисел на слагаемые
5. Производящие функции и линейные рекуррентные соотношения
6. Хроматические числа графов и Кнезеровский граф
7. Классическое определение вероятности, схема Бернулли и их применение
8. Локальная лемма Ловаса. Начала теории вероятностей
9. Локальная лемма Ловаса. Теория вероятностей
10. Распределения случайных величин
🎥 001. Основы перечислительной комбинаторики - А.М.Райгородский
👁 3337 раз ⏳ 7928 сек.
курс: "Дискретный анализ и теория вероятностей"
🎥 002. Обобщенная функция Мёбиуса и асимптотики - А.М.Райгородский
👁 559 раз ⏳ 6618 сек.
курс: "Дискретный анализ и теория вероятностей"
🎥 003. Деревья и унициклические графы - А.М. Райгородский
👁 557 раз ⏳ 4719 сек.
курс: "Дискретный анализ и теория вероятностей"
🎥 004. Разбиение чисел на слагаемые - А.М.Райгородский
👁 413 раз ⏳ 4570 сек.
курс: "Дискретный анализ и теория вероятностей"
🎥 005. Производящие функции и линейные рекуррентные соотношения - А.М.Райгородский
👁 273 раз ⏳ 4702 сек.
курс: "Дискретный анализ и теория вероятностей"
🎥 006. Хроматические числа графов и Кнезеровский граф - А.М.Райгородский
👁 322 раз ⏳ 6128 сек.
курс: "Дискретный анализ и теория вероятностей"
🎥 007. Классическое определение вероятности, схема Бернулли и их применение - А.М.Райгородский
👁 331 раз ⏳ 4534 сек.
курс: "Дискретный анализ и теория вероятностей"
🎥 008. Локальная лемма Ловаса. Начала теории вероятностей - А.М.Райгородский
👁 295 раз ⏳ 5381 сек.
курс: "Дискретный анализ и теория вероятностей"
🎥 009. Локальная лемма Ловаса. Теория вероятностей - А.М.Райгородский
👁 292 раз ⏳ 4214 сек.
курс: "Дискретный анализ и теория вероятностей"
🎥 010. Распределения случайных величин - А.М.Райгородский
👁 94 раз ⏳ 6815 сек.
курс: "Дискретный анализ и теория вероятностей"
Vk
001. Основы перечислительной комбинаторики - А.М.Райгородский
курс: "Дискретный анализ и теория вероятностей"