Такс такс такс што тут у нас да это же способ делать backprop без сохранения всех активаций в резнетах
https://github.com/renmengye/revnet-public
https://github.com/renmengye/revnet-public
GitHub
GitHub - renmengye/revnet-public: Code for "The Reversible Residual Network: Backpropagation Without Storing Activations"
Code for "The Reversible Residual Network: Backpropagation Without Storing Activations" - GitHub - renmengye/revnet-public: Code for "The Reversible Residual Network: Bac...
https://arxiv.org/pdf/1707.04585.pdf
The Reversible Residual Network: Backpropagation Without Storing Activations
Deep residual networks (ResNets) have significantly pushed forward the state-of-the-art on image classification, increasing in performance as networks grow both deeper and wider. However, memory consumption becomes a bottleneck, as one needs to store the activations in order to calculate gradients using backpropagation. We present the Reversible Residual Network (RevNet), a variant of ResNets where each layer's activations can be reconstructed exactly from the next layer's. Therefore, the activations for most layers need not be stored in memory during backpropagation. We demonstrate the effectiveness of RevNets on CIFAR-10, CIFAR-100, and ImageNet, establishing nearly identical classification accuracy to equally-sized ResNets, even though the activation storage requirements are independent of depth.
The Reversible Residual Network: Backpropagation Without Storing Activations
Deep residual networks (ResNets) have significantly pushed forward the state-of-the-art on image classification, increasing in performance as networks grow both deeper and wider. However, memory consumption becomes a bottleneck, as one needs to store the activations in order to calculate gradients using backpropagation. We present the Reversible Residual Network (RevNet), a variant of ResNets where each layer's activations can be reconstructed exactly from the next layer's. Therefore, the activations for most layers need not be stored in memory during backpropagation. We demonstrate the effectiveness of RevNets on CIFAR-10, CIFAR-100, and ImageNet, establishing nearly identical classification accuracy to equally-sized ResNets, even though the activation storage requirements are independent of depth.
Ушла эпоха — на смену Матрикснету в Яндексе пришел КотоБуст
https://yandex.ru/blog/company/catboost-novyy-metod-mashinnogo-obucheniya-ot-yandeksa
https://catboost.yandex/
https://yandex.ru/blog/company/catboost-novyy-metod-mashinnogo-obucheniya-ot-yandeksa
https://catboost.yandex/
Блог Яндекса
CatBoost — новый метод машинного обучения от Яндекса
Представляем метод машинного обучения CatBoost. Он умеет учитывать нечисловые данные — например, породы животных или типы облаков. Библиотека CatBoost доступна всем желающим.
Гугл выпустил библиотеку для визуализации данных - https://pair-code.github.io/facets/
https://machinelearning.apple.com/ Эпл запустила свой машин ленинг блог, возможно там будет также интересно как и у нас
Давно не выходило новых фреймворков. И вот опять https://habrahabr.ru/company/intel/blog/333612/
Можно загружать для inference модели из Caffe, TensorFlow и Torch.
Молимся, что сборка OpenCV не стала из-за этого еще сложнее.
Можно загружать для inference модели из Caffe, TensorFlow и Torch.
Молимся, что сборка OpenCV не стала из-за этого еще сложнее.
Хабр
Deep Learning, теперь и в OpenCV
Данная статья является кратким обзором возможностей dnn — модуля OpenCV, предназначенного для работы с нейросетями. Если вам интересно, что это такое, что оно...
Флешку-маркер мы уже видели.
Теперь есть флешка, которую можно использовать как ускоритель сверточных сетей для мобильных, портативных и прочих носимых и не очень устройств.
https://developer.movidius.com/getting-started
Movidius, которых купил Intel, предлагают за $79 свой Myriad 2 Visual Processing Unit (VPU) в формате USB 3.0 флешки.
Myriad Development Kit (MDK) поддерживает inference caffe моделей. Спецификация железки http://uploads.movidius.com/1441734401-Myriad-2-product-brief.pdf
Можно сделать спиннер https://tctechcrunch2011.files.wordpress.com/2017/07/quad_laptop_web.png?w=475&h=360
Теперь есть флешка, которую можно использовать как ускоритель сверточных сетей для мобильных, портативных и прочих носимых и не очень устройств.
https://developer.movidius.com/getting-started
Movidius, которых купил Intel, предлагают за $79 свой Myriad 2 Visual Processing Unit (VPU) в формате USB 3.0 флешки.
Myriad Development Kit (MDK) поддерживает inference caffe моделей. Спецификация железки http://uploads.movidius.com/1441734401-Myriad-2-product-brief.pdf
Можно сделать спиннер https://tctechcrunch2011.files.wordpress.com/2017/07/quad_laptop_web.png?w=475&h=360
Intel
Intel® Neural Compute Stick 2
Learn AI programming at the edge with the newest generation of this tiny, fanless deep learning device.
Многие мечтают увеличить свой датасет. Сегодня (вчера) Гугл даёт возможность сделать это.
https://research.googleblog.com/2017/07/an-update-to-open-images-now-with.html
В базу Open Images добавлены 1.2M + 830k bounding boxes для 600 классов, среди которых куча животных, бытовых предметов, музыкальных инструментов, одежды, еды и, конечно же, турник.
https://research.googleblog.com/2017/07/an-update-to-open-images-now-with.html
В базу Open Images добавлены 1.2M + 830k bounding boxes для 600 классов, среди которых куча животных, бытовых предметов, музыкальных инструментов, одежды, еды и, конечно же, турник.
Research Blog
An Update to Open Images - Now with Bounding-Boxes
Posted by Vittorio Ferrari, Research Scientist, Machine Perception Last year we introduced Open Images , a collaborative release of ~9 mil...
Можно ли научить красоте? Неужели наконец появилась кнопка "сделать красиво"?
https://m.geektimes.ru/post/291251/?utm_source=vk&utm_medium=social&utm_campaign=mashinu-uchat-krasote--ili-test-tyuringa-d
https://m.geektimes.ru/post/291251/?utm_source=vk&utm_medium=social&utm_campaign=mashinu-uchat-krasote--ili-test-tyuringa-d
m.geektimes.ru
Машину учат красоте, или тест Тьюринга для профессиональных фотографов
Программисты из Google задались целью привить машине художественный вкус и начали с эстетически правильной обработки фотографий. Особенность понятия красоты — в...
http://witted.ai/YCbqB.jpg/ А может ли машина придумывать смешные фотки к картинке - нет
witted.ai
AI-generated, unique jokes and quotes based on content of your photos
Не читал, но одобряю https://blog.slavv.com/37-reasons-why-your-neural-network-is-not-working-4020854bd607
Medium
37 Reasons why your Neural Network is not working
The network had been training for the last 12 hours. It all looked good: the gradients were flowing and the loss was decreasing. But then…
Очень интересный выпуск подкаста с Сергеем Левиным о том, как он пришел к работе с роботами, особенностях RL и его разновидностях, multitask learning и будущем машоба. https://twimlai.com/twiml-talk-037-sergey-levine-deep-robotic-learning/
The TWIML AI Podcast (formerly This Week in Machine Learning & Artificial Intelligence)
Deep Robotic Learning with Sergey Levine
This week we continue our Industrial AI series with Sergey Levine, an Assistant Professor at UC Berkeley whose research focus is Deep Robotic Learning. Sergey is part of the same research team as a couple of our previous guests in this series, Chelsea Finn…
Джва года ждал. Deepmind и Blizzard выпускают ML API для Starcraft II! https://deepmind.com/blog/deepmind-and-blizzard-open-starcraft-ii-ai-research-environment/
http://us.battle.net/sc2/en/blog/20944009
Это настолько круто, насколько вообще что-нибудь может быть круто, какое-то нереальное количество работы.
https://github.com/Blizzard/s2client-proto
https://github.com/deepmind/pysc2
Думаю, это последний шаг на пути к AI, который наконец-то нас захватит.
Масштаб и серьезность намерений показывает то, что Blizzard сделали headless client SCII для Linux.
http://us.battle.net/sc2/en/blog/20944009
Это настолько круто, насколько вообще что-нибудь может быть круто, какое-то нереальное количество работы.
https://github.com/Blizzard/s2client-proto
https://github.com/deepmind/pysc2
Думаю, это последний шаг на пути к AI, который наконец-то нас захватит.
Масштаб и серьезность намерений показывает то, что Blizzard сделали headless client SCII для Linux.
OpenAI сделали бота для доты 1х1 https://blog.openai.com/dota-2/
OpenAI
Dota 2
We've created a bot which beats the world's top professionals at 1v1 matches of Dota 2 under standard tournament rules. The bot learned the game from scratch by self-play, and does not use imitation learning or tree search. This is a step towards building…
Sony подвезла новый дл фреймворк с динамическими графами и гуем под винду https://github.com/sony/nnabla
GitHub
GitHub - sony/nnabla: Neural Network Libraries
Neural Network Libraries. Contribute to sony/nnabla development by creating an account on GitHub.
https://research.googleblog.com/2017/08/making-visible-watermarks-more-effective.html?m=1
На прошлой неделе Гугл опубликовал статью про алгоритм, позволяющий убирать ватермарки с изображений с фотохостингов.
Конечно же, ГАНами, подумал я. Но нет, никакого диплернинга, только оптимизация.
Для того, чтобы победить большинство полупрозрачных водяных знаков достаточно решить задачу разложения этого знака на "изображение" и "прозрачность". Оказывается, это легко делается для коллекции изображений, защищенных одинаковыми знаками.
Примеры тут: https://watermark-cvpr17.github.io/
Гугл также предлагает водяные знаки, устойчивые к этому алгоритму. Случайные смещения и изменения прозрачности от картинки к картинке не помогают, а вот с небольшими пространственными изменениями алгоритм уже не справляется.
На прошлой неделе Гугл опубликовал статью про алгоритм, позволяющий убирать ватермарки с изображений с фотохостингов.
Конечно же, ГАНами, подумал я. Но нет, никакого диплернинга, только оптимизация.
Для того, чтобы победить большинство полупрозрачных водяных знаков достаточно решить задачу разложения этого знака на "изображение" и "прозрачность". Оказывается, это легко делается для коллекции изображений, защищенных одинаковыми знаками.
Примеры тут: https://watermark-cvpr17.github.io/
Гугл также предлагает водяные знаки, устойчивые к этому алгоритму. Случайные смещения и изменения прозрачности от картинки к картинке не помогают, а вот с небольшими пространственными изменениями алгоритм уже не справляется.
Research Blog
Making Visible Watermarks More Effective
Posted by Tali Dekel and Michael Rubinstein, Research Scientists Whether you are a photographer, a marketing manager, or a regular Interne...
Simon Kozlov (sim0nsays), активный член сообщества OpenDataScience, записал разбор интересных статей с CVPR2017
https://www.youtube.com/watch?v=PV73qhNQnA0
https://www.youtube.com/watch?v=Mljfam5zNJo
https://www.youtube.com/watch?v=PV73qhNQnA0
https://www.youtube.com/watch?v=Mljfam5zNJo
YouTube
Отчет о CVPR 2017 Part 1
Слайды: https://paper.dropbox.com/doc/CVPR-2017-SJhd7kmnRKLfrk0JyrQwr Таймкод ниже в описании. Чатики для обсуждений: #data на http://closedcircles.com OpenD...
И еще из рубрики #спасибоОДС
Серёга из Ангарска (cepera_ang) очень сильно посоветовал посмотреть обзор современного состояния Object Detection https://www.youtube.com/watch?v=jHv37mKAhV4
Далее цитата https://opendatascience.slack.com/archives/C047H3N8L/p1503152010000003:
Шикарное видео, 90% того, что необходимо знать про object detection на текущий момент.
Сначала легенда мирового диплёнинга Kaiming He рассказывает в общем о сетях, традиционные архитектуры, про инициализацию на 15 мин., про резнет на 25, о разных применениях резнетов к распознаванию речи, текстам и т.д., на 30 минуте про resnext, который следующий шаг (основная мысль: как хитро посчитать несколько путей как в inception и в разы больше, но одной свёрткой), один слайдом другие архитектуры о которых стоит знать.
С 40-ой минуты рассказывает его коллега, легенда Ross Girshick, сначала о том какой фигней занимались всего 10 лет назад и какого прогресса достигли сейчас. Затем 25 минут рассказа об анатомии современных детекторных сетей:
1) про базу для извлечения фичей (и как в них шёл прогресс),
2) про инвариантность к масштабу (все пришли к одному практически — пирамиды фичей, тонкости как добиться пользы от них),
3) Region Proposal'ы
4) 58:40 Главная фишка Mask R-CNN ROIalign (наконец-то человеческими словами что это и почему важно!)
5) Специфические головы под задачу: детекция, классификация, сегментация, и неожиданно, предсказание позы людей (human keypoint prediction) просто для проверки того, что можно что угодно пихать, как я понял.
На этом про Маск RCNN заканчивается и начинается очень интересная обзорная часть, ландшафт с высоты птичьего полёта (1:12)
1) Что общего у методов, что отличается
2) One shot vs Multi-stage
3) Trade off между тяжестью базового фиче экстрактора и головой, которая делает классификацию (от R-CNN через Fast/Faster R-CNN к R-FCN)
4) Speed/Accuracy tradeoff. Ссылка на очень интересную статью от гугла, где они 150 сетей сравнивали по скорости/качеству
5) Куда дальше шагаем
https://www.youtube.com/watch?v=jHv37mKAhV4
Серёга из Ангарска (cepera_ang) очень сильно посоветовал посмотреть обзор современного состояния Object Detection https://www.youtube.com/watch?v=jHv37mKAhV4
Далее цитата https://opendatascience.slack.com/archives/C047H3N8L/p1503152010000003:
Шикарное видео, 90% того, что необходимо знать про object detection на текущий момент.
Сначала легенда мирового диплёнинга Kaiming He рассказывает в общем о сетях, традиционные архитектуры, про инициализацию на 15 мин., про резнет на 25, о разных применениях резнетов к распознаванию речи, текстам и т.д., на 30 минуте про resnext, который следующий шаг (основная мысль: как хитро посчитать несколько путей как в inception и в разы больше, но одной свёрткой), один слайдом другие архитектуры о которых стоит знать.
С 40-ой минуты рассказывает его коллега, легенда Ross Girshick, сначала о том какой фигней занимались всего 10 лет назад и какого прогресса достигли сейчас. Затем 25 минут рассказа об анатомии современных детекторных сетей:
1) про базу для извлечения фичей (и как в них шёл прогресс),
2) про инвариантность к масштабу (все пришли к одному практически — пирамиды фичей, тонкости как добиться пользы от них),
3) Region Proposal'ы
4) 58:40 Главная фишка Mask R-CNN ROIalign (наконец-то человеческими словами что это и почему важно!)
5) Специфические головы под задачу: детекция, классификация, сегментация, и неожиданно, предсказание позы людей (human keypoint prediction) просто для проверки того, что можно что угодно пихать, как я понял.
На этом про Маск RCNN заканчивается и начинается очень интересная обзорная часть, ландшафт с высоты птичьего полёта (1:12)
1) Что общего у методов, что отличается
2) One shot vs Multi-stage
3) Trade off между тяжестью базового фиче экстрактора и головой, которая делает классификацию (от R-CNN через Fast/Faster R-CNN к R-FCN)
4) Speed/Accuracy tradeoff. Ссылка на очень интересную статью от гугла, где они 150 сетей сравнивали по скорости/качеству
5) Куда дальше шагаем
https://www.youtube.com/watch?v=jHv37mKAhV4
YouTube
Tutorial: Deep Learning for Objects and Scenes - Part 1
Learning Deep Representations for Visual
Recognition, Kaiming He (Facebook AI Research)
Deep Learning for Object Detection, Ross Girshick
(Facebook AI Research)
Description: Deep learning is becoming the driving force
for the visual recognition models in…
Recognition, Kaiming He (Facebook AI Research)
Deep Learning for Object Detection, Ross Girshick
(Facebook AI Research)
Description: Deep learning is becoming the driving force
for the visual recognition models in…
Устали от обычной сходимости? Нейронные сети обучаются слишком медленно?
Вам поможет
С В Е Р Х С Х О Д И М О С Т Ь
Авторы показали, что на определенных датасетах с правильно подобранными гиперпараметрами резнетоподобные сети с помощью циклического изменения очень большого (до 3) learning rate обучаются в десятки раз быстрее, да еще и с более высокой точностью.
Вам поможет
С В Е Р Х С Х О Д И М О С Т Ь
Авторы показали, что на определенных датасетах с правильно подобранными гиперпараметрами резнетоподобные сети с помощью циклического изменения очень большого (до 3) learning rate обучаются в десятки раз быстрее, да еще и с более высокой точностью.