Forwarded from Brodetskyi. Tech, VC, Startups (A B)
Стартап Mighty AI помогает производителям беспилотных машин разрабатывать системы компьютерного зрения. Чтобы научить машину правильно видеть дорогу и окружающие объекты, разработчикам нужны большие массивы размеченных данных, то есть кадров с дороги, на которых всё размечено и подписано - машины, разметка, дорожные знаки, пешеходы, грузовики, здания, небо. Для этого у Mighty AI есть армия добровольцев. 200 тысяч пользователей приложения Mighty AI получают в нем задания в игровой форме - обвести на фото людей, машины, деревья и прочие объекты, всего 60 типов объектов. Задания небольшие, по десять минут. За их выполнение пользователи получают баллы, новые уровни и прочую геймификацию. Есть и денежные награды, но чисто символические - одна из пользовательниц рассказывает, что за год заработала в приложении всего $300. Фактически, это полубесплатный краудсорсинг, этакий халявный Mechanical Turk (платформа, где люди делают подобную неавтоматизируемую работу за небольшие деньги). Гениальная модель - люди практически бесплатно создают для компании продукт, который она потом продаёт автопроизводителям за немалые деньги. Вот она, новая цифровая экономика!
https://vimeo.com/207960864
https://www.wired.com/story/mighty-ai-training-self-driving-cars/
Что видят беспилотные машины и с какими проблемами сталкиваются их разработчики: https://yangx.top/brodetsky/664
Как Uber с помощью психологических трюков заставляет водителей работать себе в ущерб: https://yangx.top/brodetsky/764
https://vimeo.com/207960864
https://www.wired.com/story/mighty-ai-training-self-driving-cars/
Что видят беспилотные машины и с какими проблемами сталкиваются их разработчики: https://yangx.top/brodetsky/664
Как Uber с помощью психологических трюков заставляет водителей работать себе в ущерб: https://yangx.top/brodetsky/764
Vimeo
Mighty AI: Training Data for Autonomous Driving
This is "Mighty AI: Training Data for Autonomous Driving" by Mighty AI on Vimeo, the home for high quality videos and the people who love them.
namara.io - платформа агрегирующая открытые данные, предоставленные, в основном, правительственными организациями США. Приятный интерфейс, мощный API.
http://hyperparameter.space/blog/when-not-to-use-deep-learning/ - Статья про случаи, когда не стоит применять deep learning
hyperparameter.space
When not to use deep learning
I know it’s a weird way to start a blog with a negative, but there was a wave of discussion in the last few days that I think serves as a good hook for some topics on which I’ve been thinking recently. It all started with a post in the Simply Stats blog by…
то, что вы так долго ждали (нет), альфа кераса с mxnet backend https://github.com/dmlc/keras/releases/tag/alpha
GitHub
dmlc/keras
keras - Deep Learning library for Python. Convnets, recurrent neural networks, and more. Runs on MXNet, Theano or TensorFlow.
Нейросеть проанализировала 14 часов выступлений Барака Обамы и создала модель его мимики и движений головы. Теперь компьютерный Барак Обама любой текст произносит как свой и выглядит при этом довольно натурально.
И несмотря на то, что разработка чисто научная и служит демонстрацией современных технологий, видится, что это открывает огромное поле для видеофальсификаций - когда тебе показывают то, что человек на самом деле не говорил.
Становится немного не по себе от того, что скоро уже нельзя будет верить собственным глазам
http://tehnot.com/nejroset-sozdala-poddelnogo-obamu/
И несмотря на то, что разработка чисто научная и служит демонстрацией современных технологий, видится, что это открывает огромное поле для видеофальсификаций - когда тебе показывают то, что человек на самом деле не говорил.
Становится немного не по себе от того, что скоро уже нельзя будет верить собственным глазам
http://tehnot.com/nejroset-sozdala-poddelnogo-obamu/
Tehnot.com
Нейросеть создала поддельного Обаму
Учёные и эксперты бьют тревогу – программы 3D-графики вкупе с нейросетями достигли такого качества, что могут легко подделать видео, которое будет почти неотличимо от реального. Это позволит показывать на экране компьютерную симуляцию, которую невозможно…
Такс такс такс што тут у нас да это же способ делать backprop без сохранения всех активаций в резнетах
https://github.com/renmengye/revnet-public
https://github.com/renmengye/revnet-public
GitHub
GitHub - renmengye/revnet-public: Code for "The Reversible Residual Network: Backpropagation Without Storing Activations"
Code for "The Reversible Residual Network: Backpropagation Without Storing Activations" - GitHub - renmengye/revnet-public: Code for "The Reversible Residual Network: Bac...
https://arxiv.org/pdf/1707.04585.pdf
The Reversible Residual Network: Backpropagation Without Storing Activations
Deep residual networks (ResNets) have significantly pushed forward the state-of-the-art on image classification, increasing in performance as networks grow both deeper and wider. However, memory consumption becomes a bottleneck, as one needs to store the activations in order to calculate gradients using backpropagation. We present the Reversible Residual Network (RevNet), a variant of ResNets where each layer's activations can be reconstructed exactly from the next layer's. Therefore, the activations for most layers need not be stored in memory during backpropagation. We demonstrate the effectiveness of RevNets on CIFAR-10, CIFAR-100, and ImageNet, establishing nearly identical classification accuracy to equally-sized ResNets, even though the activation storage requirements are independent of depth.
The Reversible Residual Network: Backpropagation Without Storing Activations
Deep residual networks (ResNets) have significantly pushed forward the state-of-the-art on image classification, increasing in performance as networks grow both deeper and wider. However, memory consumption becomes a bottleneck, as one needs to store the activations in order to calculate gradients using backpropagation. We present the Reversible Residual Network (RevNet), a variant of ResNets where each layer's activations can be reconstructed exactly from the next layer's. Therefore, the activations for most layers need not be stored in memory during backpropagation. We demonstrate the effectiveness of RevNets on CIFAR-10, CIFAR-100, and ImageNet, establishing nearly identical classification accuracy to equally-sized ResNets, even though the activation storage requirements are independent of depth.
Ушла эпоха — на смену Матрикснету в Яндексе пришел КотоБуст
https://yandex.ru/blog/company/catboost-novyy-metod-mashinnogo-obucheniya-ot-yandeksa
https://catboost.yandex/
https://yandex.ru/blog/company/catboost-novyy-metod-mashinnogo-obucheniya-ot-yandeksa
https://catboost.yandex/
Блог Яндекса
CatBoost — новый метод машинного обучения от Яндекса
Представляем метод машинного обучения CatBoost. Он умеет учитывать нечисловые данные — например, породы животных или типы облаков. Библиотека CatBoost доступна всем желающим.
Гугл выпустил библиотеку для визуализации данных - https://pair-code.github.io/facets/
https://machinelearning.apple.com/ Эпл запустила свой машин ленинг блог, возможно там будет также интересно как и у нас
Давно не выходило новых фреймворков. И вот опять https://habrahabr.ru/company/intel/blog/333612/
Можно загружать для inference модели из Caffe, TensorFlow и Torch.
Молимся, что сборка OpenCV не стала из-за этого еще сложнее.
Можно загружать для inference модели из Caffe, TensorFlow и Torch.
Молимся, что сборка OpenCV не стала из-за этого еще сложнее.
Хабр
Deep Learning, теперь и в OpenCV
Данная статья является кратким обзором возможностей dnn — модуля OpenCV, предназначенного для работы с нейросетями. Если вам интересно, что это такое, что оно...
Флешку-маркер мы уже видели.
Теперь есть флешка, которую можно использовать как ускоритель сверточных сетей для мобильных, портативных и прочих носимых и не очень устройств.
https://developer.movidius.com/getting-started
Movidius, которых купил Intel, предлагают за $79 свой Myriad 2 Visual Processing Unit (VPU) в формате USB 3.0 флешки.
Myriad Development Kit (MDK) поддерживает inference caffe моделей. Спецификация железки http://uploads.movidius.com/1441734401-Myriad-2-product-brief.pdf
Можно сделать спиннер https://tctechcrunch2011.files.wordpress.com/2017/07/quad_laptop_web.png?w=475&h=360
Теперь есть флешка, которую можно использовать как ускоритель сверточных сетей для мобильных, портативных и прочих носимых и не очень устройств.
https://developer.movidius.com/getting-started
Movidius, которых купил Intel, предлагают за $79 свой Myriad 2 Visual Processing Unit (VPU) в формате USB 3.0 флешки.
Myriad Development Kit (MDK) поддерживает inference caffe моделей. Спецификация железки http://uploads.movidius.com/1441734401-Myriad-2-product-brief.pdf
Можно сделать спиннер https://tctechcrunch2011.files.wordpress.com/2017/07/quad_laptop_web.png?w=475&h=360
Intel
Intel® Neural Compute Stick 2
Learn AI programming at the edge with the newest generation of this tiny, fanless deep learning device.
Многие мечтают увеличить свой датасет. Сегодня (вчера) Гугл даёт возможность сделать это.
https://research.googleblog.com/2017/07/an-update-to-open-images-now-with.html
В базу Open Images добавлены 1.2M + 830k bounding boxes для 600 классов, среди которых куча животных, бытовых предметов, музыкальных инструментов, одежды, еды и, конечно же, турник.
https://research.googleblog.com/2017/07/an-update-to-open-images-now-with.html
В базу Open Images добавлены 1.2M + 830k bounding boxes для 600 классов, среди которых куча животных, бытовых предметов, музыкальных инструментов, одежды, еды и, конечно же, турник.
Research Blog
An Update to Open Images - Now with Bounding-Boxes
Posted by Vittorio Ferrari, Research Scientist, Machine Perception Last year we introduced Open Images , a collaborative release of ~9 mil...