Тут ребята применили обратный РЛ, чтобы узнать мотивации червей (не дождевых червей, а Caenorhabditis elegans). Ну то есть как обычно: награда -> стратегия, а тут посчитали что стратегия у этих червей и так оптимальная, поэтому интересно посмотреть что там за награды #reinforcementlearning
You are able to tell which nonsense word is Pokémon character and which is the latest craze in #bigdata technology? You just might qualify as #bigdata expert. Much success! https://docs.google.com/forms/d/e/1FAIpQLScRsfRHXPTuEXdNvUcI8DzJIU5iazqlpksWucPF0d8l2ztkkA/viewform
Google Docs
Is it Pokémon or #bigdata technology?
You is able to tell which nonsense word is Pokémon character and which is the latest craze in #bigdata technology? You just might qualify as #bigdata expert. Much success!
подоспел свежий фреймворк для #reinforcementlearning от фейсбука, типа очень гибкий и быстрый, позволяет запускать среды пачками и проч. https://github.com/facebookresearch/ELF
GitHub
GitHub - facebookresearch/ELF: An End-To-End, Lightweight and Flexible Platform for Game Research
An End-To-End, Lightweight and Flexible Platform for Game Research - facebookresearch/ELF
Forwarded from Brodetskyi. Tech, VC, Startups (A B)
Стартап Mighty AI помогает производителям беспилотных машин разрабатывать системы компьютерного зрения. Чтобы научить машину правильно видеть дорогу и окружающие объекты, разработчикам нужны большие массивы размеченных данных, то есть кадров с дороги, на которых всё размечено и подписано - машины, разметка, дорожные знаки, пешеходы, грузовики, здания, небо. Для этого у Mighty AI есть армия добровольцев. 200 тысяч пользователей приложения Mighty AI получают в нем задания в игровой форме - обвести на фото людей, машины, деревья и прочие объекты, всего 60 типов объектов. Задания небольшие, по десять минут. За их выполнение пользователи получают баллы, новые уровни и прочую геймификацию. Есть и денежные награды, но чисто символические - одна из пользовательниц рассказывает, что за год заработала в приложении всего $300. Фактически, это полубесплатный краудсорсинг, этакий халявный Mechanical Turk (платформа, где люди делают подобную неавтоматизируемую работу за небольшие деньги). Гениальная модель - люди практически бесплатно создают для компании продукт, который она потом продаёт автопроизводителям за немалые деньги. Вот она, новая цифровая экономика!
https://vimeo.com/207960864
https://www.wired.com/story/mighty-ai-training-self-driving-cars/
Что видят беспилотные машины и с какими проблемами сталкиваются их разработчики: https://yangx.top/brodetsky/664
Как Uber с помощью психологических трюков заставляет водителей работать себе в ущерб: https://yangx.top/brodetsky/764
https://vimeo.com/207960864
https://www.wired.com/story/mighty-ai-training-self-driving-cars/
Что видят беспилотные машины и с какими проблемами сталкиваются их разработчики: https://yangx.top/brodetsky/664
Как Uber с помощью психологических трюков заставляет водителей работать себе в ущерб: https://yangx.top/brodetsky/764
Vimeo
Mighty AI: Training Data for Autonomous Driving
This is "Mighty AI: Training Data for Autonomous Driving" by Mighty AI on Vimeo, the home for high quality videos and the people who love them.
namara.io - платформа агрегирующая открытые данные, предоставленные, в основном, правительственными организациями США. Приятный интерфейс, мощный API.
http://hyperparameter.space/blog/when-not-to-use-deep-learning/ - Статья про случаи, когда не стоит применять deep learning
hyperparameter.space
When not to use deep learning
I know it’s a weird way to start a blog with a negative, but there was a wave of discussion in the last few days that I think serves as a good hook for some topics on which I’ve been thinking recently. It all started with a post in the Simply Stats blog by…
то, что вы так долго ждали (нет), альфа кераса с mxnet backend https://github.com/dmlc/keras/releases/tag/alpha
GitHub
dmlc/keras
keras - Deep Learning library for Python. Convnets, recurrent neural networks, and more. Runs on MXNet, Theano or TensorFlow.
Нейросеть проанализировала 14 часов выступлений Барака Обамы и создала модель его мимики и движений головы. Теперь компьютерный Барак Обама любой текст произносит как свой и выглядит при этом довольно натурально.
И несмотря на то, что разработка чисто научная и служит демонстрацией современных технологий, видится, что это открывает огромное поле для видеофальсификаций - когда тебе показывают то, что человек на самом деле не говорил.
Становится немного не по себе от того, что скоро уже нельзя будет верить собственным глазам
http://tehnot.com/nejroset-sozdala-poddelnogo-obamu/
И несмотря на то, что разработка чисто научная и служит демонстрацией современных технологий, видится, что это открывает огромное поле для видеофальсификаций - когда тебе показывают то, что человек на самом деле не говорил.
Становится немного не по себе от того, что скоро уже нельзя будет верить собственным глазам
http://tehnot.com/nejroset-sozdala-poddelnogo-obamu/
Tehnot.com
Нейросеть создала поддельного Обаму
Учёные и эксперты бьют тревогу – программы 3D-графики вкупе с нейросетями достигли такого качества, что могут легко подделать видео, которое будет почти неотличимо от реального. Это позволит показывать на экране компьютерную симуляцию, которую невозможно…
Такс такс такс што тут у нас да это же способ делать backprop без сохранения всех активаций в резнетах
https://github.com/renmengye/revnet-public
https://github.com/renmengye/revnet-public
GitHub
GitHub - renmengye/revnet-public: Code for "The Reversible Residual Network: Backpropagation Without Storing Activations"
Code for "The Reversible Residual Network: Backpropagation Without Storing Activations" - GitHub - renmengye/revnet-public: Code for "The Reversible Residual Network: Bac...
https://arxiv.org/pdf/1707.04585.pdf
The Reversible Residual Network: Backpropagation Without Storing Activations
Deep residual networks (ResNets) have significantly pushed forward the state-of-the-art on image classification, increasing in performance as networks grow both deeper and wider. However, memory consumption becomes a bottleneck, as one needs to store the activations in order to calculate gradients using backpropagation. We present the Reversible Residual Network (RevNet), a variant of ResNets where each layer's activations can be reconstructed exactly from the next layer's. Therefore, the activations for most layers need not be stored in memory during backpropagation. We demonstrate the effectiveness of RevNets on CIFAR-10, CIFAR-100, and ImageNet, establishing nearly identical classification accuracy to equally-sized ResNets, even though the activation storage requirements are independent of depth.
The Reversible Residual Network: Backpropagation Without Storing Activations
Deep residual networks (ResNets) have significantly pushed forward the state-of-the-art on image classification, increasing in performance as networks grow both deeper and wider. However, memory consumption becomes a bottleneck, as one needs to store the activations in order to calculate gradients using backpropagation. We present the Reversible Residual Network (RevNet), a variant of ResNets where each layer's activations can be reconstructed exactly from the next layer's. Therefore, the activations for most layers need not be stored in memory during backpropagation. We demonstrate the effectiveness of RevNets on CIFAR-10, CIFAR-100, and ImageNet, establishing nearly identical classification accuracy to equally-sized ResNets, even though the activation storage requirements are independent of depth.
Ушла эпоха — на смену Матрикснету в Яндексе пришел КотоБуст
https://yandex.ru/blog/company/catboost-novyy-metod-mashinnogo-obucheniya-ot-yandeksa
https://catboost.yandex/
https://yandex.ru/blog/company/catboost-novyy-metod-mashinnogo-obucheniya-ot-yandeksa
https://catboost.yandex/
Блог Яндекса
CatBoost — новый метод машинного обучения от Яндекса
Представляем метод машинного обучения CatBoost. Он умеет учитывать нечисловые данные — например, породы животных или типы облаков. Библиотека CatBoost доступна всем желающим.