Привет!
Регистрация в самом разгаре, а пока пришло время рассказать про первую лекцию курса. Пожалуйста, если вы собираетесь на лекцию, отметьте это здесь: https://forms.gle/eKp6JzcT4T8t775SA.
Мы хотим быть уверены, что в аудитории хватит места.
Лекцию прочитает Михаил Бурцев — руководитель проекта iPavlov, заведующий лабораторией нейронных систем и глубокого обучения МФТИ, кандидат физико-математических наук.
На лекции вы узнаете про место нейронных сетей в современном мире. Лаборатория Михаила является передовой в области искусственного интеллекта и регулярно публикуется на конференциях самого высокого уровня. Один из проектов лаборатории — iPavlov — продвигает open-source библиотеку для разработки диалоговых агентов, чтобы каждый желающий мог сделать собственную Алису, или добавить в существующую новые навыки. Мы надеемся, что кто-то из Вас решит после прохождения нашего курса, попробовать побороться с ИИ в лаборатории у Михаила.
Кроме того, мы проведем небольшую сессию вопросов и ответов с Михаилом, на которой вы узнаете, как далеко осталось искусственному интеллекту до завоевания мира.
❗️А сразу после лекции состоится небольшое организационное собрание, связанное с началом курса.
🗓 20 сентября
⌚️ 18:30
🏛 Центре исследований и разработки компании 1С, Дмитровское шоссе, 9
Важные ссылки
Все актуальные новости мы прежде всего размещаем в группе ВК: https://vk.com/dlschool_mipt
Практически все занятия, которые Вы будете проходить, есть на нашем YouTube-канале
Курс полностью выложен и описан в официальном Github-репозитории: https://github.com/DLSchool/deep_learning_2018-19
Чат базового потока: https://yangx.top/dls_fall2019_basic
Чат продвинутого потока: https://yangx.top/dls_fall2019_advanced
С уважением,
Команда Deep Learning School
Регистрация в самом разгаре, а пока пришло время рассказать про первую лекцию курса. Пожалуйста, если вы собираетесь на лекцию, отметьте это здесь: https://forms.gle/eKp6JzcT4T8t775SA.
Мы хотим быть уверены, что в аудитории хватит места.
Лекцию прочитает Михаил Бурцев — руководитель проекта iPavlov, заведующий лабораторией нейронных систем и глубокого обучения МФТИ, кандидат физико-математических наук.
На лекции вы узнаете про место нейронных сетей в современном мире. Лаборатория Михаила является передовой в области искусственного интеллекта и регулярно публикуется на конференциях самого высокого уровня. Один из проектов лаборатории — iPavlov — продвигает open-source библиотеку для разработки диалоговых агентов, чтобы каждый желающий мог сделать собственную Алису, или добавить в существующую новые навыки. Мы надеемся, что кто-то из Вас решит после прохождения нашего курса, попробовать побороться с ИИ в лаборатории у Михаила.
Кроме того, мы проведем небольшую сессию вопросов и ответов с Михаилом, на которой вы узнаете, как далеко осталось искусственному интеллекту до завоевания мира.
❗️А сразу после лекции состоится небольшое организационное собрание, связанное с началом курса.
🗓 20 сентября
⌚️ 18:30
🏛 Центре исследований и разработки компании 1С, Дмитровское шоссе, 9
Важные ссылки
Все актуальные новости мы прежде всего размещаем в группе ВК: https://vk.com/dlschool_mipt
Практически все занятия, которые Вы будете проходить, есть на нашем YouTube-канале
Курс полностью выложен и описан в официальном Github-репозитории: https://github.com/DLSchool/deep_learning_2018-19
Чат базового потока: https://yangx.top/dls_fall2019_basic
Чат продвинутого потока: https://yangx.top/dls_fall2019_advanced
С уважением,
Команда Deep Learning School
Google Docs
Первая лекция
Пройдите, пожалуйста, опрос, если вы собираетесь прийти на первую лекцию.
Forwarded from DL in NLP (nlpcontroller_bot)
Забавное соревнование по NLP - вам нужно научить модельку решать ЕГЭ. И iPavlov в лице @alexeysorokin89 собирает команду на участие в нём (если желающих будет много, то даже несколько команд). По всем вопросам обращаться к @alexeysorokin89
contest.ai-journey.ru/ru/competition
contest.ai-journey.ru/ru/competition
Forwarded from Жалкие низкочастотники
Неделю назад Richard Socher (один из соавторов GloVe, кстати) из Salesforce объявил о публикации крупнейшей на данный момент известной языковой модели CTRL c 1.6B параметров (против 1.5B у OpenGPT-2 и 774M у OpenAI GPT-2, про которые я уже писал). Научной новизны в предлагаемой модели никакой, кажется, нет, и, в общем-то, это продолжение гонки вооружений было бы совсем скучным, но есть несколько интересных моментов:
1. Это, кажется, первая из таких публичных монстро-моделей, обученная с явным обусловливанием (conditioning).
2. Помимо стилей/жанров/сабреддитов они неплохо придумали использовать в conditioning значение URL страницы-источника (при генерации -- необязательно настоящей). Например, ссылка в духе
3. Они придумали развернуть расчёт conditioning для решения обратной задачи атрибуции источника: считают для заданного текста perplexity при различных conditioning параметрах, определяют, в каких условиях такой текст наиболее вероятен. Выглядит забавно.
Немного полезных ссылок: код и модель, статья, блогопост, инструкция по разворачиванию на Google Compute Engine (для бесплатного колаба модель слишком большая), тред с разными смешными примерами.
1. Это, кажется, первая из таких публичных монстро-моделей, обученная с явным обусловливанием (conditioning).
2. Помимо стилей/жанров/сабреддитов они неплохо придумали использовать в conditioning значение URL страницы-источника (при генерации -- необязательно настоящей). Например, ссылка в духе
https://www.cnn.com/2018/09/20/us-president-meets-british-pm
позволяет сетке настроиться на стиль сайта CNN, на указанную тему и на конкретную дату (что позволяет ей правильно решить, кто в данный момент был президентом и премьером).3. Они придумали развернуть расчёт conditioning для решения обратной задачи атрибуции источника: считают для заданного текста perplexity при различных conditioning параметрах, определяют, в каких условиях такой текст наиболее вероятен. Выглядит забавно.
Немного полезных ссылок: код и модель, статья, блогопост, инструкция по разворачиванию на Google Compute Engine (для бесплатного колаба модель слишком большая), тред с разными смешными примерами.
PASS CMU DEEP LEARNING COURSE TOGETHER
https://dlcmu.datagym.ru/
https://dlcmu.datagym.ru/
Книга о том, как сгенерировать данные для машинного обучения с помощью параметрической модели, созданной с помощью Houdini и Unity, и оценить параметры этой модели с помощью keras + tenorflow
https://techbookfest.org/event/tbf07/circle/5912756913963008
https://techbookfest.org/event/tbf07/circle/5912756913963008
技術書典:技術書オンリーイベント
技術書典7:Orange Jellies 詳細
機械学習のためのデータ生成をHoudiniとUnityを利用して作ったパラメトリックモデルで行い、keras+tensorflowを使ってそのモデルのパラメーター推定を行う方法の解説本
Procedural Cities with Houdini and Python
This Houdini course covers a feature film approach to procedural city generation. It takes you from start to finish, building your knowledge of Python from the ground up, from elementary to advanced examples, and many other techniques along the way.
https://www.pluralsight.com/courses/houdini-python-procedural-cities#
This Houdini course covers a feature film approach to procedural city generation. It takes you from start to finish, building your knowledge of Python from the ground up, from elementary to advanced examples, and many other techniques along the way.
https://www.pluralsight.com/courses/houdini-python-procedural-cities#
Pluralsight
Procedural Cities with Houdini and Python
This course, Procedural Cities with Houdini and Python, will teach you how to do procedural city generation in houdini and python software. Start Building Today!
В OpenAI нейросети научились играть в прятки
OpenAI провела исследование о возможностях глубокого обучения искусственного интеллекта. Нейросети не только научились играть в прятки по заданному разработчиками сценарию, но и самосовершенствовались в ходе игры, осваивая все новые и новые методы поиска и умения скрываться.
OpenAI опубликовала данные исследования о возможностях глубокого обучения искусственного интеллекта. Играя в простую игру прятки, нейросети постепенно осваивали все новые и новые действия, которые помогали им развивать их умение скрываться от противника и более быстро и эффективно искать.
Изначально существовало две команды противников (синие и красные человечки). Начиналось исследование с хаотичного бега двух команд, которые «прятались» и «находились» буквально случайным образом. С каждой новой игрой каждая команда набиралась опыта и начинала усложнять процесс игры.
Всего было проведено 481 млн игр, за время которых искусственный интеллект самостоятельно научился использовать дополнительные объекты на поле игры — например, закрывать «коробками» проемы помещения, где они прячутся; использовать эти же коробки для того, чтобы преодолеть высокое заграждение и заглянуть за него в поисках противника; или двигать рампу в нужное место, чтобы перепрыгнуть препятствие.
Источник: OpenAI
https://www.youtube.com/watch?v=kopoLzvh5jY
OpenAI провела исследование о возможностях глубокого обучения искусственного интеллекта. Нейросети не только научились играть в прятки по заданному разработчиками сценарию, но и самосовершенствовались в ходе игры, осваивая все новые и новые методы поиска и умения скрываться.
OpenAI опубликовала данные исследования о возможностях глубокого обучения искусственного интеллекта. Играя в простую игру прятки, нейросети постепенно осваивали все новые и новые действия, которые помогали им развивать их умение скрываться от противника и более быстро и эффективно искать.
Изначально существовало две команды противников (синие и красные человечки). Начиналось исследование с хаотичного бега двух команд, которые «прятались» и «находились» буквально случайным образом. С каждой новой игрой каждая команда набиралась опыта и начинала усложнять процесс игры.
Всего было проведено 481 млн игр, за время которых искусственный интеллект самостоятельно научился использовать дополнительные объекты на поле игры — например, закрывать «коробками» проемы помещения, где они прячутся; использовать эти же коробки для того, чтобы преодолеть высокое заграждение и заглянуть за него в поисках противника; или двигать рампу в нужное место, чтобы перепрыгнуть препятствие.
Источник: OpenAI
https://www.youtube.com/watch?v=kopoLzvh5jY
YouTube
Multi-Agent Hide and Seek
We’ve observed agents discovering progressively more complex tool use while playing a simple game of hide-and-seek. Through training in our new simulated hide-and-seek environment, agents build a series of six distinct strategies and counterstrategies, some…