Neural Networks | Нейронные сети
11.8K subscribers
763 photos
169 videos
170 files
9.42K links
Все о машинном обучении

По всем вопросам - @notxxx1

№ 4959169263
加入频道
​Книга «Прагматичный ИИ. Машинное обучение и облачные технологии»

Как программисты, так и просто неравнодушные технари найдут тут для себя полезную информацию. Примеры кода даны на Python. Здесь рассматривается множество столь продвинутых тем, как использование облачных платформ (например, AWS, GCP и Azure), а также приемы машинного обучения и реализация ИИ. Джедаи, свободно ориентирующиеся в Python, облачных вычислениях и ML, также найдут для себя много полезных идей, которые смогут сразу применить в своей текущей работе.

Предлагаем ознакомиться с отрывком из книги «Создание интеллектуального бота Slack в AWS»
https://habr.com/ru/company/piter/blog/439990/

🔗 Книга «Прагматичный ИИ. Машинное обучение и облачные технологии»
Привет, Хаброжители! Эта книга Ноя Гифта предназначена для всех, кого интересуют ИИ, машинное обучение, облачные вычисления, а также любое сочетание данных тем.
​Пример простой нейросети на С/C++

#Искусственныйинтеллект,
#Машинноеобучение

Решил поделиться простым и ёмким на мой взгляд решением нейронной сети на С++.

Почему эта информация должна быть интересна?

Ответ: я старался в минимальном наборе запрограммировать работу многослойного перцептрона, да так, чтобы его можно было настраивать как душе угодно всего в нескольких строчках кода, а реализация основных алгоритмов работы на «С» позволит с лёгкостью переносить на «С» ориентированные языки(в прочем и на любые другие) без использования сторонних библиотек!

Прошу взглянуть на то, что из этого вышло

Про предназначение нейронных сетей я вам рассказывать не буду, надеюсь вас не забанили в google и вы сможете найти интересующую вас информацию(назначение, возможности, области применения и так далее).

Исходный код вы найдёте в конце статьи, а пока по порядку.

Начнём разбор

1) Архитектура и технические подробности

— многослойный перцептрон с возможностью конфигурации любого количества слоев с заданной шириной. Ниже представлен

пример конфигурации
Обратите внимание, что установка ширины входа и выхода для каждого слоя выполняется по определённому правилу — вход текущего слоя = выходу предыдущего. Исключением является входной слой.

Таким образом, вы имеете возможность настраивать любую конфигурацию вручную или по заданному правилу перед компиляцией или после компиляции считывать данные из source файлов.

https://habr.com/ru/post/440162/

🔗 Пример простой нейросети на С/C++
Всем привет. Решил поделиться простым и ёмким на мой взгляд решением нейронной сети на С++. Почему эта информация должна быть интересна? Ответ: я старался в...
​Как отличить хороший ремонт от плохого, или как мы в SRG сделали из Томита-парсера многопоточную Java-библиотеку

Машинное обучение
В этой статье речь пойдет о том, как мы интегрировали разработанный Яндексом Томита-парсер в нашу систему, превратили его в динамическую библиотеку, подружили с Java, сделали многопоточной и решили с её помощью задачу классификации текста для оценки недвижимости.

🔗 Как отличить хороший ремонт от плохого, или как мы в SRG сделали из Томита-парсера многопоточную Jav
В этой статье речь пойдет о том, как мы интегрировали разработанный Яндексом Томита-парсер в нашу систему, превратили его в динамическую библиотеку, подружили с...
​Kaggle Days 2019 in Paris

Kaggle Days are the first global offline events series for Data Scientists and Kagglers. Such a great event provides an opportunity to both create and build the data science community. First-ever event called Kaggle Days in Warsaw succeeded in 2018. Over 100 participants learned from Kaggle Grandmasters in lively presentations and workshops. For many, the highlight was the first-ever Kaggle offline competition, a daylong challenge right on-site.

https://towardsdatascience.com/kaggle-days-2019-in-paris-8e2844c86198?source=collection_home---4------1---------------------

🔗 Kaggle Days 2019 in Paris – Towards Data Science
Kaggle Days are the first global offline events series for Data Scientists and Kagglers. Such a great event provides an opportunity to…
Feature Maps: емкий и понятный подход к представлению программного обеспечения

https://www.youtube.com/watch?v=U5j9namMSFc

🎥 Feature Maps: емкий и понятный подход к представлению программного обеспечения
👁 1 раз 3674 сек.
Шаблоны проектирования -- очень распространенный инструмент, используемый в разработке программного обеспечения. Они помогают решать часто встречающиеся задачи хорошо зарекомендовавшим себя образом. На семинаре мы рассмотрим статью, авторы которой предлагают новый способ представления программного кода под названием Feature Maps. Этот подход может быть применен для обнаружения используемых в коде шаблонов проектирования, а также является гибким и понятным представлением программного кода. Авторы статьи обуч
Получение картинок высокого качества с помощью GAN

https://www.youtube.com/watch?v=IfgggUKxsEo

🎥 Получение картинок высокого качества с помощью GAN
👁 1 раз 1967 сек.
На семинаре мы обсудим недавнюю статью "Large Scale GAN Training for High Fidelity Natural Image Synthesis", авторы которой совершили довольно серьезный прорыв в области генерации изображений с помощью генеративных сетей GAN. Авторы вводят так называемый "truncation trick", который позволяет сдвигать модель или в сторону качества или в сторону разнообразия получившихся изображений за счет ограничения латентного пространства. В итоге по метрикам Inception и Frechet Inception удалось более чем в два раза улуч
Перенос знаний между решениями различных видов задач в policy gradient методах
https://www.youtube.com/watch?v=vvqPU5Vew48

🎥 Перенос знаний между решениями различных видов задач в policy gradient методах
👁 1 раз 1389 сек.
Возможность к обобщению - одна из важных задач в машинном обучении. В обучении с подкреплением она часто встречается в виде задаче об обучении многозадачного агента, который должен не только научиться решать несколько различных задач, но и уметь переносить свой опыт на другие задачи.

На семинаре мы поговорим об одном из подходов к переиспользованию знаний агента, а так же разберем одну из первых статей, в которой предлагается и теоретически обосновывается способ переноса знаний между средами, имеющими разл
​BERT is a method of pre-training language representations, meaning that we train a general-purpose "language understanding" model on a large text corpus (like Wikipedia), and then use that model for downstream NLP tasks that we care about (like question answering). BERT outperforms previous methods because it is the first unsupervised, deeply bidirectional system for pre-training NLP.

Unsupervised means that BERT was trained using only a plain text corpus, which is important because an enormous amount of plain text data is publicly available on the web in many languages.

https://github.com/google-research/bert

🔗 google-research/bert
TensorFlow code and pre-trained models for BERT. Contribute to google-research/bert development by creating an account on GitHub.
​Fresh topic about language modeling from OpenAI, that you should read.
https://blog.openai.com/better-language-models

🔗 Better Language Models and Their Implications
We’ve trained a large-scale unsupervised language model which generates coherent paragraphs of text, achieves state-of-the-art performance on many language modeling benchmarks, and performs rudimentary reading comprehension, machine translation, question answering, and summarization — all without task-specific training. View codeRead paperRead more Our model, called GPT-2 (a successor to GPT), was
​Алгоритм мышления и сознания

В этой статье изложен алгоритм мышления и сознания. Я предлагаю свой ответ на вопрос о том как работает мышление и сознание. И демонстрирую алгоритм, который умеет по-настоящему, творчески, думать и обладает настоящим сознанием. Статья рассчитана на программистов и состоит из двух основных частей. Первая часть сугубо техническая, она содержит описание алгоритма, перечень его свойств и пример практического применения. Вторая часть содержит поясняющие тезисы и решение вопроса конструктивной аксиоматизации сознания. Алгоритм это содержательный текст который говорит сам за себя, а потому комментариев будет лишь практически необходимый минимум.
https://habr.com/ru/post/440424/

🔗 Алгоритм мышления и сознания
В этой статье изложен алгоритм мышления и сознания. Я предлагаю свой ответ на вопрос о том как работает мышление и сознание. И демонстрирую алгоритм, который уме...