Neural Networks | Нейронные сети
11.7K subscribers
763 photos
169 videos
170 files
9.42K links
Все о машинном обучении

По всем вопросам - @notxxx1

№ 4959169263
加入频道
​Theorizing from Data by Peter Norvig (Video Lecture)

https://catonmat.net/theorizing-from-data-by-peter-norvig-video-lecture

🔗 Theorizing from Data by Peter Norvig (Video Lecture)
Here is a video lecture by Google's Director of Research - Peter Norvig. The full title of this lecture is "Theorizing from Data: Avoiding the Capital Mistake". In 1891 Sir Arthur Conan Doyle said that "it is a capital mistake to theorize before one has data." These words still remain true today. In this talk Peter...
🎥 Machine Learning and Data Science in Clojure: Presented by Aria Haghighi
👁 1 раз 3785 сек.
Amperity's VP of Data Science, Aria Haghighi (https://github.com/aria42) shows his toolset for data science in Clojure. Many in the business use Python, but he'll show you how he makes this happen in our favorite functional toolset while comparing the two universes.
​Поделюсь рассказом о небольшом проекте: как найти в комментариях ответы автора, заведомо не зная кто автор поста.

Наш телеграм канал - https://tele.click/ai_machinelearning_big_data

Свой проект я начинал с минимальными знаниями по машинному обучению и думаю для специалистов тут не будет ничего нового. Этот материал в некотором смысле компиляция разных статей, в нем расскажу, как подходил к задаче, в коде можно найти полезные мелочи и приемы с обработкой естественного языка.

https://habr.com/ru/post/441850/

🔗 Гадание на нейросетях: отметился ли в комментариях к посту сам автор
Поделюсь рассказом о небольшом проекте: как найти в комментариях ответы автора, заведомо не зная кто автор поста. Свой проект я начинал с минимальными знаниям...
​Что у нас тут? 🤔 Да это же бесплатный курс по машинному обучению в IT-компании! IRL!

Дорогие студенты,

Мы планируем провести в #Екатеринбурге курс-практикум по машинному обучению для целей классификации интернет-ресурсов и анализа вредоносной активности в интернете. Расскажем, покажем и научим тому, что умеем и делаем сами, причем совершенно бесплатно!

Курс, который мы планируем провести в апреле-мае, будет состоять из теоретической части и большого количества практики на реальных данных. Ориентировочная длительность курса 6-8 недель, занятия будут проходить 2 раза в неделю.

Но прежде, чем проводить мероприятие, хотели бы собрать предварительный отклик и выбрать наиболее удобные для всех сроки и время проведения курса.

Занятия будут проходить в очной форме, у нас в офисе (Кулибина 2), в 20 минутах пешком от ГУКа УрФУ на Мира.

Тех, кто успешно пройдет курс, мы пригласим к нам на стажировку.

Интересно? Тогда ответь на анкету:

https://docs.google.com/forms/d/e/1FAIpQLSeZxgY8lPhlUGWI6zAhup3ySmGgAt2TYHqgXr-CdlQsnZk7AQ/viewform

PS: Подробности опубликуем ближе к концу марта 😉

🔗 Опрос студентов по курсу-практикуму по машинному обучению
Дорогие студенты, Мы, в СкайДНС, планируем провести в Екатеринбурге курс-практикум по машинному обучению для целей классификации интернет-ресурсов и анализа вредоносной активности в интернете. Собственно расскажем, покажем и научим тому, что умеем и делаем сами, и причем совершенно бесплатно. Курс, который мы планируем провести в апреле — мае, будет состоять из теоретической части и много-много практики на реальных данных. Ориентировочная длительность курса 6-8 недель, занятия будут проходить 2 раза в неделю. Но прежде чем проводить курс, хотели бы собрать интерес к нему и лучше выбрать сроки проведения курса и понять какое время удобнее студентам. Курс будет проходить в очной форме, у нас в офисе на Кулибина, в 20 минутах пешком от главного корпуса УрФУ. Тех кто успешно пройдет курс, мы планируем пригласить к нам на стажировку. В общем, если возник интерес, то прошу ответить на следующую анкету:
​Watson Studio Desktop is now free for academia – IBM Watson – Medium

🔗 Watson Studio Desktop is now free for academia – IBM Watson – Medium
Machine Learning, Data Science, and Predictive Analytics techniques are in strong demand. That’s why since its launch, IBM Watson Studio…
Myths About Data Science | Uncovering Data Science Myths | Data Science Training

Наш телеграм канал - https://tele.click/ai_machinelearning_big_data
https://www.youtube.com/watch?v=caGPIlBEsXE

🎥 10 Myths About Data Science | Uncovering Data Science Myths | Data Science Training | Edureka
👁 1 раз 1366 сек.
** Data Scientist Master Program: https://www.edureka.co/masters-program/data-scientist-certification **
This Edureka live session on “10 Data Science Myths" attempts to take down some of the misconceptions about Data Science and gives a much clearer picture of what data science really is.

Check out our Data Science Tutorial blog series: http://bit.ly/data-science-blogs

Check out our complete Youtube playlist here: http://bit.ly/data-science-playlist

-------------------------------------

Do subscribe to
🎥 Upgrade your existing code for TensorFlow 2.0 (Coding TensorFlow)
👁 1 раз 197 сек.
TensorFlow 2.0 is here! With the Keras integration, and Eager Execution enabled by default, 2.0 is all about ease of use, and simplicity. We want to provide both new and experienced developers the tools & APIs needed to build and deploy their machine learning models with speed and precision.

In this episode of Coding TensorFlow, Developer Advocate Paige Bailey (Twitter: @dynamicwebpaige) shows us the tf_upgrade_v2 tool, which helps with the 2.0 transition by converting existing TensorFlow 1.12 Python scrip
Deep learning на пальцах 2 - Элементы машинного обучения
https://www.youtube.com/watch?v=1BUuB28FDOc

🎥 Deep learning на пальцах 2 - Элементы машинного обучения
👁 1 раз 3957 сек.
Курс: http://dlcourse.ai
Слайды: https://www.dropbox.com/s/h1r9iju8i1c1gyp/Lecture%202%20-%20Machine%20Learning%20-%20annotated.pptx?dl=0
Лекции каждую неделю в среду 8:40 утра по Мск, 12:40 по Нск.
9:40 вечера вторника по PST.


🎥 Deep learning на пальцах 2 - Элементы машинного обучения
👁 1 раз 3957 сек.
Курс: http://dlcourse.ai
Слайды: https://www.dropbox.com/s/h1r9iju8i1c1gyp/Lecture%202%20-%20Machine%20Learning%20-%20annotated.pptx?dl=0
Лекции каждую неделю в среду 8:40 утра по Мск, 12:40 по Нск.
9:40 вечера вторника по PST.
​Сервим всё

Наш телеграм канал - https://tele.click/ai_machinelearning_big_data
Не так чтобы очень давно, в довольно недалекой галактике, на одной провинциальной планетке жили известные потомки обезьян, которые настолько обленились, что решили изобрести искусственный интеллект. «Ну а что?» — подумали они. Хорошо же иметь в советчиках Сверхразум «надмозг», который будет думать за тебя, когда надо, проблемы твои оперативненько решать, да еще и лучше чем это когда-либо сможет сделать живое существо… И, не долго думая о последствиях, начали они свои обезьяньи мозги реверсить и когнитивный процесс на строительные кирпичики разбирать. Думали они, думали и придумали, не поверите — модель нейрона, математический алгоритм обучения, а затем и нейронные сети с разной топологией подтянулись. Конечно, работало это не сказать чтобы очень хорошо. Была масса недостатков, по сравнению с естественным интеллектом, но определенный круг задач данные модели позволяли решать с приемлемой точностью. И начали потихонечку появляться оцифрованные и сериализованные навыки в виде моделей сетей нейронных. Сегодня, дорогие любители истории вселенной, мы коснемся темы организации и внедрения различных навыков интеллекта искусственного.

https://habr.com/ru/post/440908/

🔗 Сервим всё
Не так чтобы очень давно, в довольно недалекой галактике, на одной провинциальной планетке жили известные потомки обезьян, которые настолько обленились, что реши...
Нейронные сети
Наш телеграм канал - https://tele.click/ai_machinelearning_big_data

01 - Нейронные сети. Основы линейной алгебры
02 - Нейронные сети. Перцептрон и градиентный спуск
03 - Нейронные сети. Алгоритм обратного распространения ошибки
04 - Нейронные сети. Мониторинг состояния сети
05 - Нейронные сети. Заключение

🎥 01 - Нейронные сети. Основы линейной алгебры
👁 4867 раз 5559 сек.
Лектор: Арсений Москвичев

1. Введение
2. Ликбез по линейной алгебре: векторы
3. Ликбез по линейной алгебре: матрицы
4. Линейная алгебра в деле

ht...


🎥 02 - Нейронные сети. Перцептрон и градиентный спуск
👁 1088 раз 7739 сек.
Лектор: Арсений Москвичев

1. Нейроны: настоящие и искусственные
2. Перцептрон
3. Перцептрон: обучение
4. Больше искусственных нейронов!
5. Градиен...


🎥 03 - Нейронные сети. Алгоритм обратного распространения ошибки
👁 672 раз 5437 сек.
Лектор: Арсений Москвичев

1. Многослойный перцептрон
2. Алгоритм обратного распространения ошибки
3. Алгоритм обратного распространения ошибки: пр...


🎥 04 - Нейронные сети. Мониторинг состояния сети
👁 558 раз 2796 сек.
Лектор: Арсений Москвичев

1. Мониторинг состояния сети
2. Визуализация

https://stepik.org/s/JRYrVjqo


🎥 05 - Нейронные сети. Заключение
👁 488 раз 299 сек.
Лектор: Арсений Москвичев

https://stepik.org/s/JRYrVjqo
​Preserving Memory in Stationary Time Series
How Fractional Differencing preserves information in time series while satisfying the condition of stationarity for Predictive Modelling

Наш телеграм канал - https://tele.click/ai_machinelearning_big_data

https://towardsdatascience.com/preserving-memory-in-stationary-time-series-6842f7581800?source=collection_home---4------0---------------------

🔗 Preserving Memory in Stationary Time Series – Towards Data Science
How Fractional Differencing preserves information in time series while satisfying the condition of stationarity for Predictive Modelling