🧑💻 Статьи для IT: как объяснять и распространять значимые идеи
Напоминаем, что у нас есть бесплатный курс для всех, кто хочет научиться интересно писать — о программировании и в целом.
Что: семь модулей, посвященных написанию, редактированию, иллюстрированию и распространению публикаций.
Для кого: для авторов, копирайтеров и просто программистов, которые хотят научиться интересно рассказывать о своих проектах.
👉Материалы регулярно дополняются, обновляются и корректируются. А еще мы отвечаем на все учебные вопросы в комментариях курса.
Напоминаем, что у нас есть бесплатный курс для всех, кто хочет научиться интересно писать — о программировании и в целом.
Что: семь модулей, посвященных написанию, редактированию, иллюстрированию и распространению публикаций.
Для кого: для авторов, копирайтеров и просто программистов, которые хотят научиться интересно рассказывать о своих проектах.
👉Материалы регулярно дополняются, обновляются и корректируются. А еще мы отвечаем на все учебные вопросы в комментариях курса.
Хардкорный курс по математике для тех, кто правда любит математику!
Начать с вводных занятий можно здесь, ответив всего на 4 вопроса – https://proglib.io/w/7a0a51af
Что вас ждет:
– Вводный урок от CPO курса
– Лекции с преподавателями ВМК МГУ по темам: теория множеств, непрерывность функции, основные формулы комбинаторики, матрицы и операции над ними, градиентный спуск
– Практические задания для закрепления материала и ссылки на дополнительные материалы.
⚡️ Переходите и начинайте учиться уже сегодня – https://proglib.io/w/7a0a51af
Начать с вводных занятий можно здесь, ответив всего на 4 вопроса – https://proglib.io/w/7a0a51af
Что вас ждет:
– Вводный урок от CPO курса
– Лекции с преподавателями ВМК МГУ по темам: теория множеств, непрерывность функции, основные формулы комбинаторики, матрицы и операции над ними, градиентный спуск
– Практические задания для закрепления материала и ссылки на дополнительные материалы.
Please open Telegram to view this post
VIEW IN TELEGRAM
Чем стохастический градиентный спуск отличается (SGD) от мини-пакетного (mini-batch)?
Anonymous Quiz
49%
SGD обрабатывает по одному образцу за раз, а mini-batch — по пакету образцов
38%
SGD обновляет параметры модели после каждой эпохи, а mini-batch — после каждого пакета
10%
Ничем не отличается, это два названия одного и того же
3%
SGD подходит для нейросетей, а mini-batch — нет
Каков вывод этого кода?
Anonymous Quiz
19%
Ошибка
14%
[6 7 1 2 3 4 5]
15%
[1 6 7 3 4 5]
52%
[1 6 7 2 3 4 5]
Какой статистический тест используется, чтобы определить наличие значимой связи между двумя категориальными переменными?
Anonymous Quiz
23%
t-тест
39%
хи-квадрат
22%
ANOVA
16%
регрессионный анализ
✍️ Разбор задач
Сегодня разберёмся, чем стохастический градиентный спуск (SGD) отличается от мини-пакетного (mini-batch).
Оба — оптимизационные алгоритмы, которые являются вариациями классического градиентного спуска. Для начала вспомним, как он работает.
У нас есть вектор признаков и вектор весов w. Допустим, мы выбрали какую-нибудь функцию потерь. Нам необходимо минимизировать её. Выберем для весов какое-то начальное приближение и вычислим результат на основе этого. По функции потерь посчитаем градиент, то есть вектор частных производных функции потерь по каждому из весов. Именно он поможет нам скорректировать веса w в нужно направлении. Иными словами, мы будем вычитать из вектора весов градиент, домноженный на какой-то шаг обучения.
🔹 В стохастическом градиентном спуске градиент функции считается на каждом шаге не как сумма градиентов от каждого элемента выборки, а как градиент от одного, случайно выбранного элемента.
🔹 В мини-пакетном градиентном спуске (mini-batch) градиент функции считается на каждом шаге как градиент от небольшой, случайно выбранной партии элементов (мини-пакета).
#разбор_задач
Сегодня разберёмся, чем стохастический градиентный спуск (SGD) отличается от мини-пакетного (mini-batch).
Оба — оптимизационные алгоритмы, которые являются вариациями классического градиентного спуска. Для начала вспомним, как он работает.
У нас есть вектор признаков и вектор весов w. Допустим, мы выбрали какую-нибудь функцию потерь. Нам необходимо минимизировать её. Выберем для весов какое-то начальное приближение и вычислим результат на основе этого. По функции потерь посчитаем градиент, то есть вектор частных производных функции потерь по каждому из весов. Именно он поможет нам скорректировать веса w в нужно направлении. Иными словами, мы будем вычитать из вектора весов градиент, домноженный на какой-то шаг обучения.
🔹 В стохастическом градиентном спуске градиент функции считается на каждом шаге не как сумма градиентов от каждого элемента выборки, а как градиент от одного, случайно выбранного элемента.
🔹 В мини-пакетном градиентном спуске (mini-batch) градиент функции считается на каждом шаге как градиент от небольшой, случайно выбранной партии элементов (мини-пакета).
#разбор_задач
🤖 Напоминаем, что у нас есть еженедельная email-рассылка, посвященная последним новостям и тенденциям в мире искусственного интеллекта.
В ней:
● Новости о прорывных исследованиях в области машинного обучения и нейросетей
● Материалы о применении ИИ в разных сферах
● Статьи об этических аспектах развития технологий
● Подборки лучших онлайн-курсов и лекций по машинному обучению
● Обзоры инструментов и библиотек для разработки нейронных сетей
● Ссылки на репозитории с открытым исходным кодом ИИ-проектов
● Фильмы, сериалы и книги
👉Подписаться👈
В ней:
● Новости о прорывных исследованиях в области машинного обучения и нейросетей
● Материалы о применении ИИ в разных сферах
● Статьи об этических аспектах развития технологий
● Подборки лучших онлайн-курсов и лекций по машинному обучению
● Обзоры инструментов и библиотек для разработки нейронных сетей
● Ссылки на репозитории с открытым исходным кодом ИИ-проектов
● Фильмы, сериалы и книги
👉Подписаться👈
Что выведет код с картинки выше?
Anonymous Quiz
14%
Ошибка
60%
[[0, 1], [0], [0]]
10%
[[1], [0], [0]]
2%
[[0, 1], [0]]
14%
[[0, 1], [0, 1], [0, 1]]
Какой оператор используется в SQL для того, чтобы проверить, что значение входит в определённый диапазон?
Anonymous Quiz
33%
IN
64%
BETWEEN
2%
LIKE
1%
IS NULL
Что изображено на графике выше?
Anonymous Quiz
9%
Переобучение
9%
Недообучение
53%
Гетероскедастичность
28%
Гомоскедастичность
👾 Дуэт для старта в Data Science
Когда все казалось потерянным и надежда на карьеру в DS и аналитики исчезала. Он часами изучал возможности, но так и не находил выхода.
Но появилась она, с предложением, которое изменит всё…
...до 30 июня курс по математике за полцены и курс по Machine Learning в подарок
🛍 14 990 ₽ (вместо 29 990 ₽)🛍
Что ждёт вас на курсе:
⭐️ Полугодовая программа от преподавателей ВМК МГУ
⭐️ 47 видеолекций и 150 практических заданий
⭐️ Бессрочный доступ ко всем материалам курса
⭐️ Развернутая обратная связь по всем домашним заданиям и ссылки на полезные дополнительные материалы
🫶 Воспользуйтесь шансом, чтобы начать свой путь в Data Science – https://proglib.io/w/1c1158d4
Когда все казалось потерянным и надежда на карьеру в DS и аналитики исчезала. Он часами изучал возможности, но так и не находил выхода.
Но появилась она, с предложением, которое изменит всё…
...до 30 июня курс по математике за полцены и курс по Machine Learning в подарок
Что ждёт вас на курсе:
🫶 Воспользуйтесь шансом, чтобы начать свой путь в Data Science – https://proglib.io/w/1c1158d4
Please open Telegram to view this post
VIEW IN TELEGRAM