Что выведет код с картинки выше?
Anonymous Quiz
47%
['PYTHON', 'JAVA']
50%
['Python', 'Java']
2%
[None, None]
2%
['Python', 'Java', 'PYTHON', 'JAVA']
Что такое стекинг в машинном обучении?
Anonymous Quiz
39%
Использование выхода одной модели в качестве входа для другой модели
9%
Обучение нескольких версий одного и того же алгоритма
51%
Комбинирование нескольких (можно разных) моделей для получения лучшего результата
Между кодирующей и декодирующей частями автокодировщика (autoencoder) находится…
Anonymous Quiz
26%
полносвязный слой
48%
«бутылочное горлышко»
26%
свёрточный слой
Что выведет код с картинки выше?
Anonymous Quiz
2%
50
67%
30
10%
20
21%
Вызовет исключение IndexError
Что выведет код с картинки выше?
Anonymous Quiz
39%
torch.int64
23%
torch.float32
17%
torch.uint8
21%
torch.float64
✍️ Разбираем сложные задачи прошедшей недели
1️⃣ Автокодировщик (англ. autoencoder) — это специальная архитектура нейронных сетей, основная идея которой научиться сжимать входные данные в компактное представление и затем восстанавливать эти данные обратно к их исходному виду или как можно ближе к нему.
Автокодировщик состоит из двух частей: энкодера и декодера. Энкодер переводит входной сигнал в его представление, а декодер восстанавливает сигнал по этому представлению. При этом в центре нейронной сети создаётся узкий слой — бутылочное горлышко. Количество нейронов в нём должно быть на порядок меньше, чем у входа. Так мы заставляем нейросеть находить в объекте самую важную информацию и передавать через бутылочное горлышко только её.
2️⃣ В этой задаче сначала мы создаём numpy-массив, состоящий только из элементов-единиц. Автоматически используется тип данных numpy.float64 (если не указать иное). torch.from_numpy в свою очередь автоматически наследует тип данных массива numpy.
#разбор_задач
1️⃣ Автокодировщик (англ. autoencoder) — это специальная архитектура нейронных сетей, основная идея которой научиться сжимать входные данные в компактное представление и затем восстанавливать эти данные обратно к их исходному виду или как можно ближе к нему.
Автокодировщик состоит из двух частей: энкодера и декодера. Энкодер переводит входной сигнал в его представление, а декодер восстанавливает сигнал по этому представлению. При этом в центре нейронной сети создаётся узкий слой — бутылочное горлышко. Количество нейронов в нём должно быть на порядок меньше, чем у входа. Так мы заставляем нейросеть находить в объекте самую важную информацию и передавать через бутылочное горлышко только её.
2️⃣ В этой задаче сначала мы создаём numpy-массив, состоящий только из элементов-единиц. Автоматически используется тип данных numpy.float64 (если не указать иное). torch.from_numpy в свою очередь автоматически наследует тип данных массива numpy.
#разбор_задач
🤖 Напоминаем, что у нас есть еженедельная email-рассылка, посвященная последним новостям и тенденциям в мире искусственного интеллекта.
В ней:
● Новости о прорывных исследованиях в области машинного обучения и нейросетей
● Материалы о применении ИИ в разных сферах
● Статьи об этических аспектах развития технологий
● Подборки лучших онлайн-курсов и лекций по машинному обучению
● Обзоры инструментов и библиотек для разработки нейронных сетей
● Ссылки на репозитории с открытым исходным кодом ИИ-проектов
● Фильмы, сериалы и книги
👉Подписаться👈
В ней:
● Новости о прорывных исследованиях в области машинного обучения и нейросетей
● Материалы о применении ИИ в разных сферах
● Статьи об этических аспектах развития технологий
● Подборки лучших онлайн-курсов и лекций по машинному обучению
● Обзоры инструментов и библиотек для разработки нейронных сетей
● Ссылки на репозитории с открытым исходным кодом ИИ-проектов
● Фильмы, сериалы и книги
👉Подписаться👈
Выше дана нейросеть с известными значениями весов. Все функции активации — это Relu. Чему равен выход нейросети, если х=2?
Anonymous Quiz
13%
15
15%
16
39%
4
33%
14
Какой алгоритм оптимизации известен своей способностью выходить из локальных минимумов с помощью момента и адаптивных скоростей обучения?
Anonymous Quiz
26%
Стохастический градиентный спуск (SGD)
49%
Adam
12%
RMSprop
13%
Adagrad
Каков результат выполнения кода с картинки выше?
Anonymous Quiz
21%
[3 7 5]
7%
[1 5 9]
15%
[4 6 8]
57%
Ошибка выполнения
✍️ Разбираем задачи прошедшей недели
1️⃣ По умолчанию для новых тензоров в PyTorch параметр requires_grad установлен в False. Он указывает, нужно ли вычислять градиенты для тензора во время операций обратного распространения ошибки. Чтобы добиться этого, следует явно установить requires_grad=True при создании тензора.
2️⃣ Для классической линейной регрессии действует предположение о том, что дисперсия ошибок модели остаётся постоянной на протяжении всех значений независимых переменных. Гетероскедастичность — это нарушение данного предположения. То есть наличие гетероскедастичности можно заподозрить, если отклонения наблюдений от линии выборочной регрессии (остатки) достаточно сильно различаются.
3️⃣ Здесь нужно считать так:
- Первое умножение весов и прибавление смещений: 2*1 + 1 и 2*2 — 5 —> 3 и -1.
- Первое применение Relu: relu(3) = 3 и relu(-1) = 0.
- Второе умножение весов и прибавление смещений: 3*-2 + 0*4 = —6. —6 + 10 = 4.
- Второе применение Relu: relu(4) = 4.
4️⃣ Название Adam можно расшифровать как ADAptive Momentum. Этот метод объединяет две идеи: использование момента и адаптивных скоростей обучения. Вместо того чтобы адаптировать скорость обучения параметров на основе среднего первого момента, как в RMSProp, Adam также использует среднее значение вторых моментов градиентов.
5️⃣ Хорошее объяснение для этой задачи было дано в комментариях.
#разбор_задач
1️⃣ По умолчанию для новых тензоров в PyTorch параметр requires_grad установлен в False. Он указывает, нужно ли вычислять градиенты для тензора во время операций обратного распространения ошибки. Чтобы добиться этого, следует явно установить requires_grad=True при создании тензора.
2️⃣ Для классической линейной регрессии действует предположение о том, что дисперсия ошибок модели остаётся постоянной на протяжении всех значений независимых переменных. Гетероскедастичность — это нарушение данного предположения. То есть наличие гетероскедастичности можно заподозрить, если отклонения наблюдений от линии выборочной регрессии (остатки) достаточно сильно различаются.
3️⃣ Здесь нужно считать так:
- Первое умножение весов и прибавление смещений: 2*1 + 1 и 2*2 — 5 —> 3 и -1.
- Первое применение Relu: relu(3) = 3 и relu(-1) = 0.
- Второе умножение весов и прибавление смещений: 3*-2 + 0*4 = —6. —6 + 10 = 4.
- Второе применение Relu: relu(4) = 4.
4️⃣ Название Adam можно расшифровать как ADAptive Momentum. Этот метод объединяет две идеи: использование момента и адаптивных скоростей обучения. Вместо того чтобы адаптировать скорость обучения параметров на основе среднего первого момента, как в RMSProp, Adam также использует среднее значение вторых моментов градиентов.
5️⃣ Хорошее объяснение для этой задачи было дано в комментариях.
#разбор_задач