Forwarded from Proglib.academy | IT-курсы
Очень кратко пересказываем историю одного специалиста, который устроился в Data Science после работы в авиационной промышленности. В карточках — его путь и одна из рекомендаций, а в статье по ссылке — большая подборка полезных ресурсов!
А чтобы следовать совету и окружить себя подходящим информационным фоном, изучайте другие классные статьи про Data Science:
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
✍️ Воскресный разбор задач
Сегодня рассмотрим одну задачу по свёртке.
При свёртке у нас есть ядро (kernel) — небольшая матрица весов. Это ядро «скользит» по входным данным, выполняя поэлементное умножение для той части данных, которую сейчас покрывает. Результаты перемножений ячеек суммируются в одном выходном пикселе.
В этой задаче хоть и не было прямо указано, но предполагалось, что размер выходного изображения (матрицы) должен остаться таким же, что и размер входного изображения. Для этого исходную матрицу можно дополнить «поддельными» пикселями вокруг. Тогда:
🟡 Ядро размещается поверх изображения так, чтобы его центр находился над текущим пикселем.
🟡 Элементы ядра умножаются на соответствующие элементы изображения под ними.
🟡 Результаты умножения суммируются, формируя новое значение для текущего пикселя.
Процесс повторяется для каждого пикселя изображения. Ядро последовательно «скользит» по всему изображению. Если используется ядро, которое в основном состоит из нулей с единицей по центру, как [[0, 0, 0], [0, 1, 0], [0, 0, 0]], каждый пиксель остаётся неизменным, поскольку только центральный пиксель умножается на 1, а все окружающие на 0. Это оставляет изображение без изменений после свёртки.
Мы можем проверить все ядра на изображении с помощью функции Filter2D() из OpenCV:
#разбор_задач
Сегодня рассмотрим одну задачу по свёртке.
При свёртке у нас есть ядро (kernel) — небольшая матрица весов. Это ядро «скользит» по входным данным, выполняя поэлементное умножение для той части данных, которую сейчас покрывает. Результаты перемножений ячеек суммируются в одном выходном пикселе.
В этой задаче хоть и не было прямо указано, но предполагалось, что размер выходного изображения (матрицы) должен остаться таким же, что и размер входного изображения. Для этого исходную матрицу можно дополнить «поддельными» пикселями вокруг. Тогда:
Процесс повторяется для каждого пикселя изображения. Ядро последовательно «скользит» по всему изображению. Если используется ядро, которое в основном состоит из нулей с единицей по центру, как [[0, 0, 0], [0, 1, 0], [0, 0, 0]], каждый пиксель остаётся неизменным, поскольку только центральный пиксель умножается на 1, а все окружающие на 0. Это оставляет изображение без изменений после свёртки.
Мы можем проверить все ядра на изображении с помощью функции Filter2D() из OpenCV:
from google.colab.patches import cv2_imshow
import cv2
import numpy as np
image = cv2.imread("dog.jpeg")
kernels = {
"1 kernel": np.array([[0, 0, 0], [0, 1, 0], [0, 0, 0]]),
"2 kernel": np.array([[1, 1, 1], [1, 1, 1], [1, 1, 1]]),
"3 kernel": np.array([[1, 1, 1], [1, 0, 1], [1, 1, 1]]),
"4 kernel": np.array([[1, 0, 0], [1, 0, 0], [1, 1, 1]])
}
for kernel in kernels.values():
convolved_image = cv2.filter2D(image, -1, kernel)
cv2_imshow(image)
cv2_imshow(convolved_image)
#разбор_задач
Please open Telegram to view this post
VIEW IN TELEGRAM
В новой статье рассказываем, какие разделы математики нужно знать для разработки современных генеративных моделей.
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Библиотека нейросетей | ChatGPT, Midjourney, DeepSeek, Sora
Please open Telegram to view this post
VIEW IN TELEGRAM
🧑💻 Статьи для IT: как объяснять и распространять значимые идеи
Напоминаем, что у нас есть бесплатный курс для всех, кто хочет научиться интересно писать — о программировании и в целом.
Что: семь модулей, посвященных написанию, редактированию, иллюстрированию и распространению публикаций.
Для кого: для авторов, копирайтеров и просто программистов, которые хотят научиться интересно рассказывать о своих проектах.
👉Материалы регулярно дополняются, обновляются и корректируются. А еще мы отвечаем на все учебные вопросы в комментариях курса.
Напоминаем, что у нас есть бесплатный курс для всех, кто хочет научиться интересно писать — о программировании и в целом.
Что: семь модулей, посвященных написанию, редактированию, иллюстрированию и распространению публикаций.
Для кого: для авторов, копирайтеров и просто программистов, которые хотят научиться интересно рассказывать о своих проектах.
👉Материалы регулярно дополняются, обновляются и корректируются. А еще мы отвечаем на все учебные вопросы в комментариях курса.
Тест на болезнь X имеет вероятность ошибки 0.1 (как положительной, так и отрицательной). X болеет 10% населения. Какова вероятность того, что человек болен X, если у него положительный результат теста?
Anonymous Quiz
41%
0.1
17%
0.25
16%
0.45
26%
0.5
После print (data.a.values) вывелось ['a' 'b' 'a' 'c' 'a']. Что выведется после data['a'] = data.a.map(data.a.value_counts()), если мы сделаем print (data.a.values)?
Anonymous Quiz
35%
ничего, будет ошибка из-за использования map вмеcто apply
8%
['a' 'b' 'a' 'c' 'a']
50%
[3 1 3 1 3]
7%
[1 2 1 3 1]
Какова вероятность, что пользователь закончил сеанс, просмотрев не более двух страниц?
Anonymous Quiz
13%
0.125
25%
0.25
23%
0.425
39%
0.625
🦾🧠🏋Качаем мозги к лету!
Хотите начать работать с большими данными, применять методы машинного обучения, статистический анализ, а также разрабатывать алгоритмы для извлечения информации?
Тогда наш полугодовой курс «Математика для Data Science» от преподавателей МГУ, подходит для этого. И мы можете попасть на него со скидкой 40%
➡️ Математика для Data Science 29 990 ₽ 17 994 ₽
Вас ждет развернутая обратная связь по всем домашним заданиям, а также ссылки на полезные дополнительные материалы.
У вас не будет шансов не усвоить какие-то темы курса👌
⭐️ Переходите и активируйте бесплатные вводные занятия курса – https://proglib.io/w/47e865f0
Хотите начать работать с большими данными, применять методы машинного обучения, статистический анализ, а также разрабатывать алгоритмы для извлечения информации?
Тогда наш полугодовой курс «Математика для Data Science» от преподавателей МГУ, подходит для этого. И мы можете попасть на него со скидкой 40%
Вас ждет развернутая обратная связь по всем домашним заданиям, а также ссылки на полезные дополнительные материалы.
У вас не будет шансов не усвоить какие-то темы курса👌
Please open Telegram to view this post
VIEW IN TELEGRAM
🤖 Напоминаем, что у нас есть еженедельная email-рассылка, посвященная последним новостям и тенденциям в мире искусственного интеллекта.
В ней:
● Новости о прорывных исследованиях в области машинного обучения и нейросетей
● Материалы о применении ИИ в разных сферах
● Статьи об этических аспектах развития технологий
● Подборки лучших онлайн-курсов и лекций по машинному обучению
● Обзоры инструментов и библиотек для разработки нейронных сетей
● Ссылки на репозитории с открытым исходным кодом ИИ-проектов
● Фильмы, сериалы и книги
👉Подписаться👈
В ней:
● Новости о прорывных исследованиях в области машинного обучения и нейросетей
● Материалы о применении ИИ в разных сферах
● Статьи об этических аспектах развития технологий
● Подборки лучших онлайн-курсов и лекций по машинному обучению
● Обзоры инструментов и библиотек для разработки нейронных сетей
● Ссылки на репозитории с открытым исходным кодом ИИ-проектов
● Фильмы, сериалы и книги
👉Подписаться👈
Forwarded from Библиотека дата-сайентиста | Data Science, Machine learning, анализ данных, машинное обучение
🤖🖼️ Как работают визуальные трансформеры: магия превращения пикселей в знания
Визуальные трансформеры (Vision Transformers, ViTs) — класс моделей глубокого обучения, которые достигли выдающихся результатов в задачах классификации изображений. В основе ViTs лежит архитектура трансформеров, изначально разработанная для обработки естественного языка.
В новой статье подробно рассказываем(с картинками) , как работают такие модели компьютерного зрения.
🔗 Читать статью
🔗 Зеркало
Визуальные трансформеры (Vision Transformers, ViTs) — класс моделей глубокого обучения, которые достигли выдающихся результатов в задачах классификации изображений. В основе ViTs лежит архитектура трансформеров, изначально разработанная для обработки естественного языка.
В новой статье подробно рассказываем
🔗 Читать статью
🔗 Зеркало