Forwarded from Библиотека дата-сайентиста | Data Science, Machine learning, анализ данных, машинное обучение
👨🎓️ Кто есть кто в команде data science: путеводитель по профессии
О data scientist часто говорят, будто это одна профессия, хотя в науке о данных существуют и другие специализации. Расскажем, из каких направлений можно выбирать и что потребуется для их изучения.
🔗 Читать статью
О data scientist часто говорят, будто это одна профессия, хотя в науке о данных существуют и другие специализации. Расскажем, из каких направлений можно выбирать и что потребуется для их изучения.
🔗 Читать статью
Каков будет вывод кода с картинки выше?
Anonymous Quiz
32%
[[ 1 6] [ 6 16]]
18%
[[10 14] [14 20]]
37%
[[ 5 11] [11 25]]
13%
Ошибка
Forwarded from Proglib.academy | IT-курсы
🔢 Математика для Data Science: необходимый минимум
Данные стали новой нефтью, а науку о данных Harvard Business Review назвал самой перспективной профессией 21 века. Для работы в сфере Data Science необходима математика: она позволяет извлекать смысл из огромных массивов информации и принимать обоснованные решения.
Расскажем, какие разделы математики нужно знать для успешного старта в нашей статье:
🔗 Ссылка на статью
Данные стали новой нефтью, а науку о данных Harvard Business Review назвал самой перспективной профессией 21 века. Для работы в сфере Data Science необходима математика: она позволяет извлекать смысл из огромных массивов информации и принимать обоснованные решения.
Расскажем, какие разделы математики нужно знать для успешного старта в нашей статье:
🔗 Ссылка на статью
Какую проблему помогает решить механизм skip connections в ResNet?
Anonymous Quiz
20%
Взрывающийся градиент
28%
Переобучение
44%
Исчезающий градиент
7%
Недообучение
✍️ Воскресный разбор задач прошедшей недели
Сегодня поговорим об ошибках первого и второго рода.
▪️Допустить ошибку первого рода это отвергнуть нулевую гипотезу, при условии, что именно она верна.
Нулевая гипотеза — это гипотеза, предполагающая, что никаких изменений не произошло/влияния нет
▪️Допустить ошибку второго рода это принять нулевую гипотезу, при условии, что верна альтернативная гипотеза.
Альтернативная гипотеза — это гипотеза, предполагающая, что изменения произошли/есть влияние.
А теперь вернёмся к нашей задаче. Для антиспам-фильтра нулевая гипотеза — это предположение, что новое входящее письмо является обычным письмом, не спамом. Альтернативная гипотеза тогда — это предположение, что письмо является спамом. В нашей ситуации, верна именно альтернативная гипотеза, но антиспам-фильтр принимает нулевую гипотезу. Это пример ошибки второго рода.
#разбор_задач
Сегодня поговорим об ошибках первого и второго рода.
▪️Допустить ошибку первого рода это отвергнуть нулевую гипотезу, при условии, что именно она верна.
▪️Допустить ошибку второго рода это принять нулевую гипотезу, при условии, что верна альтернативная гипотеза.
А теперь вернёмся к нашей задаче. Для антиспам-фильтра нулевая гипотеза — это предположение, что новое входящее письмо является обычным письмом, не спамом. Альтернативная гипотеза тогда — это предположение, что письмо является спамом. В нашей ситуации, верна именно альтернативная гипотеза, но антиспам-фильтр принимает нулевую гипотезу. Это пример ошибки второго рода.
#разбор_задач
🤖 Напоминаем, что у нас есть еженедельная email-рассылка, посвященная последним новостям и тенденциям в мире искусственного интеллекта.
В ней:
● Новости о прорывных исследованиях в области машинного обучения и нейросетей
● Материалы о применении ИИ в разных сферах
● Статьи об этических аспектах развития технологий
● Подборки лучших онлайн-курсов и лекций по машинному обучению
● Обзоры инструментов и библиотек для разработки нейронных сетей
● Ссылки на репозитории с открытым исходным кодом ИИ-проектов
● Фильмы, сериалы и книги
👉Подписаться👈
В ней:
● Новости о прорывных исследованиях в области машинного обучения и нейросетей
● Материалы о применении ИИ в разных сферах
● Статьи об этических аспектах развития технологий
● Подборки лучших онлайн-курсов и лекций по машинному обучению
● Обзоры инструментов и библиотек для разработки нейронных сетей
● Ссылки на репозитории с открытым исходным кодом ИИ-проектов
● Фильмы, сериалы и книги
👉Подписаться👈
Какое утверждение про GPT и BERT ниже правдивое?
Anonymous Quiz
14%
GPT — это трансформер, а BERT — нет
32%
GPT использует только левый контекст для предсказания слова, а BERT — двунаправленный контекст
16%
GPT предназначен для задач понимания текста, а BERT — для генерации текста
37%
GPT и BERT используют один и тот же метод предсказания токенов в тексте
Какой метод позволяет получать значения из экспоненциального распределения?
Anonymous Quiz
10%
random.expovariate()
30%
math.exp()
49%
random.exponential()
10%
math.expovariate()
Что выведет код с картинки выше?
Anonymous Quiz
13%
[13, 12, 14, 17]
48%
[11, 13, 15, 17]
39%
Ошибка
Что лежит в переменной result?
Anonymous Quiz
15%
[0 1 1 0]
44%
[1 2 2 1]
41%
Ничего, выведет ошибку
Не открывайте ответ сразу, подумайте.
Ответ:
Please open Telegram to view this post
VIEW IN TELEGRAM
✍️ Воскресный разбор задач
Сегодня разберёмся с архитектурами GPT и BERT.
▪️GPT (Generative Pretrained Transformer)
Она появилась раньше, чем BERT. Её архитектура представляет собой последовательность слоёв декодера трансформера.
Декодер — это ключевой компонент, который использует механизм self-attention для предсказания следующего токена в последовательности, основываясь на предыдущих. Он генерирует текст, шаг за шагом, добавляя токены до тех пор, пока не будет достигнут конец последовательности.
На каждом шаге GPT обучается предсказывать следующий токен на основе уже предсказанных. Поэтому модель хорошо подходит для задач генерации текста.
▪️BERT (Bidirectional Encoder Representations from Transformers)
Эта архитектура появилась чуть позже. От GPT её отличает то, что в ней реализована двунаправленность внимания. Так при обработке входной последовательности все токены могут использовать информацию друг о друге.
Благодаря этому BERT более удобна для задач, где нужно сделать предсказание относительно всего входа целиком без генерации, например, при классификации или поиске пар похожих документов.
#разбор_задач
Сегодня разберёмся с архитектурами GPT и BERT.
▪️GPT (Generative Pretrained Transformer)
Она появилась раньше, чем BERT. Её архитектура представляет собой последовательность слоёв декодера трансформера.
На каждом шаге GPT обучается предсказывать следующий токен на основе уже предсказанных. Поэтому модель хорошо подходит для задач генерации текста.
▪️BERT (Bidirectional Encoder Representations from Transformers)
Эта архитектура появилась чуть позже. От GPT её отличает то, что в ней реализована двунаправленность внимания. Так при обработке входной последовательности все токены могут использовать информацию друг о друге.
Благодаря этому BERT более удобна для задач, где нужно сделать предсказание относительно всего входа целиком без генерации, например, при классификации или поиске пар похожих документов.
#разбор_задач
В чём смысл увеличения количества слоёв в нейронной сети?
Anonymous Quiz
70%
Так можно добиться лучшего извлечения признаков
2%
Так растёт скорость вычислений
16%
Так становится ниже риск переобучения
12%
Так легче проходит процесс обучения
🧑💻 Статьи для IT: как объяснять и распространять значимые идеи
Напоминаем, что у нас есть бесплатный курс для всех, кто хочет научиться интересно писать — о программировании и в целом.
Что: семь модулей, посвященных написанию, редактированию, иллюстрированию и распространению публикаций.
Для кого: для авторов, копирайтеров и просто программистов, которые хотят научиться интересно рассказывать о своих проектах.
👉Материалы регулярно дополняются, обновляются и корректируются. А еще мы отвечаем на все учебные вопросы в комментариях курса.
Напоминаем, что у нас есть бесплатный курс для всех, кто хочет научиться интересно писать — о программировании и в целом.
Что: семь модулей, посвященных написанию, редактированию, иллюстрированию и распространению публикаций.
Для кого: для авторов, копирайтеров и просто программистов, которые хотят научиться интересно рассказывать о своих проектах.
👉Материалы регулярно дополняются, обновляются и корректируются. А еще мы отвечаем на все учебные вопросы в комментариях курса.
Что выведет этот запрос?
Anonymous Quiz
17%
Hello World
18%
Hello
2%
World
40%
HelloWorld
22%
Ошибка