Почему функция Softmax предпочтительнее нескольких функций Sigmoid для выходного слоя нейросети при решении задачи многоклассовой классификации?
Anonymous Quiz
57%
Softmax гарантирует, что сумма выходных вероятностей равна 1
10%
Softmax требует меньших вычислительных затрат
21%
Softmax обеспечивает больший градиент для обратного распространения ошибки
12%
Softmax поддерживает большее количество классов
✏️ Разбор задачи с экзамена ШАД
Условие: В корзине лежит m чёрных шаров и n красных. Мы достаём из корзины случайный шар и, если он чёрный, то заменяем его на красный, а если он красный, то кладём его обратно. Найдите математическое ожидание числа красных шаров в корзине после k итераций этой процедуры.
Решение: Обозначим количество красных шаров в корзине после k итераций как x. Нужно найти математическое ожидание величины x.
✍️ Поскольку мы кладём шар обратно в корзину, если он красный, то x = n + y, где y — количество чёрных шаров, которые стали красными после k итераций.
Пронумеруем чёрные шары. Для каждого j-го чёрного шара введём случайную величину I-джитое 1️⃣, которая будет индикатором того, что j-й чёрный шар стал красным после k итераций. Эта случайная величина равна единице, если шар поменял цвет, и нулю, если не поменял. Следовательно, сумма 2️⃣ таких величин будет равна количеству поменявших цвет шаров, которое мы выше обозначили как y. Получаем формулы 3️⃣ и 4️⃣. Вспомним, что матожидание — это сумма произведений вида «значение × вероятность этого значения». В нашем случае значений всего два: 1 и 0.
Получилась сумма вероятностей того, что j-й чёрный шар поменял цвет. Посчитаем эту вероятность. Нам будет удобнее перейти к отрицанию 5️⃣.
Чему равна вероятность, стоящая после знака минус? У нас есть k попыток вытащить шар. Поскольку попытки независимые, то вероятность после знака минус будет равна некоторому выражению в k-й степени — произведению вероятностей того, что при каждой попытке мы не вытащили данный шар.
Какова вероятность не вытащить шар в каждой конкретной попытке? Это будет дробь, в знаменателе — общее число шаров m + n. Мы должны были вытащить какой-либо шар кроме j-го. Вариантов так сделать — m + n – 1. Это выражение и будет в числителе 6️⃣.
Вычисляем искомое ожидание:
7️⃣ Все вероятности, стоящие справа под знаком суммы, — одинаковые. Поэтому сумма будет равна количеству чёрных шаров m, умноженному на вероятность, что конкретный шар поменял цвет.
Затем остаются 8️⃣ и 9️⃣
Условие: В корзине лежит m чёрных шаров и n красных. Мы достаём из корзины случайный шар и, если он чёрный, то заменяем его на красный, а если он красный, то кладём его обратно. Найдите математическое ожидание числа красных шаров в корзине после k итераций этой процедуры.
Решение: Обозначим количество красных шаров в корзине после k итераций как x. Нужно найти математическое ожидание величины x.
✍️ Поскольку мы кладём шар обратно в корзину, если он красный, то x = n + y, где y — количество чёрных шаров, которые стали красными после k итераций.
Пронумеруем чёрные шары. Для каждого j-го чёрного шара введём случайную величину I-джитое 1️⃣, которая будет индикатором того, что j-й чёрный шар стал красным после k итераций. Эта случайная величина равна единице, если шар поменял цвет, и нулю, если не поменял. Следовательно, сумма 2️⃣ таких величин будет равна количеству поменявших цвет шаров, которое мы выше обозначили как y. Получаем формулы 3️⃣ и 4️⃣. Вспомним, что матожидание — это сумма произведений вида «значение × вероятность этого значения». В нашем случае значений всего два: 1 и 0.
Получилась сумма вероятностей того, что j-й чёрный шар поменял цвет. Посчитаем эту вероятность. Нам будет удобнее перейти к отрицанию 5️⃣.
Чему равна вероятность, стоящая после знака минус? У нас есть k попыток вытащить шар. Поскольку попытки независимые, то вероятность после знака минус будет равна некоторому выражению в k-й степени — произведению вероятностей того, что при каждой попытке мы не вытащили данный шар.
Какова вероятность не вытащить шар в каждой конкретной попытке? Это будет дробь, в знаменателе — общее число шаров m + n. Мы должны были вытащить какой-либо шар кроме j-го. Вариантов так сделать — m + n – 1. Это выражение и будет в числителе 6️⃣.
Вычисляем искомое ожидание:
7️⃣ Все вероятности, стоящие справа под знаком суммы, — одинаковые. Поэтому сумма будет равна количеству чёрных шаров m, умноженному на вероятность, что конкретный шар поменял цвет.
Затем остаются 8️⃣ и 9️⃣
Forwarded from Библиотека дата-сайентиста | Data Science, Machine learning, анализ данных, машинное обучение
🧠🤖 Как создать память для вашего чат-бота на Python с
помощью графов знаний
Хотите, чтобы ваш чат-бот давал более точные и релевантные ответы, избегая «галлюцинаций»? Графы знаний в помощь!
В статье и туториале разбираем, что такое графы и как создать память на примере данных из Википедии.
🔗 Читать статью
🔗 Зеркало
помощью графов знаний
Хотите, чтобы ваш чат-бот давал более точные и релевантные ответы, избегая «галлюцинаций»? Графы знаний в помощь!
В статье и туториале разбираем, что такое графы и как создать память на примере данных из Википедии.
🔗 Читать статью
🔗 Зеркало
✍️ Воскресный разбор задач
1️⃣ Поговорим о Центральной предельной теореме (ЦПТ).
Можно рассматривать её вместе с Законом больших чисел (ЗБЧ). ЗБЧ гласит, что если некий эксперимент, результатом которого является число (случайная величина с матожиданием μ), провести много раз и усреднить результаты, то этот усреднённый результат, скорее всего, будет близок к μ. Это можно интерпретировать относительно среднего выборки следующим образом: чем больше размер выборки, тем ближе её среднее к среднему генеральной совокупности.
ЦПТ утверждает, что распределение суммы таких независимых случайных величин приближается к нормальному, если количество испытаний или число респондентов достаточно велико. Это можно интерпретировать относительно среднего выборки следующим образом: когда размер выборки увеличивается, распределение средних этих выборок, вне зависимости от исходного распределения данных в генеральной совокупности, стремится к нормальному распределению. То есть одно из ключевых отличий ЦПТ от ЗБЧ заключается в том, что ЦПТ описывает форму распределения средних значений.
2️⃣ Этот код создаёт массив из чисел от 0 до 9 (np.arange(10)). Также он изменяет форму этого массива на двумерный с помощью метода reshape(2, -1), где 2 указывает на количество строк, а -1 позволяет NumPy автоматически вычислить необходимое количество столбцов (в данном случае это 5 столбцов). Затем код выводит на печать arr[0, -1]. Здесь 0 указывает на первую строку массива, а -1 указывает на последний элемент в этой строке. Таким образом, из первой строки ([0, 1, 2, 3, 4]) будет извлечён последний элемент, который равен 4.
#разбор_задач
1️⃣ Поговорим о Центральной предельной теореме (ЦПТ).
Можно рассматривать её вместе с Законом больших чисел (ЗБЧ). ЗБЧ гласит, что если некий эксперимент, результатом которого является число (случайная величина с матожиданием μ), провести много раз и усреднить результаты, то этот усреднённый результат, скорее всего, будет близок к μ. Это можно интерпретировать относительно среднего выборки следующим образом: чем больше размер выборки, тем ближе её среднее к среднему генеральной совокупности.
ЦПТ утверждает, что распределение суммы таких независимых случайных величин приближается к нормальному, если количество испытаний или число респондентов достаточно велико. Это можно интерпретировать относительно среднего выборки следующим образом: когда размер выборки увеличивается, распределение средних этих выборок, вне зависимости от исходного распределения данных в генеральной совокупности, стремится к нормальному распределению. То есть одно из ключевых отличий ЦПТ от ЗБЧ заключается в том, что ЦПТ описывает форму распределения средних значений.
2️⃣ Этот код создаёт массив из чисел от 0 до 9 (np.arange(10)). Также он изменяет форму этого массива на двумерный с помощью метода reshape(2, -1), где 2 указывает на количество строк, а -1 позволяет NumPy автоматически вычислить необходимое количество столбцов (в данном случае это 5 столбцов). Затем код выводит на печать arr[0, -1]. Здесь 0 указывает на первую строку массива, а -1 указывает на последний элемент в этой строке. Таким образом, из первой строки ([0, 1, 2, 3, 4]) будет извлечён последний элемент, который равен 4.
#разбор_задач
Какая метрика не подходит для оценки эффективности логистической регрессии?
Anonymous Quiz
12%
ROC-кривая
66%
Среднеквадратичная ошибка (MSE)
11%
Precision и Recall
11%
F1-мера
🧑💻 Статьи для IT: как объяснять и распространять значимые идеи
Напоминаем, что у нас есть бесплатный курс для всех, кто хочет научиться интересно писать — о программировании и в целом.
Что: семь модулей, посвященных написанию, редактированию, иллюстрированию и распространению публикаций.
Для кого: для авторов, копирайтеров и просто программистов, которые хотят научиться интересно рассказывать о своих проектах.
👉Материалы регулярно дополняются, обновляются и корректируются. А еще мы отвечаем на все учебные вопросы в комментариях курса.
Напоминаем, что у нас есть бесплатный курс для всех, кто хочет научиться интересно писать — о программировании и в целом.
Что: семь модулей, посвященных написанию, редактированию, иллюстрированию и распространению публикаций.
Для кого: для авторов, копирайтеров и просто программистов, которые хотят научиться интересно рассказывать о своих проектах.
👉Материалы регулярно дополняются, обновляются и корректируются. А еще мы отвечаем на все учебные вопросы в комментариях курса.
✏️ Разбор задачи с экзамена ШАД
Условие: У вас есть набор выражений 1️⃣. Найдите значение параметра a, для которого множество (k, l, m, n) будет линейно зависимым.
Решение: Требование задачи равносильно вырожденности матрицы коэффициентов. То есть нам нужно составить матрицу из коэффициентов, сделав из них строки и столбцы.
Вырожденная матрица — это квадратная матрица, определитель которой равен нулю. Определитель матрицы равен нулю тогда, когда строки (или столбцы) этой матрицы линейно зависимы, что соответствует исходному условию.
Совершая над матрицей элементарные преобразования строк и столбцов, получим 2️⃣.
Последняя матрица вырожденна 3️⃣. Из этого и получим ответ.
#задачи_шад
Условие: У вас есть набор выражений 1️⃣. Найдите значение параметра a, для которого множество (k, l, m, n) будет линейно зависимым.
Решение: Требование задачи равносильно вырожденности матрицы коэффициентов. То есть нам нужно составить матрицу из коэффициентов, сделав из них строки и столбцы.
Последняя матрица вырожденна 3️⃣. Из этого и получим ответ.
#задачи_шад
Какой тип объединения в SQL возвращает только строки, которые имеют совпадающие значения в обеих таблицах?
Anonymous Quiz
4%
LEFT JOIN
82%
INNER JOIN
5%
OUTER JOIN
10%
CROSS JOIN
Forwarded from Библиотека дата-сайентиста | Data Science, Machine learning, анализ данных, машинное обучение
У нас вышла новая статья на
Ниже — небольшая выдержка из статьи, а целиком читайте здесь 👈
▫️NVIDIA продемонстрировала впечатляющие достижения в робототехнике на конференции GDC 2024. Посмотрите на гуманоидных роботов здесь.
▫️Компания DeepMind совместно с клубом Liverpool представила TacticAI — систему, которая может давать тактические советы футбольным тренерам.
▫️Stability AI выпустила модель Stable Video 3D, способную превращать изображения в 3D-видео.
🛠 Инструменты
▫️Arcads — генерирует маркетинговые видео с ИИ-актерами.
▫️Instanice — преобразует фото в любой нужный стиль, сохраняя внешность.
▫️PNGMaker — генерирует любые изображения на прозрачном фоне.
▫️Devika — опенсорсная альтернатива нашумевшему автономному агенту Devin от Cognition AI. Это ИИ-помощник, способный создавать сложные программные проекты с минимальным участием разработчика.
▫️GPT Prompt Engineer — агент для создания эффективных промптов. Поддерживает все модели OpenAI и Claude 3.
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Книги для дата сайентистов | Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡️Proglib запускает каналы про нейросети
По каждому направлению отдельно! А именно:
⭐Библиотека нейрозвука — здесь все, связанное с транскрибацией, синтезом речи, ИИ-музыкой
⭐Библиотека нейротекста — классические ИИ-помощники вроде ChatGPT, Gemini, Bing
⭐Библиотека нейровидео — здесь пишем про нашумевшую Sora AI, а также про Runway ML, дипфейки и другие видеотехнологии
⭐Библиотека нейрокартинок — генерируем изображения и рассказываем про Midjourney, DALL-E, Stable Diffusion
⭐️Библиотека робототехники и беспилотников — наконец, тут мы рассказываем не столько про ИИ, сколько про роботов, беспилотные технологии и интернет вещей
И все это — максимально подробно: с пошаговыми инструкциями, промтами, инструментами и лайфхаками.
Подписывайтесь!
По каждому направлению отдельно! А именно:
⭐Библиотека нейрозвука — здесь все, связанное с транскрибацией, синтезом речи, ИИ-музыкой
⭐Библиотека нейротекста — классические ИИ-помощники вроде ChatGPT, Gemini, Bing
⭐Библиотека нейровидео — здесь пишем про нашумевшую Sora AI, а также про Runway ML, дипфейки и другие видеотехнологии
⭐Библиотека нейрокартинок — генерируем изображения и рассказываем про Midjourney, DALL-E, Stable Diffusion
⭐️Библиотека робототехники и беспилотников — наконец, тут мы рассказываем не столько про ИИ, сколько про роботов, беспилотные технологии и интернет вещей
И все это — максимально подробно: с пошаговыми инструкциями, промтами, инструментами и лайфхаками.
Подписывайтесь!
35% на самый хардкорный курс по вышмату!
🌟 «Математика для Data Science» 🌟
19 490 рублей29 990 рублей до 1 апреля
Полугодовая программа от преподавателей МГУ, которая включает в себя все необходимые знания по математике для работы в Data Science.
Вас ждет развернутая обратная связь по всем домашним заданиям, а также ссылки на полезные дополнительные материалы.
У вас не будет шансов не усвоить какие-то темы курса👌
🔥 Переходите и активируйте вводные занятия курса — https://proglib.io/w/4b21349b
🌟 «Математика для Data Science» 🌟
19 490 рублей
Полугодовая программа от преподавателей МГУ, которая включает в себя все необходимые знания по математике для работы в Data Science.
Вас ждет развернутая обратная связь по всем домашним заданиям, а также ссылки на полезные дополнительные материалы.
У вас не будет шансов не усвоить какие-то темы курса👌
🔥 Переходите и активируйте вводные занятия курса — https://proglib.io/w/4b21349b
Алиса и Боб каждый выбирают целые числа случайным образом и равномерно в диапазоне от 1 до 10^1000000. Алиса выигрывает, если у их двух чисел есть общий простой делитель. Боб — если общих простых делителей нет. Кто имеет больше шансов выиграть?
Anonymous Quiz
47%
Алиса
28%
Боб
16%
Шансы примерно равны
9%
Не знаю
✏️ Разбор задачи с экзамена ШАД
Условие: Лёша и Марина договорились встретиться между 8:00 и 9:00 и вместе пойти на экзамен в ШАД. Каждый из них приходит на место встречи в случайный момент времени, ждёт 15 минут и уходит (никому не хочется опоздать на экзамен). Являются ли независимыми события «Лёша и Марина не встретились» и «хотя бы один из них пришёл после 8:45»? Время считайте непрерывным.
Решение: Два события называются независимыми, если вероятность их пересечения равна произведению их вероятностей 1️⃣
Чтобы определить независимость событий A и B, нужно посчитать две вероятности в правой части. Сделать это проще всего геометрически. Представим каждое из элементарных событий (пару «время, когда пришёл Лёша» и «время, когда пришла Марина») точками квадрата со стороной 1 час. Построим графическое представление каждого из событий.
✅Расчёт события А («Лёша и Марина не встретились»)
Какое условие накладывает событие А на координаты М и Л (они же x, y)? Оно показывает, что ребята не встретились, то есть что между приходом Лёши и Марины прошло больше четверти часа. Запишем 2️⃣. Изобразим событие А в пространстве элементарных событий 3️⃣
✅Расчёт события B («хотя бы один из друзей пришёл после 8:45»)
Это можно записать следующим образом 4️⃣ и изобразить так 5️⃣
Чтобы найти вероятность А, нужно разделить площадь красного фрагмента на площадь всего пространства элементарных событий. Эта площадь в задаче равна единице. Красный фрагмент состоит из двух треугольников со стороной три четверти. Считаем и получаем 9/16. Посчитать площадь B ещё проще. Оно занимает семь квадратов в общем пространстве элементарных событий, состоящем из 16 квадратов. Получаем 7/16
✅Расчёт пересечения
На схеме 6️⃣ видно, что пересечение занимает 5 квадратов. Получаем 5/16. В итоге подставляем все рассчитанные значения в формулу 1️⃣. P(A) * P (B) = 9/16 * 7/16. Это произведение не равно 5/16. Следовательно, события А и B не независимы.
#задачи_шад
Условие: Лёша и Марина договорились встретиться между 8:00 и 9:00 и вместе пойти на экзамен в ШАД. Каждый из них приходит на место встречи в случайный момент времени, ждёт 15 минут и уходит (никому не хочется опоздать на экзамен). Являются ли независимыми события «Лёша и Марина не встретились» и «хотя бы один из них пришёл после 8:45»? Время считайте непрерывным.
Решение: Два события называются независимыми, если вероятность их пересечения равна произведению их вероятностей 1️⃣
Чтобы определить независимость событий A и B, нужно посчитать две вероятности в правой части. Сделать это проще всего геометрически. Представим каждое из элементарных событий (пару «время, когда пришёл Лёша» и «время, когда пришла Марина») точками квадрата со стороной 1 час. Построим графическое представление каждого из событий.
✅Расчёт события А («Лёша и Марина не встретились»)
Какое условие накладывает событие А на координаты М и Л (они же x, y)? Оно показывает, что ребята не встретились, то есть что между приходом Лёши и Марины прошло больше четверти часа. Запишем 2️⃣. Изобразим событие А в пространстве элементарных событий 3️⃣
✅Расчёт события B («хотя бы один из друзей пришёл после 8:45»)
Это можно записать следующим образом 4️⃣ и изобразить так 5️⃣
Чтобы найти вероятность А, нужно разделить площадь красного фрагмента на площадь всего пространства элементарных событий. Эта площадь в задаче равна единице. Красный фрагмент состоит из двух треугольников со стороной три четверти. Считаем и получаем 9/16. Посчитать площадь B ещё проще. Оно занимает семь квадратов в общем пространстве элементарных событий, состоящем из 16 квадратов. Получаем 7/16
✅Расчёт пересечения
На схеме 6️⃣ видно, что пересечение занимает 5 квадратов. Получаем 5/16. В итоге подставляем все рассчитанные значения в формулу 1️⃣. P(A) * P (B) = 9/16 * 7/16. Это произведение не равно 5/16. Следовательно, события А и B не независимы.
#задачи_шад