#книги
Посмотрел книгу «Анализ данных в науке и технике» - есть интересные главы, для новичков очень хорошо расписано про SVD и разложение Фурье, очень много про динамические системы, главы про машинное обучение довольно поверхностные.
Посмотрел книгу «Анализ данных в науке и технике» - есть интересные главы, для новичков очень хорошо расписано про SVD и разложение Фурье, очень много про динамические системы, главы про машинное обучение довольно поверхностные.
#курс
Небольшой курс от Леонида Жукова "Data Science for Business". Есть видео на английском. Скорее подойдёт для менеджеров, здесь не погружаясь глубоко объясняют, где может пригодиться машинное обучение и анализ данных. Приводятся 4 кейса из ретейла: прогнозирование спроса, сегментация клиентов, персонализация и A/B-тестирование
(на рис. картинка из курса)
http://www.leonidzhukov.net/hse/2020/datascience/
Небольшой курс от Леонида Жукова "Data Science for Business". Есть видео на английском. Скорее подойдёт для менеджеров, здесь не погружаясь глубоко объясняют, где может пригодиться машинное обучение и анализ данных. Приводятся 4 кейса из ретейла: прогнозирование спроса, сегментация клиентов, персонализация и A/B-тестирование
(на рис. картинка из курса)
http://www.leonidzhukov.net/hse/2020/datascience/
#забавно
В курсе, о котором написал выше, используется RapidMiner. Интересно, что я его преподавал студентам более 10 лет назад, как и некоторые другие хорошие для того времени программы (Weka, Orange и т.п.) Даже сохранилось уже устаревшее для нынешнего времени учебное пособие:
http://www.machinelearning.ru/wiki/images/7/7e/Dj2010up.pdf
В курсе, о котором написал выше, используется RapidMiner. Интересно, что я его преподавал студентам более 10 лет назад, как и некоторые другие хорошие для того времени программы (Weka, Orange и т.п.) Даже сохранилось уже устаревшее для нынешнего времени учебное пособие:
http://www.machinelearning.ru/wiki/images/7/7e/Dj2010up.pdf
#обзор
Куча полезных ссылок по т.н. эквивариантным сетям.
https://github.com/Chen-Cai-OSU/awesome-equivariant-network
Куча полезных ссылок по т.н. эквивариантным сетям.
https://github.com/Chen-Cai-OSU/awesome-equivariant-network
GitHub
GitHub - Chen-Cai-OSU/awesome-equivariant-network: Paper list for equivariant neural network
Paper list for equivariant neural network. Contribute to Chen-Cai-OSU/awesome-equivariant-network development by creating an account on GitHub.
#забавно
Почему человек круче GPT-3 (показано "число соединений в НС")
источник: https://docs.google.com/presentation/d/1bcjbqt7Hj_985AX9Hl13dbTEJ8LH3Iti-LMI6C172ZQ/edit#slide=id.p6
Почему человек круче GPT-3 (показано "число соединений в НС")
источник: https://docs.google.com/presentation/d/1bcjbqt7Hj_985AX9Hl13dbTEJ8LH3Iti-LMI6C172ZQ/edit#slide=id.p6
#забавно
Я в школе учил латынь, но не так, чтобы усердно... поэтому не особо понимал слова "Гаудеамуса", а тут с удивлением прочитал, о чём же там поётся. Я по наивности думал, что про науку, оказалось, что наоборот. Вот перевод куплета, который часто даже не исполняют:
Да здравствуют все девушки,
Изящные и красивые!
Да здравствуют и женщины,
Нежные, достойные любви,
Добрые, трудолюбивые!
Я в школе учил латынь, но не так, чтобы усердно... поэтому не особо понимал слова "Гаудеамуса", а тут с удивлением прочитал, о чём же там поётся. Я по наивности думал, что про науку, оказалось, что наоборот. Вот перевод куплета, который часто даже не исполняют:
Да здравствуют все девушки,
Изящные и красивые!
Да здравствуют и женщины,
Нежные, достойные любви,
Добрые, трудолюбивые!
В прошлом месяце вышла статья от DeepMind, в которой сетью без BatchNorm удалось получить SOTA на ImageNet. В чём главная находка при обучении таких сетей?
Anonymous Quiz
16%
в клиппировании градиента
29%
в нормировке по слоям, а не батчам
12%
в новом методе аугментации
4%
в более агрессивном дропауте
14%
никаких находок нет, тупо дольше учили
25%
всё из перечисленного
#визуализация
Не очень сложный вопрос: что обозначено цветом на карте?
Не очень сложный вопрос: что обозначено цветом на карте?
#обучение
Материалы по метаобучению (много ссылок), но в целом не очень полезные:
https://sites.google.com/mit.edu/aaai2021metalearningtutorial
Материалы по метаобучению (много ссылок), но в целом не очень полезные:
https://sites.google.com/mit.edu/aaai2021metalearningtutorial
Google
AAAI 2021 Meta Learning Tutorial
Introduction: slides, video
#жзл
Сегодня (и это не первоапрельская шутка) день рождения у самого известного человека в российском ML - Воронцова Константина Вячеславовича, более того, ему сегодня исполнилось ровно 50 лет!
https://ru.wikipedia.org/wiki/Воронцов,_Константин_Вячеславович
Сегодня (и это не первоапрельская шутка) день рождения у самого известного человека в российском ML - Воронцова Константина Вячеславовича, более того, ему сегодня исполнилось ровно 50 лет!
https://ru.wikipedia.org/wiki/Воронцов,_Константин_Вячеславович
Wikipedia
Воронцов, Константин Вячеславович
Константи́н Вячесла́вович Воронцо́в (род. 1 апреля 1971 года) — российский учёный-математик, доктор физико-математических наук (2010), профессор кафедры интеллектуальных систем ФУПМ МФТИ, профессор РАН (2016).
#юмор
А ещё довольно мало работ по генерации шуток... вот один из последних обзоров на эту тему: https://www.aclweb.org/anthology/2020.latechclfl-1.4.pdf
А ещё довольно мало работ по генерации шуток... вот один из последних обзоров на эту тему: https://www.aclweb.org/anthology/2020.latechclfl-1.4.pdf
#забавно
Выложена языковая модель от Сбера, которая продолжает фрагмент текста введённый Вами. У меня вот что получилось (ниже, что я ввёл - жирное, остальное - творчество модели)
https://russiannlp.github.io/rugpt-demo/
Пришли Шмидхубер и Греф в Сбербанк карту зарплатную открыть.
И тут с ними две миловидные сотрудницы, возраста кораллов, беседуют
так ненавязчиво.
Греф вынимает перед ними из портмоне и показывает на фигню, которая почти сразу погасла,
но всё равно видно,
что это карта Сбербанка.
Мдя, масштаб конечно не тот, но результат - один в один.
К сожалению, кто-то был в курсе и на месте сделали им замечание.
Как потом оказалось, всё довольно серьёзно.
У них прямо в офисе лежит 460 тысяч долларов, а до такого мы сами когда-нибудь дойдем.
Так что вот, лучше проверять всё заранее.
А ещё они хорошо ориентируются в курсе рубля и любят слушать Президента,
поэтому, когда попадаются им на глаза портреты
Путина и Медведева, то с удовольствием наблюдают их вблизи.
Они знают, что Путин это суперзвезда и им это удобно.
Да и пусть знают, тем более, что он это и в самом деле так!
Выложена языковая модель от Сбера, которая продолжает фрагмент текста введённый Вами. У меня вот что получилось (ниже, что я ввёл - жирное, остальное - творчество модели)
https://russiannlp.github.io/rugpt-demo/
Пришли Шмидхубер и Греф в Сбербанк карту зарплатную открыть.
И тут с ними две миловидные сотрудницы, возраста кораллов, беседуют
так ненавязчиво.
Греф вынимает перед ними из портмоне и показывает на фигню, которая почти сразу погасла,
но всё равно видно,
что это карта Сбербанка.
Мдя, масштаб конечно не тот, но результат - один в один.
К сожалению, кто-то был в курсе и на месте сделали им замечание.
Как потом оказалось, всё довольно серьёзно.
У них прямо в офисе лежит 460 тысяч долларов, а до такого мы сами когда-нибудь дойдем.
Так что вот, лучше проверять всё заранее.
А ещё они хорошо ориентируются в курсе рубля и любят слушать Президента,
поэтому, когда попадаются им на глаза портреты
Путина и Медведева, то с удовольствием наблюдают их вблизи.
Они знают, что Путин это суперзвезда и им это удобно.
Да и пусть знают, тем более, что он это и в самом деле так!
russiannlp.github.io
RuGPT3 demo
Web site created using create-react-app
#юмор
И в продолжение последних постов. Попробовал я с помощью Сберовской модели анекдот сгенерировать. За мат очень извиняюсь (эта хвалёная RuGPT3 выдала), оказывается, создатели не сделали фильтр обсценной лексики!
Встречаются Пятачок, Штирлиц и Боря Моисеев. ПятачОк:-Пятачок! Вот мы и встретились! Я так рад!!! Ты-настоящий мужчина!!!Ты-настоящая женщина!!! Пята:-Какая я тебе женщина, ты с ума сошел? Мы уже не вместе! Боря:-Ну и хуй с тобой! Блядь!
И в продолжение последних постов. Попробовал я с помощью Сберовской модели анекдот сгенерировать. За мат очень извиняюсь (эта хвалёная RuGPT3 выдала), оказывается, создатели не сделали фильтр обсценной лексики!
Встречаются Пятачок, Штирлиц и Боря Моисеев. ПятачОк:-Пятачок! Вот мы и встретились! Я так рад!!! Ты-настоящий мужчина!!!Ты-настоящая женщина!!! Пята:-Какая я тебе женщина, ты с ума сошел? Мы уже не вместе! Боря:-Ну и хуй с тобой! Блядь!