finitely presented
155 subscribers
41 photos
7 videos
45 links
加入频道
https://www.3blue1brown.com/blog/exact-sequence-picturebook

Ravi Vakil. Puzzling through exact sequences (A Bedtime Story with Pictures)

«Such topics rarely get bedtime stories, or strong visuals, which is part of what makes this such a gem. Enjoy!»
4
This media is not supported in your browser
VIEW IN TELEGRAM
🤣4💯21
Forwarded from Math and ML stuff
В середине июля в Лондоне прошла летняя школа, для аспирантов и пост-доков - LOGML (London Geometry and Machine Learning). Тематика школы - применение методов геометрии и топологии в глубинном обучении, организатор Imperial College London. В 2021 и 2022 годах она была онлайн, в этом году все сделали очно. Направление школы идеально совпадает с темой моей диссертации, я участвовал в школе во все прошлые итерации, и в этот раз решил провести незабываемую неделю в Лондоне, работая над релевантным мне проектом. Структура школы включает лекции приглашенных спикеров, командные работы над проектами под руководством менторов (профессора, постдоки) и презентации результатов, всё мероприятие проходило в самом Imperial College. Из интересных, запомнившихся проектов были следующие:

Stability or Collapse: Topological Properties of Deep Autoencoders (2021) - применения ТДА для исследования внутренних представлений автоэнкодеров

Pretraining GNN with ELECTRA (2021) - предварительное обучение GNN для задач хим-информатики, но с применением техники предобучения ELECTRA, используемой в NLP

Platonic CNNs (2021) - применение CNN для сигналов со сложной геометрической структурой, например климатические особенности на поверхности Земли (сфере, которую предлагается приблизить икосаэдром - получается архитектура Icosahedral CNNs). Platonic - потому что икосаэдр платоническое тело.

Characterizing generalization and adversarial robustness for set networks (2022) - по мотивам этой статьи, ментором был проф Толга Бирдал; проект по улучшению его подхода для предсказания обобщающей способности CNN на основе геометрии траектории пространства весов в процессе обучения. В этом году среди постерной сессии на школе была работа, которая критиковала статью Толги.

Geometric tools for investigating loss landscapes of deep neural networks (2022) - анализ геометрических свойства ландшафта функции потерь

On the Geometry of Relative Representations (2024) - улучшение подхода к вычислению без дополнительного дообучения новых внутренних представлений нейросеток для более эффективного их последующего использования.

Powerful Graph Neural Networks for Relational Databases (2024) - применение GNN для реляционных графов (k-partite graph), построенных по реляционным базам данных.

Self-supervised learning for Topological Neural Networks (2024) - разработка Self-supervised learning режима обучения для топологических GNN (более подробно про них в этом посте). Отдельное подробное описание этого проекта будет у Паши на канале.

Это далеко не полный список проектов. Как правило, по завершению проектов на школе команды пишут статьи. Впечатлений и новых знакомств море, все подавайтесь на след год тоже. Прикладываю фото со школы
👍3🔥1
Math and ML stuff
В середине июля в Лондоне прошла летняя школа, для аспирантов и пост-доков - LOGML (London Geometry and Machine Learning). Тематика школы - применение методов геометрии и топологии в глубинном обучении, организатор Imperial College London. В 2021 и 2022 годах…
Хоть я и не поехал на школу очно, у меня получилось принять участие удаленно! Конечно, это не то же самое, что и в живую, но это все еще лучше, чем вообще не участвовать. А все потому, что мой Project Instructor порвал связку, и сам не смог прилететь(

В итоге мы с ним сидели в зуме, пока остальная часть нашей команды тусовала в Лондоне. Мой проект был посвящен self-supervised обучению для топологических сеток, а именно адаптации ЖЕПЫ 😈. В общем-то, работа еще идет, так что stay tuned. Забавно, что в рамках проекта пришлось реализовывать лифтинги графов на клеточные комплексы, а это буквально была задача (уже) прошедшего ICML Topological Deep Learning Challenge (еще неизвестны результаты, но как они появятся - я тут же напишу, а пока можно почитать про прошлогодний челлендж, мы с Германом в нем принимали участие, я писал об этом тут).

В целом это был довольно крутой опыт, даже удаленное участие. Почти все лекции спикеров были мне релевантны (я очень ждал лекцию от Kathryn Hess Bellwald: Cochains are all you need, но именно на ней, и только на ней, у организаторов возникли проблемы с микро, так что я довольствовался только слайдами 😢). Из проектов я бы еще отметил проект Mixed Curvature Graph Neural Networks, из презентации которой я узнал про замечательную статью Learning Mixed-Curvature Representations in Products of Model Spaces, где авторы эмбеддят фичи на вершинах графа в произведение многообразий разных кривизн. Кажется это должно быть очень релевантно проекту по группам и машинному обучению, который сейчас делается под руководством Саши Червова и активно обсуждается тут.

В общем, даже в онлайн формате, школа мне дала новые знакомства и интересные идеи. Это было мое первое участие, и очень надеюсь, что не последнее!
🔥81
😁7😐4💯1
А мы с ребятами в очередной раз устраиваем движ по топологии и анализу данных в Воронеже, но в этот раз с финансовой поддержкой (т.е. мы кажется еще и оплатим проживание или дорогу до Воронежа(может быть даже не в одну сторону)), и вообще это теперь целая мини-школа!

Пройдет это все дело с 9 по 14 сентября, вот сайтик для заинтересованных. Регистрация до 26 августа включительно.

Я лично расскажу что-то про графовые и топологические нейросети (еще пока не знаю что именно, но, видимо, буду опираться на GDL book и тезис Боднара), может быть даже что-то покажу 🫣
🔥11
finitely presented
Кстати, сроки школы сдвинулись на 11-15 сентября, так что она начнется уже завтра! Если вдруг кто-то из Воронежа и очень хотел потусить с пользой, то приходите завтра в ВГУ! Вся информация все еще тут
Уже прошло много дней, а я все еще не написал итоги школы, исправляюсь.

Школа побила по всем параметрам все предыдущие наши мероприятия и прошла просто супер! В этот раз мы собрали ребят буквально со всей России (и даже из Минска!) и отлично провели как учебную, так и внеучебную части. Записи учебной части лежат тут.

А еще про нас написали на сайте ВГУ и ФКН Вышки, такие дела.
12
Channel photo updated
Channel name was changed to «finitely presented»
📌 Я снова здесь!

Прошло много времени с последнего поста. За это время я дождался визы и оказался в США. Теперь хочется снова делиться мыслями, открытиями и, возможно, даже хаотичными размышлениями.

Канал по-прежнему про математику, машинное обучение, топологию и жизнь. Возможно, местами больше жизни, чем математики. Или наоборот.

Как получится в общем 😏
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥19
Братик с соавторами опубликовали мощнейший разбор того, как пучки проникают в машинное обучение! Нейронные пучки, гетерофильные графы и даже оригами - все есть! 🔥
22😍2
Forwarded from Math and ML stuff
Claude 3.7? Open AI? Редкоземельный литий? А может быть лучше..117 страничный обзор на приложения нейро-пучков? 🟣

В работе Sheaf theory: from deep geometry to deep learning представлен обзор на пучки (sheaf), начиная с описания математического аппарата, заканчивая приложениями в логике, лингвистике, дизайну алгоритмов, и в анализе данных, особенно для проектирования нейронных сетей.

Topology-fan or ML-enjoyer?

Мета-задача работы
: Сделать математический аппарат теории пучков понятным для заинтересованных, но искушенных CS/AI исследователей 🕸, при этом показать алгебраическим геометрам/топологам 🤓, что их конструкции практически применимы в сельском хозяйстве (stalks).

Что такое Пучки? В общем случае, это способ сопоставить геометрическому объекту G категорию V (конечных множеств, векторных пространств итд). На практике, это нужно для того, чтобы погрузить структуру G в более удобную среду, способную представлять и обрабатывать сигналы, используя всё "вычислительное богатство" категории V для описания G.

Утверждение: Пучки - способ алгебраизации геометрии.

Когда мы работаем с реальными данными, мы хотим найти наилучшую геометрическую структуру для их кодирования, чтобы запускать поверх этой структуры нейронки и извлекать эмбеддинги. Простые отношения кодируются графами, однако уже давно понятно, что для более сложных данных это слишком бедная структура, и нужно кодировать данные гиперграфами, клеточными, комбинаторными, симплициальными комплексами, итд. Этот нарратив лежит в основе Topological deep learning. Все перечисленные структуры эффективно кодируются наиболее общей - частично-упорядоченным множеством poset, далее просто S(G).

Абстрактное определение пучка D: Это функтор из категории S в целевую категорию V (для задач ML, векторных пространств). Для s_1 \in S, есть элемент D(s_1) \in V, называемый stalk (росток) и для s_1 < s_2 (где < отношение порядка) мы имеем отображения D(s_1) 📝 D(s_2), называемые restriction map. Для формальной корректности этого определения нужно выполнение еще некоторых условий, подробнее в работе.

Частный случай: для графа G: пучок D(G) определяется как: векторные пространства над вершинами V_n, ребрами V_e, а также линейные отображения из вершин в ребра, обозначим как F_v,e отображение из вершины v в ребро e. Операторы F образуют Лапласиан пучка L (обобщение классического лапласиана для графа).

Определим глобальное сечение: для вершин v и w на концах ребра e, выбираем такие состояния x_v, x_w \in D(G) , что F_ve = F_we (local state), делаем такой выбор состояний для всех вершин. Множество этих состояний T кодирует глобальное "равновесное" состояние системы (global).

Утверждение: Пучки реализуют концептуальный фрейморк и философию "local-to-global'. Локальный консенсус приводит к глобальному равновесию.

Этот взгляд используется как дизайн-паттерн некоторых классических алгоритмов, например в работе A sheaf-theoretic approach to pattern matching and related problems классический алгоритм Кнута–Морриса–Пратта для строк переговаривается через этот фреймворк и сводит к задаче сабграф-матчинга.

Процесс поиска состояния равновесия T очень важен для приложений. Частный случай его поиска это диффузия пучка - динамическая система, градиентный спуск по функции энергии Дирихле, которая измеряет на сколько далеко текущее состояние системы от состояния равновесия, а скорость сходимости диффузии пучка определяется спектром его Лапласиана. И в целом характеристики Лапласиана могут много говорить про свойства геометрической структуры S. Важно подчеркнуть, что нарратив про диффузию это только частный случай, как можно работать с пучками, реально же пучки это намного больше, чем просто история про графы.

Далее, мы обсудим приложения пучков.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3👍21