Forwarded from Math and ML stuff
Недавно прошла ICLR 2024. Собрал запоминающиеся и важные статьи по интересным мне темам.
Knowledge Graph Reasoning and Question Answering - рассуждение и генерация ответов на графах знаний.
1. Reasoning on Graphs: Faithful and Interpretable Large Language Model Reasoning - ответим на вопрос "Кто ребенок Алисы?". Сначала на стадии планирования генерируем LLMкой путь отношений z = {marry to → father of}, затем накладываем его на граф знаний wz = (Alice) marry to → (Bob) father of → (Charlie), из структуры графа получаем ответ Charlie. Т.е. в каком-то смысле паттерн-матчинг. LLM знает про структуру графа и через Planning optimization учится создавать все более релевантные пути отношений.
LLM и все, что в них обитает:
1. Unveiling the Pitfalls of Knowledge Editing for Large Language Models - авторы исследуют проблемы, возникающие в процессе редактирования знаний внутри LLM, более подробно в прошлом посте. Из-за запутанной структуры знаний внутри LLM после редактирования появляются необратимые изменения (метастазы), отражающиеся на множество других сопряженных знаний. Даже если измененный факт отредактировать обратно, то на последствия исходного изменения это не повлияет. Еще рассматриваются логические противоречивые хирургий знаний и их следствия. Тема очень важная в контексте Safety AI.
2. The Geometry of Truth: Emergent Linear Structure in Large Language Model Representations of True/False Datasets - геометрия правды и лжи. По моему мнению, самая интересная статья на конфе. Авторы показывают, что истинные и ложные утверждения образуют разделимые линейные структуры во внутренних представлениях LLM
World Modeling - задача изучения богатого представления, которое учитывает динамику среды, что позволяет агенту прогнозировать будущие состояния и последствия своих действий. Классическое поле тестирования агентов - Minecraft.
1. Mastering Memory Tasks with World Models - продолжение и развитие идеи DreamerV3, В Статье улучшает структуру памяти агента из DreamerV3 и позволяет учитывать более долгосрочные зависимости в Модели Мира, может предсказывать на большее кол-во шагов вперед.
На свободную тематику:
1. Talk like a graph: Encoding graphs for large language models - идея крайне простая, но любопытная: как можно энкодить графы внутрь LLM? Спойлер: если в промпте граф описываешь не просто перечислением вершин и ребер: "G граф с нодами 0...8, и ребрами: (0,1),(0,2)…(7,8).", а через структуру отношений в терминах Игры Престолов: "G граф взаимоотношений разных персонажей Ned, Cat, Daenerys...Jaime. В этом графе: Ned and Cat дружат...Cersei and Jaime дружат.", то LLM лучше воспринимает граф, и может больше про него сказать всякой чисто графовой инфы, типа сколько компонент связности, какая степень вершины итд. Всего Тестировалось 9 способов промптить граф.
2. Interpreting CLIP's Image Representation via Text-Based Decomposition - интерпретация внутренней структуры ViT из CLIP. Авторы определяют, какая голова ViT за какой смысловой аспект отвечает. То, что на головах происходит диверсефикация фичей, т.е. разные головы смотрят на разные объекты и уровни абстракции - это известно еще со статьи, где саму архитектуру ViT предлагали, но в данной работе конкретизируется, какая голова отвечает за форму, какая за цвета, итд. Статья - существенный вклад в explainable AI.
3. ULTRA Towards Foundation Models for Knowledge Graph Reasoning - предлагается архитектура фундаментальной модели GNN. Более подробно в этом посте.
4. Neural Network Expressive Power Analysis Via Manifold Topology - оценивается верхняя граница длины FC сети в терминах топологической сложности (сумма чисел Бетти) обучающих данных. В статье все строго доказывается, и это была бы очень хорошая работа, если бы не ограничение на размерность многообразия = 3, но мб это хороший старт для обобщения на произвольную размерность. Ну и все оценки, завязанные на сумму чисел Бетти для облаков точек тоже достаточно спекулятивные. Статья реджектнута.
Knowledge Graph Reasoning and Question Answering - рассуждение и генерация ответов на графах знаний.
1. Reasoning on Graphs: Faithful and Interpretable Large Language Model Reasoning - ответим на вопрос "Кто ребенок Алисы?". Сначала на стадии планирования генерируем LLMкой путь отношений z = {marry to → father of}, затем накладываем его на граф знаний wz = (Alice) marry to → (Bob) father of → (Charlie), из структуры графа получаем ответ Charlie. Т.е. в каком-то смысле паттерн-матчинг. LLM знает про структуру графа и через Planning optimization учится создавать все более релевантные пути отношений.
LLM и все, что в них обитает:
1. Unveiling the Pitfalls of Knowledge Editing for Large Language Models - авторы исследуют проблемы, возникающие в процессе редактирования знаний внутри LLM, более подробно в прошлом посте. Из-за запутанной структуры знаний внутри LLM после редактирования появляются необратимые изменения (метастазы), отражающиеся на множество других сопряженных знаний. Даже если измененный факт отредактировать обратно, то на последствия исходного изменения это не повлияет. Еще рассматриваются логические противоречивые хирургий знаний и их следствия. Тема очень важная в контексте Safety AI.
2. The Geometry of Truth: Emergent Linear Structure in Large Language Model Representations of True/False Datasets - геометрия правды и лжи. По моему мнению, самая интересная статья на конфе. Авторы показывают, что истинные и ложные утверждения образуют разделимые линейные структуры во внутренних представлениях LLM
World Modeling - задача изучения богатого представления, которое учитывает динамику среды, что позволяет агенту прогнозировать будущие состояния и последствия своих действий. Классическое поле тестирования агентов - Minecraft.
1. Mastering Memory Tasks with World Models - продолжение и развитие идеи DreamerV3, В Статье улучшает структуру памяти агента из DreamerV3 и позволяет учитывать более долгосрочные зависимости в Модели Мира, может предсказывать на большее кол-во шагов вперед.
На свободную тематику:
1. Talk like a graph: Encoding graphs for large language models - идея крайне простая, но любопытная: как можно энкодить графы внутрь LLM? Спойлер: если в промпте граф описываешь не просто перечислением вершин и ребер: "G граф с нодами 0...8, и ребрами: (0,1),(0,2)…(7,8).", а через структуру отношений в терминах Игры Престолов: "G граф взаимоотношений разных персонажей Ned, Cat, Daenerys...Jaime. В этом графе: Ned and Cat дружат...Cersei and Jaime дружат.", то LLM лучше воспринимает граф, и может больше про него сказать всякой чисто графовой инфы, типа сколько компонент связности, какая степень вершины итд. Всего Тестировалось 9 способов промптить граф.
2. Interpreting CLIP's Image Representation via Text-Based Decomposition - интерпретация внутренней структуры ViT из CLIP. Авторы определяют, какая голова ViT за какой смысловой аспект отвечает. То, что на головах происходит диверсефикация фичей, т.е. разные головы смотрят на разные объекты и уровни абстракции - это известно еще со статьи, где саму архитектуру ViT предлагали, но в данной работе конкретизируется, какая голова отвечает за форму, какая за цвета, итд. Статья - существенный вклад в explainable AI.
3. ULTRA Towards Foundation Models for Knowledge Graph Reasoning - предлагается архитектура фундаментальной модели GNN. Более подробно в этом посте.
4. Neural Network Expressive Power Analysis Via Manifold Topology - оценивается верхняя граница длины FC сети в терминах топологической сложности (сумма чисел Бетти) обучающих данных. В статье все строго доказывается, и это была бы очень хорошая работа, если бы не ограничение на размерность многообразия = 3, но мб это хороший старт для обобщения на произвольную размерность. Ну и все оценки, завязанные на сумму чисел Бетти для облаков точек тоже достаточно спекулятивные. Статья реджектнута.
👍3⚡1
Год назад я писал, что поступил в University of Texas Rio Grande Valley: это такой университет в Техасе, рядом: граница с Мексикой, SpaceX Starbase и море, где зима - это когда вместо 25+ градусов, всего лишь 15. После этого я писал про наши мероприятия в Воронеже и все такое. Так что же у меня с Америкой?
В августе мое трехмесячное пребывание в Хуавее окончилось. Мне предложили продлить контракт, но тогда я бы не успел уволиться, чтобы, при положительном решении по визе, я мог улететь в Техас. Поэтому было решено контракт не продлевать. Я доработал в Хуавее, уволился, и начал готовиться: покупать билеты в Астану (я записался в посольство именно туда), прорабатывать ответы на типичные вопросы и все в таком духе.
Поездка в Астану получилась интересной: мы с Сашей там были неделю, и это была наша первая совместная поездка за границу. Контрастный город, уже миллионник, выросший в численности за последние 15-20 лет.
Само собеседование прошло утром, и уже днем я направлялся обратно в отель. В результате относительно долгого разговора с офицером, меня направили на административную проверку: мне нужно было дослать часть документов и ждать. Документы я дослал в тот же день вечером, а жду ответа я до сих пор, уже больше 9 месяцев. Письма в посольство с просьбой уже хоть как-то решить мое дело не помогают: мне либо говорят, чтобы я еще ждал, либо просто игнорируют. Забавно, что мне предложили даже оставить у них свой паспорт на время административной проверки, и как хорошо, что я решил этого не делать.
Так что вместо Техаса, я уже почти год как являюсь аспирантом в ИППИ.
В августе мое трехмесячное пребывание в Хуавее окончилось. Мне предложили продлить контракт, но тогда я бы не успел уволиться, чтобы, при положительном решении по визе, я мог улететь в Техас. Поэтому было решено контракт не продлевать. Я доработал в Хуавее, уволился, и начал готовиться: покупать билеты в Астану (я записался в посольство именно туда), прорабатывать ответы на типичные вопросы и все в таком духе.
Поездка в Астану получилась интересной: мы с Сашей там были неделю, и это была наша первая совместная поездка за границу. Контрастный город, уже миллионник, выросший в численности за последние 15-20 лет.
Само собеседование прошло утром, и уже днем я направлялся обратно в отель. В результате относительно долгого разговора с офицером, меня направили на административную проверку: мне нужно было дослать часть документов и ждать. Документы я дослал в тот же день вечером, а жду ответа я до сих пор, уже больше 9 месяцев. Письма в посольство с просьбой уже хоть как-то решить мое дело не помогают: мне либо говорят, чтобы я еще ждал, либо просто игнорируют. Забавно, что мне предложили даже оставить у них свой паспорт на время административной проверки, и как хорошо, что я решил этого не делать.
Так что вместо Техаса, я уже почти год как являюсь аспирантом в ИППИ.
❤🔥8❤1
Forwarded from T-Invariant: медиа ученых
❗Математическое отделение ИППИ РАН уйдет в Физтех. Конфликт в Институте проблем передачи информации им. А.А.Харкевича привел к развалу уникального и успешного академического института
НАСТОЯЩИЙ МАТЕРИАЛ ПРОИЗВЕДЕН, РАСПРОСТРАНЕН И НАПРАВЛЕН ИНОСТРАННЫМ АГЕНТОМ T-INVARIANT, ЛИБО КАСАЕТСЯ ДЕЯТЕЛЬНОСТИ ИНОСТРАННОГО АГЕНТА T-INVARIANT. 18+
Конфликт между трудовым коллективом и новой администрацией в Институте проблем передачи информации им. А.А.Харкевича, о котором мы неоднократно писали, привел к развалу уникального и успешного академического института.
▶ Что произошло?
Ректор МФТИ Дмитрий Ливанов объявил о создании нового подразделения в МФТИ, которое возглавит бывший директор ИППИ Андрей Соболевский. В нем будет работать значительная часть сотрудников математического отделения ИППИ. Научным руководителем этого подразделения станет Михаил Цфасман, руководитель лаборатории алгебры и теории чисел в ИППИ.
Новая структура будет называться «Высшей школой современной математики МФТИ».
▶ Конфликт в ИППИ
Конфликт возник между учеными и новой дирекцией института. Вот как комментировал это сотрудник ИППИ Александр Панчин:
Месяц назад из ИППИ уволили одного из ключевых сотрудников, заведующего Учебно-научным центром «Биоинформатика» Михаила Гельфанда. Более десятка сотрудников уволились по собственному желанию.
Ранее сотрудники предупреждали Дениса Секиринского, замминистра, курирующего академические институты, что в случае, если в институте оставят навязанного коллективу Максима Федорова, лаборатории начнут искать возможность уйти в другие организации с более компетентными руководителями.
Подробнее читайте на нашем сайте.
НАСТОЯЩИЙ МАТЕРИАЛ ПРОИЗВЕДЕН, РАСПРОСТРАНЕН И НАПРАВЛЕН ИНОСТРАННЫМ АГЕНТОМ T-INVARIANT, ЛИБО КАСАЕТСЯ ДЕЯТЕЛЬНОСТИ ИНОСТРАННОГО АГЕНТА T-INVARIANT. 18+
Конфликт между трудовым коллективом и новой администрацией в Институте проблем передачи информации им. А.А.Харкевича, о котором мы неоднократно писали, привел к развалу уникального и успешного академического института.
▶ Что произошло?
Ректор МФТИ Дмитрий Ливанов объявил о создании нового подразделения в МФТИ, которое возглавит бывший директор ИППИ Андрей Соболевский. В нем будет работать значительная часть сотрудников математического отделения ИППИ. Научным руководителем этого подразделения станет Михаил Цфасман, руководитель лаборатории алгебры и теории чисел в ИППИ.
Новая структура будет называться «Высшей школой современной математики МФТИ».
▶ Конфликт в ИППИ
Конфликт возник между учеными и новой дирекцией института. Вот как комментировал это сотрудник ИППИ Александр Панчин:
Не ожидал, что от ученых с мировым именем будут требовать не качественных научных публикаций, а «лояльности», в жертву которой будут принесены целые научные направления и лаборатории. Дошло даже до того, что дирекция подала в суд на собственный ученый совет и не скрывает, что наказала ряд сотрудников за нелояльность. Как нам объяснили: «страна меняется».
Месяц назад из ИППИ уволили одного из ключевых сотрудников, заведующего Учебно-научным центром «Биоинформатика» Михаила Гельфанда. Более десятка сотрудников уволились по собственному желанию.
Ранее сотрудники предупреждали Дениса Секиринского, замминистра, курирующего академические институты, что в случае, если в институте оставят навязанного коллективу Максима Федорова, лаборатории начнут искать возможность уйти в другие организации с более компетентными руководителями.
Подробнее читайте на нашем сайте.
🤯2
T-Invariant: медиа ученых
❗Математическое отделение ИППИ РАН уйдет в Физтех. Конфликт в Институте проблем передачи информации им. А.А.Харкевича привел к развалу уникального и успешного академического института НАСТОЯЩИЙ МАТЕРИАЛ ПРОИЗВЕДЕН, РАСПРОСТРАНЕН И НАПРАВЛЕН ИНОСТРАННЫМ АГЕНТОМ…
Борьба с фейками момент: нет ни одного подтверждения этому: нет ни заявления Ливанова о создании "высшей школы", ни заявлений на увольнение в отделе кадров ИППИ ...
Следим за событиями дальше 🤓
Следим за событиями дальше 🤓
Forwarded from воспоминания математиков
Мне кажется, детей надо обучать созвездиям раньше, чем грамоте и счету (оно и легче), наряду с обучением отличию березы от дуба. В юности я договорился с любимой, что мы всегда будем думать друг о друге, глядя на звезду Гемму (альфу Северной Короны). Надеюсь, что с тех пор она обучила находить Гемму своих троих детей, теперь уже взрослых.
воспоминания В.И. Арнольда («Истории давние и недавние»)
воспоминания В.И. Арнольда («Истории давние и недавние»)
❤1
finitely presented
Год назад я писал, что поступил в University of Texas Rio Grande Valley: это такой университет в Техасе, рядом: граница с Мексикой, SpaceX Starbase и море, где зима - это когда вместо 25+ градусов, всего лишь 15. После этого я писал про наши мероприятия в…
На Америке мои неудачи с визой не заканчиваются: две недели назад, в среду, мне пришло письмо, что меня берут на школу LOGML Summer School 2024 - это такая оч крутая школа в Лондоне по геометрии в машинном обучении. Вообще письма с приглашениями на школу приходили всем еще в конце февраля, но тогда мне пришел отказ, и только лишь недавно одно из мест освободилось.
На радостях, я тут же начал узнавать, что надо делать для получения визы. Мои друзья, кто также попал на эту школу, мне сразу сказали, что времени у меня немного. И действительно, в данный момент, твою заявку рассматривают 6-7 недель. Дата старта школы - 8 июля, и чтобы я смог на нее попасть, мне нужно было бы подавать заявку когда я только получил инвайт.
Несмотря на это, я все равно решил записаться. Заполнил заявление, оплатил сбор, но ближайшая свободная дата - это 10 июля, что, конечно, уж совсем поздно. Но в Визовом Центре в UK действует т.н. Flexi Appointment. Когда сотрудник ВЦ освобождается, и у него есть свободное время, он может принять в порядке живой очереди посетителей. Но таких посетителей приглашают по почте на какой-то конкретный день, тоже, конечно, в порядке очереди. Я узнал в ВЦ, что даже по ней можно рассчитывать на запись на неделю-две вперед. Что конечно лучше, чем идти 10 июля, но в моем случае тоже плохо.
Я записался на эту живую очередь, осознавая, что шансов у меня почти нет. Так как все это проходило в течение 1-2 суток, я спешил сделать все как можно быстрее, но когда уже все, что можно было сделать, было сделано, пришла пора думать. Подумав (о том, что я вероятно получу отказ в визе, связанный с тем, что я просто уже не успеваю по срокам на школу, и о том, что набирать в паспорте отказы по визе очень не хочется), я в итоге отменил заявку. Все-таки получить визу в UK за месяц, увы, нереально. Я описал всю ситуацию организаторам и получил ответ, что хоть и не будет онлайн-варианта проектной работы, но они постараются наладить лайвстримминг докладов. Ну хоть так, конечно, но за (очередную) ситуацию с визой мне обидно(
На радостях, я тут же начал узнавать, что надо делать для получения визы. Мои друзья, кто также попал на эту школу, мне сразу сказали, что времени у меня немного. И действительно, в данный момент, твою заявку рассматривают 6-7 недель. Дата старта школы - 8 июля, и чтобы я смог на нее попасть, мне нужно было бы подавать заявку когда я только получил инвайт.
Несмотря на это, я все равно решил записаться. Заполнил заявление, оплатил сбор, но ближайшая свободная дата - это 10 июля, что, конечно, уж совсем поздно. Но в Визовом Центре в UK действует т.н. Flexi Appointment. Когда сотрудник ВЦ освобождается, и у него есть свободное время, он может принять в порядке живой очереди посетителей. Но таких посетителей приглашают по почте на какой-то конкретный день, тоже, конечно, в порядке очереди. Я узнал в ВЦ, что даже по ней можно рассчитывать на запись на неделю-две вперед. Что конечно лучше, чем идти 10 июля, но в моем случае тоже плохо.
Я записался на эту живую очередь, осознавая, что шансов у меня почти нет. Так как все это проходило в течение 1-2 суток, я спешил сделать все как можно быстрее, но когда уже все, что можно было сделать, было сделано, пришла пора думать. Подумав (о том, что я вероятно получу отказ в визе, связанный с тем, что я просто уже не успеваю по срокам на школу, и о том, что набирать в паспорте отказы по визе очень не хочется), я в итоге отменил заявку. Все-таки получить визу в UK за месяц, увы, нереально. Я описал всю ситуацию организаторам и получил ответ, что хоть и не будет онлайн-варианта проектной работы, но они постараются наладить лайвстримминг докладов. Ну хоть так, конечно, но за (очередную) ситуацию с визой мне обидно(
www.logml.ai
LOGML 2025
London Geometry and Machine Learning Summer School, July 7-11 2025
😢16🥴2😱1
Я ее уже оч давно хотел перевести (ну и перерисовать), но все откладывал ...
Но если под этим постом будет 10 тысяч лайков, то я это таки сделаю
Но если под этим постом будет 10 тысяч лайков, то я это таки сделаю
❤8🙏4😁1🐳1🤨1
Forwarded from Непрерывное математическое образование
https://www.3blue1brown.com/blog/exact-sequence-picturebook
Ravi Vakil. Puzzling through exact sequences (A Bedtime Story with Pictures)
«Such topics rarely get bedtime stories, or strong visuals, which is part of what makes this such a gem. Enjoy!»
Ravi Vakil. Puzzling through exact sequences (A Bedtime Story with Pictures)
«Such topics rarely get bedtime stories, or strong visuals, which is part of what makes this such a gem. Enjoy!»
❤4
Forwarded from Math and ML stuff
В середине июля в Лондоне прошла летняя школа, для аспирантов и пост-доков - LOGML (London Geometry and Machine Learning). Тематика школы - применение методов геометрии и топологии в глубинном обучении, организатор Imperial College London. В 2021 и 2022 годах она была онлайн, в этом году все сделали очно. Направление школы идеально совпадает с темой моей диссертации, я участвовал в школе во все прошлые итерации, и в этот раз решил провести незабываемую неделю в Лондоне, работая над релевантным мне проектом. Структура школы включает лекции приглашенных спикеров, командные работы над проектами под руководством менторов (профессора, постдоки) и презентации результатов, всё мероприятие проходило в самом Imperial College. Из интересных, запомнившихся проектов были следующие:
Stability or Collapse: Topological Properties of Deep Autoencoders (2021) - применения ТДА для исследования внутренних представлений автоэнкодеров
Pretraining GNN with ELECTRA (2021) - предварительное обучение GNN для задач хим-информатики, но с применением техники предобучения ELECTRA, используемой в NLP
Platonic CNNs (2021) - применение CNN для сигналов со сложной геометрической структурой, например климатические особенности на поверхности Земли (сфере, которую предлагается приблизить икосаэдром - получается архитектура Icosahedral CNNs). Platonic - потому что икосаэдр платоническое тело.
Characterizing generalization and adversarial robustness for set networks (2022) - по мотивам этой статьи, ментором был проф Толга Бирдал; проект по улучшению его подхода для предсказания обобщающей способности CNN на основе геометрии траектории пространства весов в процессе обучения. В этом году среди постерной сессии на школе была работа, которая критиковала статью Толги.
Geometric tools for investigating loss landscapes of deep neural networks (2022) - анализ геометрических свойства ландшафта функции потерь
On the Geometry of Relative Representations (2024) - улучшение подхода к вычислению без дополнительного дообучения новых внутренних представлений нейросеток для более эффективного их последующего использования.
Powerful Graph Neural Networks for Relational Databases (2024) - применение GNN для реляционных графов (k-partite graph), построенных по реляционным базам данных.
Self-supervised learning for Topological Neural Networks (2024) - разработка Self-supervised learning режима обучения для топологических GNN (более подробно про них в этом посте). Отдельное подробное описание этого проекта будет у Паши на канале.
Это далеко не полный список проектов. Как правило, по завершению проектов на школе команды пишут статьи. Впечатлений и новых знакомств море, все подавайтесь на след год тоже. Прикладываю фото со школы
Stability or Collapse: Topological Properties of Deep Autoencoders (2021) - применения ТДА для исследования внутренних представлений автоэнкодеров
Pretraining GNN with ELECTRA (2021) - предварительное обучение GNN для задач хим-информатики, но с применением техники предобучения ELECTRA, используемой в NLP
Platonic CNNs (2021) - применение CNN для сигналов со сложной геометрической структурой, например климатические особенности на поверхности Земли (сфере, которую предлагается приблизить икосаэдром - получается архитектура Icosahedral CNNs). Platonic - потому что икосаэдр платоническое тело.
Characterizing generalization and adversarial robustness for set networks (2022) - по мотивам этой статьи, ментором был проф Толга Бирдал; проект по улучшению его подхода для предсказания обобщающей способности CNN на основе геометрии траектории пространства весов в процессе обучения. В этом году среди постерной сессии на школе была работа, которая критиковала статью Толги.
Geometric tools for investigating loss landscapes of deep neural networks (2022) - анализ геометрических свойства ландшафта функции потерь
On the Geometry of Relative Representations (2024) - улучшение подхода к вычислению без дополнительного дообучения новых внутренних представлений нейросеток для более эффективного их последующего использования.
Powerful Graph Neural Networks for Relational Databases (2024) - применение GNN для реляционных графов (k-partite graph), построенных по реляционным базам данных.
Self-supervised learning for Topological Neural Networks (2024) - разработка Self-supervised learning режима обучения для топологических GNN (более подробно про них в этом посте). Отдельное подробное описание этого проекта будет у Паши на канале.
Это далеко не полный список проектов. Как правило, по завершению проектов на школе команды пишут статьи. Впечатлений и новых знакомств море, все подавайтесь на след год тоже. Прикладываю фото со школы
👍3🔥1
Math and ML stuff
В середине июля в Лондоне прошла летняя школа, для аспирантов и пост-доков - LOGML (London Geometry and Machine Learning). Тематика школы - применение методов геометрии и топологии в глубинном обучении, организатор Imperial College London. В 2021 и 2022 годах…
Хоть я и не поехал на школу очно, у меня получилось принять участие удаленно! Конечно, это не то же самое, что и в живую, но это все еще лучше, чем вообще не участвовать. А все потому, что мой Project Instructor порвал связку, и сам не смог прилететь(
В итоге мы с ним сидели в зуме, пока остальная часть нашей команды тусовала в Лондоне. Мой проект был посвящен self-supervised обучению для топологических сеток, а именно адаптации ЖЕПЫ😈 . В общем-то, работа еще идет, так что stay tuned. Забавно, что в рамках проекта пришлось реализовывать лифтинги графов на клеточные комплексы, а это буквально была задача (уже) прошедшего ICML Topological Deep Learning Challenge (еще неизвестны результаты, но как они появятся - я тут же напишу, а пока можно почитать про прошлогодний челлендж, мы с Германом в нем принимали участие, я писал об этом тут).
В целом это был довольно крутой опыт, даже удаленное участие. Почти все лекции спикеров были мне релевантны (я очень ждал лекцию от Kathryn Hess Bellwald: Cochains are all you need, но именно на ней, и только на ней, у организаторов возникли проблемы с микро, так что я довольствовался только слайдами 😢). Из проектов я бы еще отметил проект Mixed Curvature Graph Neural Networks, из презентации которой я узнал про замечательную статью Learning Mixed-Curvature Representations in Products of Model Spaces, где авторы эмбеддят фичи на вершинах графа в произведение многообразий разных кривизн. Кажется это должно быть очень релевантно проекту по группам и машинному обучению, который сейчас делается под руководством Саши Червова и активно обсуждается тут.
В общем, даже в онлайн формате, школа мне дала новые знакомства и интересные идеи. Это было мое первое участие, и очень надеюсь, что не последнее!
В итоге мы с ним сидели в зуме, пока остальная часть нашей команды тусовала в Лондоне. Мой проект был посвящен self-supervised обучению для топологических сеток, а именно адаптации ЖЕПЫ
В целом это был довольно крутой опыт, даже удаленное участие. Почти все лекции спикеров были мне релевантны (я очень ждал лекцию от Kathryn Hess Bellwald: Cochains are all you need, но именно на ней, и только на ней, у организаторов возникли проблемы с микро, так что я довольствовался только слайдами 😢). Из проектов я бы еще отметил проект Mixed Curvature Graph Neural Networks, из презентации которой я узнал про замечательную статью Learning Mixed-Curvature Representations in Products of Model Spaces, где авторы эмбеддят фичи на вершинах графа в произведение многообразий разных кривизн. Кажется это должно быть очень релевантно проекту по группам и машинному обучению, который сейчас делается под руководством Саши Червова и активно обсуждается тут.
В общем, даже в онлайн формате, школа мне дала новые знакомства и интересные идеи. Это было мое первое участие, и очень надеюсь, что не последнее!
arXiv.org
Self-Supervised Learning from Images with a Joint-Embedding...
This paper demonstrates an approach for learning highly semantic image representations without relying on hand-crafted data-augmentations. We introduce the Image-based Joint-Embedding Predictive...
🔥8❤1