Forwarded from Center for Cognitive Modeling
Оплачиваемая стажировка в Центре когнитивного моделирования ФПМИ МФТИ предполагает работу над прикладными или поисковыми проектами в составе опытной команды, написание статей в ведущие конференции и журналы.
Стажировка проходит в рамках одного из направлений:
— Планирование поведения воплощенных агентов с помощью больших языковых моделей
— Обучение с подкреплением на основе трансформерных архитектур с памятью
— Обнаружение, сегментация, трекинг и прогнозирование траектории движения 3D-объектов по данным камер и радаров
— Построение трехмерных семантических и мультимодальных карт местности
— Определение позы и одометрии робота по изображениям его RGB-D камер
В процессе вашей работы вы сможете погрузиться в:
— Разработку новых SOTA алгоритмов
— Написание публикаций и участие в международных конференциях со своими результатами
— Cовременные проблемы внедрения передовых методов искусственного интеллекта для решения практических задач
Стажировку можно совмещать с написанием вашего бакалаврского или магистерского диплома. После успешного окончания стажировки возможно трудоустройство в лаборатории Центра, поступление в магистратуру и аспирантуру, продолжение работы в компаниях партнерах.
Для заявки достаточно заполнить анкету
Вопросы можно задать нам в сообщениях или по почте: [email protected], @rvainberg
Подробнее читайте на сайте
#стажировка #CV #RL #LLM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6💩3🫡2👍1👎1
Forwarded from Center for Cognitive Modeling
🎓 — Семинар 24. Recurrent Action Transformer with Memory (RATE) - Трансформерная архитектура с памятью для решения задач offline RL | Егор Черепанов
В последнее время использование трансформерных архитектур в обучении с подкреплением вызывает все больше внимания. Это связано с их способностью рассматривать траекторию движения агента в среде как последовательность, что сводит проблему обучения к моделированию последовательности.
В средах, где решения агента зависят от событий из прошлого, очень важно отразить как само событие, так и момент принятия решения в контексте модели, однако квадратичная сложность механизма внимания ограничивает возможности расширения контекста.
Для решения этой проблемы вводится понятие "эффективного контекста", получаемого с использованием механизмов памяти. В докладе будет описан данный подход и приведены результаты экспериментов на средах с памятью с использованием RATE.
📹 Трансляция Youtube
Подключайтесь к живому обсуждению и задавайте вопросы в прямом эфире! Ждем всех!
#семинары #RL
В последнее время использование трансформерных архитектур в обучении с подкреплением вызывает все больше внимания. Это связано с их способностью рассматривать траекторию движения агента в среде как последовательность, что сводит проблему обучения к моделированию последовательности.
В средах, где решения агента зависят от событий из прошлого, очень важно отразить как само событие, так и момент принятия решения в контексте модели, однако квадратичная сложность механизма внимания ограничивает возможности расширения контекста.
Для решения этой проблемы вводится понятие "эффективного контекста", получаемого с использованием механизмов памяти. В докладе будет описан данный подход и приведены результаты экспериментов на средах с памятью с использованием RATE.
📹 Трансляция Youtube
Подключайтесь к живому обсуждению и задавайте вопросы в прямом эфире! Ждем всех!
#семинары #RL
❤5
Forwarded from Center for Cognitive Modeling
🎓 — Семинар 34. Обзор конференции ICLR | Александр Панов, Алексей Ковалёв, Алексей Скрынник, Леонид Угадяров
С 7 по 11 мая в Вене (Австрия) прошла конференция ICLR, которая является одной из ключевых конференций в области глубокого обучения и искусственного интеллекта в целом.
В этом году на конференции были представлены две работы, авторами которых являются сотрудники Центра: первая про эффективные объектно-центричные модели SMM, а также работа про активное обучения для поиска конформаций молекул GOLF.
Доклад на семинаре будет посвящён обзору конференции, а также обсуждению статей, вызвавших интерес у докладчиков.
📹 Трансляция Youtube
Подключайтесь к живому обсуждению и задавайте вопросы в прямом эфире!
Ждем всех!
#семинары #конференции #RL #DL
С 7 по 11 мая в Вене (Австрия) прошла конференция ICLR, которая является одной из ключевых конференций в области глубокого обучения и искусственного интеллекта в целом.
В этом году на конференции были представлены две работы, авторами которых являются сотрудники Центра: первая про эффективные объектно-центричные модели SMM, а также работа про активное обучения для поиска конформаций молекул GOLF.
Доклад на семинаре будет посвящён обзору конференции, а также обсуждению статей, вызвавших интерес у докладчиков.
📹 Трансляция Youtube
Подключайтесь к живому обсуждению и задавайте вопросы в прямом эфире!
Ждем всех!
#семинары #конференции #RL #DL
🔥6👎1🥰1
Forwarded from Center for Cognitive Modeling
🎓 — Семинар 35. Object-Centric Dreamer | Леонид Угадяров
В докладе будет рассмотрен разработанный алгоритм обучения с подкреплением Object-Centric Dreamer, где модель среды реализована с помощью новой объектно-центрированной модели пространства состояний Object-Centric RSSM на основе графового варианта рекуррентного блока GRU.
📹 Трансляция Youtube
Подключайтесь к живому обсуждению и задавайте вопросы в прямом эфире! Ждем всех!
#семинары #RL
В докладе будет рассмотрен разработанный алгоритм обучения с подкреплением Object-Centric Dreamer, где модель среды реализована с помощью новой объектно-центрированной модели пространства состояний Object-Centric RSSM на основе графового варианта рекуррентного блока GRU.
📹 Трансляция Youtube
Подключайтесь к живому обсуждению и задавайте вопросы в прямом эфире! Ждем всех!
#семинары #RL
👍1
Forwarded from Center for Cognitive Modeling
🎓 — Семинар 14. Transformer-based online RL | Никита Качаев, Даниил Зелезецкий
Трансформерные модели показали прорывные результаты в различных областях машинного обучения благодаря способности учитывать длительные временные зависимости и эффективно масштабироваться, что делает их применение перспективными для обучения с подкреплением. В задачах RL трансформеры способны улучшить способность агента к памяти, генерализацию и принятие решений на основе долгосрочной истории взаимодействий
Однако внедрение трансформеров в RL сталкивается с рядом трудностей. Среди главных вызовов — нестабильность обучения, сложность оптимизации и высокая вычислительная стоимость. В докладе будет рассмотрен текущий прогресс в использовании трансформерных моделей для задач онлайн обучения с подкреплением и сделан обзор работ по on-policy/off-policy методам. Обсуждение охватит ключевые преимущества а также ограничения применения трансформерных моделей в онлайн RL
👉🏻 Дата: 12.12.24, четверг в 17:00
📹 Трансляция Youtube
Подключайтесь к живому обсуждению и задавайте вопросы в прямом эфире! Ждем всех!
#семинары #transformers #RL
Трансформерные модели показали прорывные результаты в различных областях машинного обучения благодаря способности учитывать длительные временные зависимости и эффективно масштабироваться, что делает их применение перспективными для обучения с подкреплением. В задачах RL трансформеры способны улучшить способность агента к памяти, генерализацию и принятие решений на основе долгосрочной истории взаимодействий
Однако внедрение трансформеров в RL сталкивается с рядом трудностей. Среди главных вызовов — нестабильность обучения, сложность оптимизации и высокая вычислительная стоимость. В докладе будет рассмотрен текущий прогресс в использовании трансформерных моделей для задач онлайн обучения с подкреплением и сделан обзор работ по on-policy/off-policy методам. Обсуждение охватит ключевые преимущества а также ограничения применения трансформерных моделей в онлайн RL
👉🏻 Дата: 12.12.24, четверг в 17:00
📹 Трансляция Youtube
Подключайтесь к живому обсуждению и задавайте вопросы в прямом эфире! Ждем всех!
#семинары #transformers #RL
🔥5🫡2
Forwarded from Center for Cognitive Modeling
🎓 — Семинар 30. Роль памяти в обучении с подкреплением: определение, реализация и оценка | Егор Черепанов
Наличие памяти у RL-агентов всё чаще рассматривается как необходимое условие для успешного решения сложных задач. Методы интеграции памяти в архитектуры агентов активно развиваются. Но что именно следует считать памятью, как её формализовать и как оценивать?
На семинаре будет представлена систематизация типов памяти и классов задач, требующих её использования.
Так же Егор рассмотрит подходы к реализации памяти и бенчмарки, предназначенные для оценки эффективности соответствующих механизмов в RL, включая новый бенчмарк MIKASA-Robo, предназначенный для тестирования памяти робота в задачах настольной манипуляции.
Статьи:
https://arxiv.org/abs/2412.06531
https://arxiv.org/abs/2502.10550
https://arxiv.org/abs/2306.09459
👉🏻 Дата: 05.06.25, четверг в 17:00
📹 Трансляция Youtube или ВК
Подключайтесь к живому обсуждению и задавайте вопросы в прямом эфире! Ждем всех!
#семинары #RL #agents
Наличие памяти у RL-агентов всё чаще рассматривается как необходимое условие для успешного решения сложных задач. Методы интеграции памяти в архитектуры агентов активно развиваются. Но что именно следует считать памятью, как её формализовать и как оценивать?
На семинаре будет представлена систематизация типов памяти и классов задач, требующих её использования.
Так же Егор рассмотрит подходы к реализации памяти и бенчмарки, предназначенные для оценки эффективности соответствующих механизмов в RL, включая новый бенчмарк MIKASA-Robo, предназначенный для тестирования памяти робота в задачах настольной манипуляции.
Статьи:
https://arxiv.org/abs/2412.06531
https://arxiv.org/abs/2502.10550
https://arxiv.org/abs/2306.09459
👉🏻 Дата: 05.06.25, четверг в 17:00
📹 Трансляция Youtube или ВК
Подключайтесь к живому обсуждению и задавайте вопросы в прямом эфире! Ждем всех!
#семинары #RL #agents
🔥10👍3