Forwarded from Neurohive - Нейронные сети, AI, ML, DL
FAIR опубликовали библиотеку для обработки 3D данных. PyTorch3d предназначен для решения задач компьютерного зрения на 3D данных. Ключевой функционал библиотеки включает в себя: структуру данных для хранения и проведения операций над 3D триангуляционными сетками, трансформации и дифференцируемый рендеринг сеток.
Wall Patch-Based Segmentation in Architectural Floorplans
https://www.academia.edu/22384342/Wall_Patch-Based_Segmentation_in_Architectural_Floorplans?email_work_card=interaction_paper
https://www.academia.edu/22384342/Wall_Patch-Based_Segmentation_in_Architectural_Floorplans?email_work_card=interaction_paper
https://openedu.ru/course/hse/INTRML/?session=spring_2020
Я буду учиться на онлайн-курсе «Основы машинного обучения» (НИУ ВШЭ) на платформе «Открытое образование»
Я буду учиться на онлайн-курсе «Основы машинного обучения» (НИУ ВШЭ) на платформе «Открытое образование»
Forwarded from DL in NLP (nlpcontroller_bot)
Machine Unlearning
Bourtoule et al.
arxiv.org/abs/1912.03817
Два забавных факта:
В эпоху ML ваши данные собирают все. GDPR и его аналоги пытаются контролировать эти процессы и дают вам право удалить данные. Что звучит как здравая и полезная идея.
С другой стороны, современные модели очень хорошо запоминают датасеты, что позволяет потенциально достать из этих самых моделей данные, на которых они были натренированы.
Следовательно, если юзер X запрашивает у компании G удаление его данных, в идеальном мире компания должна не только удалить его из своих БД/текстовых документов/post-it notes/умов своих сотрудников, но и перетренировать все модели, в которых эти данные участвовали. Но когда ваши модели тренируются по несколько дней на десятках GPU, это вообще себе такая идея.
А теперь о статье:
Авторы формализуют задачу разучивания данных и приводят метод SISA (Sharded, Isolated, Sliced, and Aggregated training), который позволяет убирать определённые данные из моделей без их полной перетренировки. Суть метода - шардинг данных и ансаблирование моделей.
Конкретно это решение мне кажется сложным для поддержки, некрасивым и ещё больше усложняющим жизнь разработчкам. Но направление исследований определённо интересное.
Bourtoule et al.
arxiv.org/abs/1912.03817
Два забавных факта:
В эпоху ML ваши данные собирают все. GDPR и его аналоги пытаются контролировать эти процессы и дают вам право удалить данные. Что звучит как здравая и полезная идея.
С другой стороны, современные модели очень хорошо запоминают датасеты, что позволяет потенциально достать из этих самых моделей данные, на которых они были натренированы.
Следовательно, если юзер X запрашивает у компании G удаление его данных, в идеальном мире компания должна не только удалить его из своих БД/текстовых документов/post-it notes/умов своих сотрудников, но и перетренировать все модели, в которых эти данные участвовали. Но когда ваши модели тренируются по несколько дней на десятках GPU, это вообще себе такая идея.
А теперь о статье:
Авторы формализуют задачу разучивания данных и приводят метод SISA (Sharded, Isolated, Sliced, and Aggregated training), который позволяет убирать определённые данные из моделей без их полной перетренировки. Суть метода - шардинг данных и ансаблирование моделей.
Конкретно это решение мне кажется сложным для поддержки, некрасивым и ещё больше усложняющим жизнь разработчкам. Но направление исследований определённо интересное.
ВЕКТОРИЗАЦИЯ_РАСТРОВЫХ_ИЗОБРАЖЕНИЙfile.pdf
495 KB
ВЕКТОРИЗАЦИЯ РАСТРОВЫХ ИЗОБРАЖЕНИЙ
Forwarded from 🐍 PythonGuru — работа и стажировки для программистов
Рекуррентные нейронные сети (RNN) с Keras
Рекуррентные нейронные сети (RNN) — это класс нейронных сетей, которые хороши для моделирования последовательных данных, таких как временные ряды или естественный язык.
#gurupython_интересное
Рекуррентные нейронные сети (RNN) — это класс нейронных сетей, которые хороши для моделирования последовательных данных, таких как временные ряды или естественный язык.
#gurupython_интересное
Telegraph
Рекуррентные нейронные сети (RNN) с Keras
Привет, любитель Python! Перевод руководства по рекуррентным нейросетям с сайта Tensorflow.org. В материале рассматриваются как встроенные возможности Keras/Tensorflow 2.0 по быстрому построению сеток, так и возможности кастомизации слоев и ячеек. Также рассматриваются…