Нейронавт | Нейросети в творчестве
9.5K subscribers
3.68K photos
3.17K videos
40 files
4.13K links
Канал про нейросети в компьютерной графике, в кино и вообще

В папках не участвую

для связи @Neuronauticus
加入频道
This media is not supported in your browser
VIEW IN TELEGRAM
Нейрогенератор лиц с отдельным от личностных деталей внешнего вида контролем мимики. С морфингом лиц, само собой

Controllable 3D Generative Adversarial Face Model via Disentangling Shape and Appearance

Есть код
This media is not supported in your browser
VIEW IN TELEGRAM
Про расшифровку зрительных образов уже было. Теперь подвезли расшифровку мысленной речи.

В запрещенной Meta разработали модель ИИ, которая может декодировать речь на основе неинвазивных записей активности мозга.

На основе трех секунд мозговой активности модель может декодировать соответствующие сегменты речи с точностью до 73% от верхнего предела из словарного запаса в 793 слова, т.е. большую часть слов, которые люди обычно используют в повседневной жизни.

В качестве данных использовали более 150 часов записей 169 здоровых добровольцев, слушавших аудиокниги и изолированные предложения на английском и голландском языках. Короче, у них все получилось, оно работает.
👍2
футболка здорового промт-ниженера
Alexander Dobrokotov
👍2
1034 иллюстрации к Библии, нарисованные #dalle
https://www.openbible.info/labs/ai-bible-art/
🔥1
В недрах Adobe есть сервис Shasta для улучшения качества звука, в частности речи. Пятиминутная демонстрация (второе видео) очень впечатлила меня.

А на первом видео эксперимент с нецелевым использованием - речь стилизовали под пианино.

Доступ к полному функционалу дают по запросу. Видимо, бета.
Без запроса можно залить аудитрек на улучшение, но без какого-либо контроля. Просто залил - скачал.
Архитектура GPT-3 - на сегодняшний день величайшее достижение в генерации текста, но ей уже полтора года, в мире машинного обучения это старость. Похоже, GPT-4 будет уметь не только в текст, но во все остальное
👍2
❗️OpenAI начало обучать GPT-4. Обучение будет закончено через пару месяцев

Сказать больше не могу, чтобы не подставлять.. Но что стоит знать:

— Огромное количество параметров
— Спарс парадигма
— Стоимость обучения ~ $.e6
— Text, audio-vqvae, image-vqvae (возможно и видео) токены в одном потоке
— SOTA в огромном количестве задач! Особенно значимые результаты в мультимодальном домене.
— Релизное окно: Декабрь-Февраль

p.s.: откуда инфа? ..оттуда. доверяю ли я ей сам? ну в чём-то да, в чём-то нет. мое дело рассказать, ваше — отказаться

@мишин лернинг
👍1🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Нет, это не заурядная генерация Disco Diffusion как вам могло показаться. Это сцена из будущего фильма Соль, который Фабиан Штельцер намерен сгенерировать при помощи исключительно нейросетей. Штельцер собирается стать "первопроходцем". И если это у него получится, то только потому что мы с вами не генерим нечего с мало-мальским сюжетом, на что можно было бы навесить ярлык "фильм" и отправить на фестиваль
2
Открыт набор на бесплатный курс по Deep Learning.
Обучение на платформе Stepik с домашками, обратной связью и сертификатом. И все это, еще раз, бесплатно.
Набор продлится до 18 сентября. Кто не успел, тот опоздал
Forwarded from DLStories
А мы наконец открываем набор на осенний семестр школы глубокого обучения Deep Learning School!
#learning

DLschool — это школа при ФПМИ МФТИ, где мы учим нейронным сетям с самых азов до продвинутого уровня. Полный курс состоит из двух частей, каждая из которых длится полгода.
- Первая часть посвящена введению в нейросети и компьютерному зрению. Начинаем мы с языка Python и необходимой математики для понимания нейросетей, переходим к основам машинного обучения и обработки картинок, заканчиваем переносом стиля изображений и ГАНами.
- Вторая часть полностью посвящена темам NLP и обработки звука.

Две части курса можно проходить независимо. Можно пройти только первую часть или только вторую. Но обратите внимание, что для прохождения второй части нужно знать Python, понимать математику и основы нейросетей, о которых мы рассказываем в первой части курса.

Особенность нашей школы в том, что мы даем много практики (теория при этом тоже есть, разумеется, и немало). Вам предстоит много практических домашних заданий и самостоятельный итоговый проект в конце семестра. По окончании обучения вы точно получите нужные практические навыки работы с нейросетями.

Сейчас идет набор на первую часть курса. На вторую часть набор откроется чуть позже, об этом сообщу отдельно.

Преподаватели школы — ведущие специалисты российских и зарубежных IT-компаний и научные сотрудники исследовательских лабораторий МФТИ. Среди них — я (Таня), буду вести у вас несколько лекций про CV, сегментацию и архитектуры сетей =)

Школа бесплатная. Полностью онлайн: учиться можно из любой точки мира, где есть интернет. Занятия проходят раз в неделю — лекция, семинар и домашнее задание. Обучение проходит на платформе Stepik. Берем всех, отбора нет.

Начинаем 19 сентября. Регистрация продлится до 18 сентября. Чтобы зарегистрироваться на курс, отсавьте заявку на этой странице. После этого вам на почту придет письмо со ссылками на курс на Степике, на канал и чат в Телеграме.

При регистрации вам нужно выбрать поток — базовый или продвинутый. Как выбрать свой поток, читайте на сайте в разделе FAQ. Также у нас есть группа школы ВКонтакте — там очень удобно следить за новостями.

Ответы на самые часто задаваемые вопросы по курсу вы также можете найти на сайте в разделе FAQ. Если остались вопросы, спрашивайте в комментариях к этому посту ⬇️ Постараюсь ответить на все. Также если в канале есть выпускники наших прошлых потоков, буду благодарна, если вы поделитесь своим опытом прохождения курса и поможете отвечать на вопросы =)

Ну и ждем вас в чатиках наших курсов в новом семестре!🥰

P.S. Обратите внимание, что у школы сменился адрес сайта. Новый адрес: dls.samcs.ru
👍2
This media is not supported in your browser
VIEW IN TELEGRAM
Нейросетевая анимация человеков.
#text2animation
Скармливаешь ей текстовый запрос - на выходе анимация.
Кода пока нет, обещают что будет

MotionDiffuse: Text-Driven Human Motion Generation with Diffusion Model