This media is not supported in your browser
VIEW IN TELEGRAM
Про расшифровку зрительных образов уже было. Теперь подвезли расшифровку мысленной речи.
В запрещенной Meta разработали модель ИИ, которая может декодировать речь на основе неинвазивных записей активности мозга.
На основе трех секунд мозговой активности модель может декодировать соответствующие сегменты речи с точностью до 73% от верхнего предела из словарного запаса в 793 слова, т.е. большую часть слов, которые люди обычно используют в повседневной жизни.
В качестве данных использовали более 150 часов записей 169 здоровых добровольцев, слушавших аудиокниги и изолированные предложения на английском и голландском языках. Короче, у них все получилось, оно работает.
В запрещенной Meta разработали модель ИИ, которая может декодировать речь на основе неинвазивных записей активности мозга.
На основе трех секунд мозговой активности модель может декодировать соответствующие сегменты речи с точностью до 73% от верхнего предела из словарного запаса в 793 слова, т.е. большую часть слов, которые люди обычно используют в повседневной жизни.
В качестве данных использовали более 150 часов записей 169 здоровых добровольцев, слушавших аудиокниги и изолированные предложения на английском и голландском языках. Короче, у них все получилось, оно работает.
👍2
В недрах Adobe есть сервис Shasta для улучшения качества звука, в частности речи. Пятиминутная демонстрация (второе видео) очень впечатлила меня.
А на первом видео эксперимент с нецелевым использованием - речь стилизовали под пианино.
Доступ к полному функционалу дают по запросу. Видимо, бета.
Без запроса можно залить аудитрек на улучшение, но без какого-либо контроля. Просто залил - скачал.
А на первом видео эксперимент с нецелевым использованием - речь стилизовали под пианино.
Доступ к полному функционалу дают по запросу. Видимо, бета.
Без запроса можно залить аудитрек на улучшение, но без какого-либо контроля. Просто залил - скачал.
Нейронавт | Нейросети в творчестве
В недрах Adobe есть сервис Shasta для улучшения качества звука, в частности речи. Пятиминутная демонстрация (второе видео) очень впечатлила меня. А на первом видео эксперимент с нецелевым использованием - речь стилизовали под пианино. Доступ к полному функционалу…
Поиздеваться над музыкой речевым фильтром можно здесь
Нейронавт | Нейросети в творчестве
В недрах Adobe есть сервис Shasta для улучшения качества звука, в частности речи. Пятиминутная демонстрация (второе видео) очень впечатлила меня. А на первом видео эксперимент с нецелевым использованием - речь стилизовали под пианино. Доступ к полному функционалу…
Audio
Нейронавт | Нейросети в творчестве
В недрах Adobe есть сервис Shasta для улучшения качества звука, в частности речи. Пятиминутная демонстрация (второе видео) очень впечатлила меня. А на первом видео эксперимент с нецелевым использованием - речь стилизовали под пианино. Доступ к полному функционалу…
enhanced.wav
3.4 MB
👍2😁2
Мой любимый блогер музыкант пытается заставить нейросеть сочинить песню.
https://youtu.be/Pa1CIz1CbWw
https://youtu.be/Pa1CIz1CbWw
YouTube
Нейросеть дописывает песни [яндекс Балабоба]
Учусь извлекать из нейросети "Балабоба" пользу и пытаюсь понять, есть ли с неё толк для меня, как для сонграйтера.
Большой разбор текста, о котором я упоминаю в начале видео https://youtu.be/iNODxMkInDo
►Поддержать меня и создание видео:
BOOSTY - http…
Большой разбор текста, о котором я упоминаю в начале видео https://youtu.be/iNODxMkInDo
►Поддержать меня и создание видео:
BOOSTY - http…
👍4
Архитектура GPT-3 - на сегодняшний день величайшее достижение в генерации текста, но ей уже полтора года, в мире машинного обучения это старость. Похоже, GPT-4 будет уметь не только в текст, но во все остальное
👍2
Forwarded from Мишин Лернинг 🇺🇦🇮🇱
❗️OpenAI начало обучать GPT-4. Обучение будет закончено через пару месяцев
Сказать больше не могу, чтобы не подставлять.. Но что стоит знать:
— Огромное количество параметров
— Спарс парадигма
— Стоимость обучения ~ $.e6
— Text, audio-vqvae, image-vqvae (возможно и видео) токены в одном потоке
— SOTA в огромном количестве задач! Особенно значимые результаты в мультимодальном домене.
— Релизное окно: Декабрь-Февраль
p.s.: откуда инфа? ..оттуда. доверяю ли я ей сам? ну в чём-то да, в чём-то нет. мое дело рассказать, ваше — отказаться
@мишин лернинг
Сказать больше не могу, чтобы не подставлять.. Но что стоит знать:
— Огромное количество параметров
— Спарс парадигма
— Стоимость обучения ~ $.e6
— Text, audio-vqvae, image-vqvae (возможно и видео) токены в одном потоке
— SOTA в огромном количестве задач! Особенно значимые результаты в мультимодальном домене.
— Релизное окно: Декабрь-Февраль
p.s.: откуда инфа? ..оттуда. доверяю ли я ей сам? ну в чём-то да, в чём-то нет. мое дело рассказать, ваше — отказаться
@мишин лернинг
👍1🔥1
Оптимизированный #stablediffusion
Разрешение картинок 576x1280 на 6 GB VRAM
https://github.com/neonsecret/stable-diffusion
Колаб
Разрешение картинок 576x1280 на 6 GB VRAM
https://github.com/neonsecret/stable-diffusion
Колаб
GitHub
GitHub - neonsecret/stable-diffusion
Contribute to neonsecret/stable-diffusion development by creating an account on GitHub.
❤1👍1🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Нет, это не заурядная генерация Disco Diffusion как вам могло показаться. Это сцена из будущего фильма Соль, который Фабиан Штельцер намерен сгенерировать при помощи исключительно нейросетей. Штельцер собирается стать "первопроходцем". И если это у него получится, то только потому что мы с вами не генерим нечего с мало-мальским сюжетом, на что можно было бы навесить ярлык "фильм" и отправить на фестиваль
❤2
Открыт набор на бесплатный курс по Deep Learning.
Обучение на платформе Stepik с домашками, обратной связью и сертификатом. И все это, еще раз, бесплатно.
Набор продлится до 18 сентября. Кто не успел, тот опоздал
Обучение на платформе Stepik с домашками, обратной связью и сертификатом. И все это, еще раз, бесплатно.
Набор продлится до 18 сентября. Кто не успел, тот опоздал
Forwarded from DLStories
А мы наконец открываем набор на осенний семестр школы глубокого обучения Deep Learning School!
#learning
DLschool — это школа при ФПМИ МФТИ, где мы учим нейронным сетям с самых азов до продвинутого уровня. Полный курс состоит из двух частей, каждая из которых длится полгода.
- Первая часть посвящена введению в нейросети и компьютерному зрению. Начинаем мы с языка Python и необходимой математики для понимания нейросетей, переходим к основам машинного обучения и обработки картинок, заканчиваем переносом стиля изображений и ГАНами.
- Вторая часть полностью посвящена темам NLP и обработки звука.
Две части курса можно проходить независимо. Можно пройти только первую часть или только вторую. Но обратите внимание, что для прохождения второй части нужно знать Python, понимать математику и основы нейросетей, о которых мы рассказываем в первой части курса.
Особенность нашей школы в том, что мы даем много практики (теория при этом тоже есть, разумеется, и немало). Вам предстоит много практических домашних заданий и самостоятельный итоговый проект в конце семестра. По окончании обучения вы точно получите нужные практические навыки работы с нейросетями.
Сейчас идет набор на первую часть курса. На вторую часть набор откроется чуть позже, об этом сообщу отдельно.
Преподаватели школы — ведущие специалисты российских и зарубежных IT-компаний и научные сотрудники исследовательских лабораторий МФТИ. Среди них — я (Таня), буду вести у вас несколько лекций про CV, сегментацию и архитектуры сетей =)
Школа бесплатная. Полностью онлайн: учиться можно из любой точки мира, где есть интернет. Занятия проходят раз в неделю — лекция, семинар и домашнее задание. Обучение проходит на платформе Stepik. Берем всех, отбора нет.
Начинаем 19 сентября. Регистрация продлится до 18 сентября. Чтобы зарегистрироваться на курс, отсавьте заявку на этой странице. После этого вам на почту придет письмо со ссылками на курс на Степике, на канал и чат в Телеграме.
При регистрации вам нужно выбрать поток — базовый или продвинутый. Как выбрать свой поток, читайте на сайте в разделе FAQ. Также у нас есть группа школы ВКонтакте — там очень удобно следить за новостями.
Ответы на самые часто задаваемые вопросы по курсу вы также можете найти на сайте в разделе FAQ. Если остались вопросы, спрашивайте в комментариях к этому посту ⬇️ Постараюсь ответить на все. Также если в канале есть выпускники наших прошлых потоков, буду благодарна, если вы поделитесь своим опытом прохождения курса и поможете отвечать на вопросы =)
Ну и ждем вас в чатиках наших курсов в новом семестре!🥰
P.S. Обратите внимание, что у школы сменился адрес сайта. Новый адрес: dls.samcs.ru
#learning
DLschool — это школа при ФПМИ МФТИ, где мы учим нейронным сетям с самых азов до продвинутого уровня. Полный курс состоит из двух частей, каждая из которых длится полгода.
- Первая часть посвящена введению в нейросети и компьютерному зрению. Начинаем мы с языка Python и необходимой математики для понимания нейросетей, переходим к основам машинного обучения и обработки картинок, заканчиваем переносом стиля изображений и ГАНами.
- Вторая часть полностью посвящена темам NLP и обработки звука.
Две части курса можно проходить независимо. Можно пройти только первую часть или только вторую. Но обратите внимание, что для прохождения второй части нужно знать Python, понимать математику и основы нейросетей, о которых мы рассказываем в первой части курса.
Особенность нашей школы в том, что мы даем много практики (теория при этом тоже есть, разумеется, и немало). Вам предстоит много практических домашних заданий и самостоятельный итоговый проект в конце семестра. По окончании обучения вы точно получите нужные практические навыки работы с нейросетями.
Сейчас идет набор на первую часть курса. На вторую часть набор откроется чуть позже, об этом сообщу отдельно.
Преподаватели школы — ведущие специалисты российских и зарубежных IT-компаний и научные сотрудники исследовательских лабораторий МФТИ. Среди них — я (Таня), буду вести у вас несколько лекций про CV, сегментацию и архитектуры сетей =)
Школа бесплатная. Полностью онлайн: учиться можно из любой точки мира, где есть интернет. Занятия проходят раз в неделю — лекция, семинар и домашнее задание. Обучение проходит на платформе Stepik. Берем всех, отбора нет.
Начинаем 19 сентября. Регистрация продлится до 18 сентября. Чтобы зарегистрироваться на курс, отсавьте заявку на этой странице. После этого вам на почту придет письмо со ссылками на курс на Степике, на канал и чат в Телеграме.
При регистрации вам нужно выбрать поток — базовый или продвинутый. Как выбрать свой поток, читайте на сайте в разделе FAQ. Также у нас есть группа школы ВКонтакте — там очень удобно следить за новостями.
Ответы на самые часто задаваемые вопросы по курсу вы также можете найти на сайте в разделе FAQ. Если остались вопросы, спрашивайте в комментариях к этому посту ⬇️ Постараюсь ответить на все. Также если в канале есть выпускники наших прошлых потоков, буду благодарна, если вы поделитесь своим опытом прохождения курса и поможете отвечать на вопросы =)
Ну и ждем вас в чатиках наших курсов в новом семестре!🥰
P.S. Обратите внимание, что у школы сменился адрес сайта. Новый адрес: dls.samcs.ru
dls.samcs.ru
Deep Learning School
Онлайн-школа по искусственному интеллекту
👍2
This media is not supported in your browser
VIEW IN TELEGRAM
Нейросетевая анимация человеков.
#text2animation
Скармливаешь ей текстовый запрос - на выходе анимация.
Кода пока нет, обещают что будет
MotionDiffuse: Text-Driven Human Motion Generation with Diffusion Model
#text2animation
Скармливаешь ей текстовый запрос - на выходе анимация.
Кода пока нет, обещают что будет
MotionDiffuse: Text-Driven Human Motion Generation with Diffusion Model
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
MIDIHumans: Новый нормальный виджеинг или Meta Human Beatbox
Ureal Engine 5 + Metahumans + MIDI
Нажатие кнопки на MIDI-контроллере запускает лицевую анимацию + звуковой эффект + изменение материала. И может влиять на любые параметры сцены.
Обратите внимание на минимальную задержку.
Ну все, цифровым инфлюенсерам конец! Будут плясать под MIDI-дудку!
https://www.linkedin.com/posts/bob-dyce-180ba98_midi-design-animation-ugcPost-6972990820769550336-TlJu/
Ureal Engine 5 + Metahumans + MIDI
Нажатие кнопки на MIDI-контроллере запускает лицевую анимацию + звуковой эффект + изменение материала. И может влиять на любые параметры сцены.
Обратите внимание на минимальную задержку.
Ну все, цифровым инфлюенсерам конец! Будут плясать под MIDI-дудку!
https://www.linkedin.com/posts/bob-dyce-180ba98_midi-design-animation-ugcPost-6972990820769550336-TlJu/
👍1