Нейронавт | Нейросети в творчестве
9.4K subscribers
3.62K photos
3.14K videos
40 files
4.1K links
Канал про нейросети в компьютерной графике, в кино и вообще

В папках не участвую

для связи @Neuronauticus
加入频道
Forwarded from Syncrets
🐭 Фильм из мышиного мозга

Буквально через пару дней после того, как препринт из реплая стал статьёй в Nature Neuroscience, швейцарским исследователям удалось проникнуть в «сознание» мыши, которая смотрела фильм, расшифровать сигналы ее мозга и воссоздать увиденный ею ролик.

Группа учёных из Федеральной политехнической школы Лозанны (EPFL) создала инструмент, способный декодировать сигналы мозга грызуна в режиме реального времени, в итоге воссоздавая визуальный нарратив, разворачивающийся перед глазами мыши.

Алгоритм машинного обучения, получивший название CEBRA, был обучен ассоциировать нейронную активность с определенными кадрами видео. Затем CEBRA смог предсказать и собрать клип, который показывали мыши — чёрно-белый фильм 60-х годов, в котором мужчина бежит к машине и открывает багажник. На отдельном экране отображалась интерпретация CEBRA визуального опыта мыши, которая показала поразительно похожую реконструкцию, хотя и с некоторыми сбоями.

В исследовании, опубликованном вчера в журнале Nature, подробно описано, как учёные отслеживали и документировали активность мозга грызунов с помощью электродов, вставленных в область зрительной коры, а также оптогенетических зондов (генномодифицированные нейроны в их мозге светились зеленым цветом при возбуждении и передаче информации).

Обучение CEBRA включало в себя сами фильмы, которые смотрели мыши, и данные активности их мозгов, что позволило алгоритму выстроить нейронные корреляты конкретных кадров фильма. Затем алгоритму была показана новая активность, с которой он раньше не сталкивался, от мыши, которая смотрела слегка отличный видеоряд. На основе этого CEBRA смог предсказать, какой кадр смотрела мышь в режиме реального времени, и исследователи превратили эти данные в собственный фильм.

Это не первый случай, когда исследователи декодируют сигналы мозга для создания изображений. В прошлом месяце PetaPixel сообщил об исследователях из Университета Осаки (Япония), которые в марте смогли восстановить высокоточные изображения высокого разрешения на основе активности мозга с помощью Stable Diffusion.

А ещё в августе прошлого года Университет Радбоуда в Нидерландах разработал технологию, которая может переводить мозговые волны человека в фотографические изображения.


За наводку спасибо подписчику 💓
Please open Telegram to view this post
VIEW IN TELEGRAM
😱42👍1
Media is too big
VIEW IN TELEGRAM
EVA3D: Compositional 3D Human Generationfrom 2D Image Collections

генератор анимируемых персонажей из набора картинок. К нему еще прикрутили Stable Diffusion, так что он теперь и картинки сам придумывает.

Фичи:
- строгий контроль позы/формы
- анимация
- интерполяция через латентное пространство

Код
Колаб
Демо

#imageto3D #image2avatar #image2video #3Davatar
👍3
Media is too big
VIEW IN TELEGRAM
Live 3D Portrait:Real-Time Radiance Fields for Single-Image Portrait View Synthesis

Одна из новинок NVIDIA, показанных на SIGGRAPH 2023 - генератор 3D-голов по одному входному изображению. Работает в реальном времени, пишут про 24 кадра в секунду на потребительском железе. Если на вход прикрутить генератор 2D-говорящих голов, можно получить 3D-говорящую голову. Пишут про демо, но оно, видимо, не публичное. Кода нет

#imageto3D #face2video #image2avatar #talkinghead
👍3
Hugging Face совместно с ServiceNow собрали и выложили свою собственную модель, которая умеет то, что делает GitHub CoPilot — подсказывать код, по сути писать 80% кода без всяких программистов. Только в отличие от CoPilot это не платная услуга, а доступный всем опенсорс код и веса модели.
их примерах чуть хуже CoPilot, но начало положено.

https://huggingface.co/bigcode/starcoder

#coding #LLM #GPT #NLP
Another day another model, на этот раз от Mosaic

Почему может быть интересно:
- Выпустили модель MPT-7B-StoryWriter-65k+, с контекстным окном 65k токенов для написания длинных историй (учили на книжках). Кажется самый большой контекст, который есть в опенсорсе сейчас
- Выпустили MPT-7B-Instruct, которая следуюет инструкциям и отвечает в краткой форме. Учили на датасетах Dolly и HH-RLHF от Anthropic
- Last but not least выпустили MPT-7B-Chat, который учили на ShareGPT-Vicuna (это пошернные переписки пользователей с ChatGPT), Alpaca и снова HH-RLHF

Еще из приятного:
- Foundation model MPT-7B (от которой тюнили все остальное) учили на 1T токенов, как и LLaMA
- У всего этого снова божеская лицензия, позволяющая коммерческое использование
- Выложили код для тренировки с FlashAttention
- Поддерживают сервинг из коробки через FasterTransformer (вау!)

hf: https://huggingface.co/mosaicml/mpt-7b
демо для чата: https://huggingface.co/spaces/mosaicml/mpt-7b-chat
👍2
Forwarded from Not Boring Tech
This media is not supported in your browser
VIEW IN TELEGRAM
🪴 Nvidia показала нейросеть NeuralVDB, которая генерирует невероятно детализированную графику. Система в реальном времени определяет, как свет отражается от разных материалов и сразу применяет это на 3D-моделях.

Реалистично воспроизводится керамика, отпечатки пальцев, пятна и пыль. Производительность увеличивается в 10 раз, а детализация аж в 16 раз. Не беспокойтесь о нагрузке на видеокарту — обещают, что объем памяти требуется в 100 раз меньше, чем нужно было прежде. Фантастика!

#AI | Not Boring Tech
3
Forwarded from Sergeii
Тут зарелизили AudioGPT (demo на hugging )

"Understanding and Generating Speech, Music, Sound, and Talking Head"
Text-to-Speech
Text-to-Sing
Text-to-Audio
Audio Inpainting
Image-to-Audio
Sound Detection
Target Sound Detection
Sound Extraction
Talking Head Synthesis

upd: связка из разных моделей, часть не работает.
Ну надо же, пришел инвайт в Uizard Autodesigner

Кто записывался в вейтлист - проверьте почту
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Для тех, кто работает с видео.
Про Eleven Labs мы уже все слышали.
Теперь держите Twelve Labs https://twelvelabs.io/
У них есть Video Understanding Engine.
Вы загружаете свои видосы, а платформа пережевывает их и создает ембеддинги. Потом вы можете просто текстом искать любую информацию в ваших видосах: текст на видео, объекты, разговор, лого.
Там еще очень много чего внутри - это целая среда разработки, позволяющая создавать ИИ-описания и "понимания" ваших видосов.
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
Houdini + AI = Shiba

Я тут хотел выпить за Худини-Артистов, но понял, что благодаря ИИ, их скорее станет больше (насчет их качества не уверен, однако). Ибо теперь можно обучаться Худини просто беседуя с ИИ.
В общем chatGPT прикрутили к Худини. И как!

Shiba — ИИ, который может:
- Анализировать файлы .hip Houdini и давать полезные предложения по улучшению
- Искать в Интернете полезные ресурсы, связанные с вашей сценой
- Указывать на любые потенциальные будущие проблемы, с которыми могут столкнуться пользователи ассета.

Shiba также может:
• Создавать новые сцены Houdini на основе промпта!!!.
• Писать скрипты VEX и Python-код с гораздо более низким уровнем косяков, чем обычные альтернативы.
• Отвечать на вопросы о различных темах VFX и компьютерной графики.

https://www.linkedin.com/posts/aaron-smith-tv_if-you-want-to-smooth-out-houdinis-learning-activity-7057256306889351168-tRlh/
This media is not supported in your browser
VIEW IN TELEGRAM
‌Stable Diffusion + Segment Anything
Софт/сервис для инпейнтинга на основе SAM и SD

Онлайн
Гитхаб
Реддит

#inpainting
🔥3
Multi-Space Neural Radiance Fields (MS-NeRF)

Мультипространственный #nerf.
Решает проблему с отображением мнимых пространств, создаваемых в отражениях.

Кода пока нет
🔥4
This media is not supported in your browser
VIEW IN TELEGRAM
ImageBind: первая AI-модель, способная связывать данные из 6 модальностей одновременно от Meta AI. Теперь текст, изображения, карты глубины, карты температур, аудио и IMU сигналы живут в одном пространстве. Мы на шаг ближе к тому, что машины смогут связывать объединять и анализировать информацию с разных сенсоров, прямо как это делает человек.

Ждем, когда прикрутят к SD.

Блог
Код
Демо
🔥1
Еще один инвайт прилетел - на FreedomGPT от Age of AI - полностью локального GUI для Alpaca без цензуры.

Не знаю чем оно лучше других GUI. Если попробуете, интересно будет узнать ваши впечатления.

FAQ
скачать для Windows
Записаться в вейтлист
Forwarded from Denis Sexy IT 🤖
Так, ну было хоть и местами скучно, мне понравилось:

🪙 Gmail получит встроенную LLM для автоматического написания черновика. Например, отменили рейс и прислали вам письмо, вы можете сразу написать заявку на рефанд с помощью одной кнопки. В целом, ничего нового, делаю такое же с ChatGPT через плагин.

🪙 Google Maps получит обновление летом, а точнее его функция Immersive view - строите маршрут и он показывает его как в SimCity в 3D на основе реальных данных (скан реального мира), с машинками виртуальными и тп. Тут видео.

🪙 Google показал свой новый ответ GPT от OpenAI – Palm 2, это серия моделей от самой маленькой которая может работать оффлайн на телефоне и до самой большой которая работает в облаке. Bard, ChatGPT от Google, тоже перевели на Palm 2 уже сегодня. Еще в Bard добавят плагины, такие же как в ChatGPT. И с сегодня доступ открыли для всех:
https://bard.google.com

Google также показал интеграцию Bard в Google Docs, Slides, Tables и тп, тут как бы тоже все что вы уже видели от Microsoft.

🪙 Google поиск чуть изменит результаты выдачи, и первый остров станет пытаться отвечать на вопрос в стиле ChatGPT.

Если честно, очень логичный шаг, очень утомляет ходить в ChatGPT или Bing Chat когда ищешь ответ на вопрос, не всегда же приходишь пообщаться, иногда просто нужен быстрый ответ (но опция початиться тоже останется). "Остров ответа нейронкой" занимает немного места, так что сможете использовать Google как обычно, промотав ответ языковой модели. Видео тут.
Лица SEO-экспертов имаджинировали?

🪙 Теперь большой бизнес может купить тренировку своей большой языковой модели в Google Cloud через Vertex AI. Это, условно, если вы хотите в организации рабочего бота обученного на данных компании, и вам не хочется нанимать свой R&D отдел, вы можете заплатить им и они сделают все что нужно, на самых лучших моделях. Золотая жила и классный продукт.
Доступен тут, обещают ранний доступ: 
https://cloud.google.com/vertex-ai

🪙 Тут в целом можно посмотреть про AI штуки что показали, и запросить доступы:
https://labs.withgoogle.com/

В общем, как и ожидалось, Google долго запрягает, потому что они большие, но им есть куда встраивать AI-штуки, и главное они знают как их сделать удобными, молодцы (но мне все еще нравится подшучивать над ними когда у них что-то не получается ☺️)
Please open Telegram to view this post
VIEW IN TELEGRAM
3
This media is not supported in your browser
VIEW IN TELEGRAM
Самое краткое содержание вчерашней конференции Google I/O 2023
5😁2