Нейронавт | Нейросети в творчестве
9.4K subscribers
3.62K photos
3.14K videos
40 files
4.1K links
Канал про нейросети в компьютерной графике, в кино и вообще

В папках не участвую

для связи @Neuronauticus
加入频道
PuLID: Pure and Lightning ID Customization via Contrastive Alignment

Персонализация по одному или нескольким образцам. Типа качественная и быстрая.
Но без уважения

Код
Демо

#personalization #text2image #image2image
😁134
StoryDiffusion: Consistent Self-Attention for Long-Range Image and Video Generation

Генератор комиксов и видео. Да, такая вот штука создана при участии ByteDance.

Может создавать набор персонажей, сохраняет их черты.
Видео 10 секунд и длиннее.

Код ждем
Демо ждем

#text2image #comics #image2video
👍10🔥5
This media is not supported in your browser
VIEW IN TELEGRAM
Lightplane: Highly-Scalable Components for Neural 3D Fields

Модель для генерации и рендера #nerf
Сокращает потребление памяти на рендере в 1000 раз по сравнению с Autograd и Instant-NGP, сохраняя скорость рендера

Код

#optimization #rendering
🔥10
Forwarded from Data Secrets
Там вышедший час назад убийца нейросетей производит небывалый фурор среди исследователей. Сейчас все расскажем ⬇️

В основе всех архитектур, к которым мы привыкли, лежит многослойный перцептрон (MLP). У него есть веса и нейроны, в которых расположены функции активации.

А что, если мы переместим функции активации на веса и сделаем из обучаемыми? Звучит как бред, но yes, we KAN.

KAN (Kolmogorov-Arnold Networks) - новая парадигма, в которой исследователи реализовали перемещение активаций на «ребра» сети. Кажется, что решение взято из ниоткуда, но на самом деле тут зашита глубокая связь с математикой: в частности, с теоремами универсальной аппроксимации и аппроксимации Колмогорова-Арнольда.

Не будем вдаваться в детали. Главное: KAN работает намного точнее, чем MLP гораздо большего размера, и к тому же лучше интерпретируется. Единственный минус: из-за обучаемых активаций тренится все это дело в разы дороже и дольше, чем MLP.

И тем не менее, возможно сегодня мы наблюдаем рождение Deep Learning 2.0. Ведь такой подход меняет вообще все, от LSTM до трансформеров.

Статья | Код
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥15🤔4👍2🎃1
Галя, у нас отмена
Forwarded from CG дневничок (Sergey Frolov)
Media is too big
VIEW IN TELEGRAM
Помните недавнюю новость, что OpenAI предоставили доступ к Sora узкому кругу креативщиков?

Так вот, один из них, мягко говоря, приукрасил правду, когда речь зашла про "полностью сгенерировано в Sora". Я про ролик с воздушным шариком вместо головы. Выяснилось, что рото, клинап и композ там были в том же объёме, что и в привычной рекламе. Ребята боролись с типичными AI-проблемами, например: отсутствие континьюити, артефакты генерации и прочие радости.

Так когда уже этот AI наконец заберет мою рутинную работу?
🤷‍♂10
Сравнил восемь image-to-3d нейронок на картинках, сгенерированных в Dall-E.

1. 3d.csm
2. TripoSR
3. CRM
4. GRM
5. mvedit
6. InstantMesh
7. tripo3d
8. dreamgaussian

Условно, эти решения делятся на три группы.
Самые слабые - GRM и dreamgaussian не справляются реконструкцией невидимых на картинке деталей и оставляют сквозные отверстия. Они создают деформированные, непригодные для дальнейшей обработки модели.

У второй категории решений: TripoSR, CRM, mvedit, InstantMesh - наблюдаются сложности с созданием симметричных моделей, мелкие артефакты, например, каверны и искаженные текстуры. Под ними - грязные сетки и сглаженные болванки-обмылки.

3d.csm, tripo3d - лучше создают текстуры, додумывают детали на невидимых частях объекта. Хотя tripo3d умеет в ретопологию, генерациям все еще недостает выраженного рельефа. Большая часть деталей остается на текстуре.

Все модели сгенерированы при настройках по умолчанию. Картинки в высоком разрешении ищите в комментариях. Выводы - в следующем посте.
👍111