AI LAB | Лаборатория ИИ
1.66K subscribers
568 photos
416 videos
23 files
853 links
Лаборатория ИИ
Эксперименты и интересные материалы на тему ИИ в архитектурном проектировании и не только.

По всем вопросам 24/7
@arthiteca

Вопросы сотрудничества и соучастия
@j_fede
加入频道
This media is not supported in your browser
VIEW IN TELEGRAM
#megalopolis #wip #ai
Фото Ш.Бодлера оживают благодаря AI и проекту megalopolis
benjaminbardou.com
ИИ-Художника обидеть может каждый...
А может он просто так видит?

Помните, я постил про работу по генерации милых лиц по убогим скетчам:
http://geometrylearning.com/DeepFaceDrawing/

Ребята собрали сайт на основе этого проекта.
Теперь же можно генерить убогие лица по милым скетчам.

Не забудьте выкрутить все Component Confidence наверх - это "близость к оригиналу". Иначе воздействие на мозг будет непредсказуемым.

Пробуем тут:

http://www.geometrylearning.com:3000/index_EN_621.html

#tochki_nad_ii #AI #neuralnetworks



Обсуждение тут:
https://www.facebook.com/sergey.tsyptsyn
Forwarded from Grace Hopper (Alik Sumin)
#ai рендер плагин для Cinema4D. выглядит очень интересно. это уже та степень контроля, которая действительно применима в работе с 3D моделями, плюс дружелюбный и удобный интерфейс
https://www.youtube.com/watch?v=5sozo4kjaYo
👍2
Forwarded from Просто о BIM
#AI Начнем неделю с прикладного применения ИИ в концептуальной архитектуре.

Мой хороший друг и автор тг канала про нейронки Артур Ишмаев записал видео 👆 с примером применения инструмента krea.ai в работе архитектора.

Если пост соберет 50 огоньков 🔥 , то проведем с ним онлайн демонстрацию как повторить.

У инструмента есть бесплатная версия, но лучше купить минимальную версию за 10$ в месяц.
🔥11👍311
Forwarded from Просто о BIM
#AI Предыдущий пост собрал уже больше 50 🔥 , т.ч. в этот четверг 20.02 в 19:00 (мск) мы с Артуром проведем онлайн-тестирование данного инструмента. Ну т.е. он меня научит им пользоваться и заодно тех кто придет. Ссылку на подключение скину в данный канал @prostobim
🔥3👍1
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
✔️ EleutherAI представила лицензированный датасет для обучения ИИ-моделей.

EleutherAI выпустила The Common Pile v0.1 — 8-терабайтный набор данных для тренировки моделей, собранный при участии Hugging Face и академических институтов. В него вошли более 20-ти публичных источников, На базе датасета созданы Comma v0.1-1T и Comma v0.1-2T (по 7 млрд параметров), которые, по заявлению разработчиков, не уступают моделям, обученным на нелицензированном контенте.

Модели показывают сильные результаты в прораммировании и математике, опровергая мнение, что только "пиратский" контент обеспечивает качество. Релиз датасета - это попытка исправить ошибки прошлого: ранее EleutherAI критиковали за использование защищенного авторским правом контента в старом датасете The Pile.
huggingface.co

✔️ OpenAI вынуждена сохранять данные пользователей ChatGPT из-за судебного решения по иску NYT.

OpenAI получила судебный приказ о временном хранении данных пользователей ChatGPT и API, даже если они были удалены. Это связано с иском New York Times о нарушении авторских прав. NYT требует сохранить «всю переписку и контент» для использования в качестве доказательств.

Под приказ попадают данные пользователей бесплатных и платных версий ChatGPT (Plus, Pro, Team), а также API-клиенты без соглашения о нулевом хранении данных. Корпоративные клиенты и образовательные проекты в безопасности — их информация не попадает под приказ.

OpenAI назвала требование чрезмерным, подчеркнув, что обычно удаляет данные через 30 дней и подала апелляцию, но временно соблюдает решение.
openai.com

✔️ MIT & Recursion Boltz-2: модель прогнозирования взаимодействия молекул.

MIT CSAIL и Recursion разработали Boltz-2 — открытую модель для анализа биомолекулярных структур и связывания. Она сочетает рекордную скорость и точность, превосходя AlphaFold3 и других конкурентов.

Boltz-2 предсказывает, как молекулы взаимодействуют, с точностью, близкой к физическим методам FEP, но в 1000 раз быстрее. Разработчики надеются, что публикация модели облегчит поиск лекарств, ведь Boltz-2 может за час перебрать тысячи соединений вместо недель вычислений.
globenewswire.com

✔️ AMD пополнилась командой стартапа Untether AI.

AMD объявил о покупке ключевых специалистов из стартапа Untether AI, разработавшего энергоэффективные чипы для ИИ-инференса. Сделка должна укрепить возможности компании в области компиляторов и проектирования чипов.

Untether AI, основанный в 2018 году, славился архитектурой «at-memory», повышающей производительность в дата-центрах и на EDGE-устройствах. Их плата speedAI240 Slim показала рекордную энергоэффективность: в 3–6 раз выше аналогов по тестам MLPerf.

Сделка стала частью стратегии AMD по конкурированию с Nvidia. Ранее, приобретя стартап Brium, компания усилила оптимизацию ИИ-нагрузок на GPU Instinct. Теперь фокус смещается на интеграцию новых технологий в продукты, ориентированные на растущий рынок ИИ.
crn.com

✔️ Фестиваль ИИ-фильмов в Нью-Йорке.

В Нью-Йорке прошел ежегодный фестиваль ИИ-фильмов от Runway. За 3 года проект вырос от 300 до 6000 заявок, а в этом году представил десятку короткометражек, созданных с помощью ИИ. Лучшей стала «Total Pixel Space» Джейкоба Алдера, исследующая математические границы digital-изображений.

По словам организаторов, технологии ускоряют процессы кинопроизводства и фестиваль делает акцент на том, как ИИ поддерживает, а не заменяет творцов.
apnews.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
3👍21
Forwarded from Machinelearning
🌟 FlexTok: адаптивная 1D-токенизация изображений от Apple.

FlexTok - метод токенизации изображений, который преобразует 2D-изображения в упорядоченные 1D-последовательности переменной длины.

Его цель - сократить объем данных, необходимых для обучения генеративных моделей, и при этом оставить достаточную информацию для качественной реконструкции и генерации.

В отличие от традиционных подходов, где число токенов фиксировано и зависит только от размера изображения, FlexTok подстраивается под сложность контента: простейшая сцена может кодироваться несколькими токенами, а сложная - десятками и сотнями .

FlexTok, это по сути, пайплайн из 3 компонентов: ViT‑энкодер, квантование регистров и маскирование внимания:

ViT‑энкодер с набором «регистровых» токенов читает латентные представления VAE‑GAN и конденсирует их в 1D-последовательность до 256 регистров .

Затем, с помощью FSQ‑квантования, каждый регистр дискретизируется в код из заранее определенного словаря размером ~64 000.
На этом этапе применяется "nested dropout": во время обучения случайно обрезаются последние токены, чтобы модель научилась упорядочивать информацию от грубых форм к деталям.

Параллельно применяется авторегрессионная маска внимания: каждый токен в цепочке видит только те, что были до него, и не знает о тех, что идут после. Это заставляет модель генерировать изображения шаг за шагом, от первого токена к последнему, и упрощает ей задачу прогнозирования следующих элементов.

Декодер в FlexTok - это модель rectified flow, которая на вход берет укороченные токены и слегка зашумленные латенты VAE и учится предсказывать тот шум, который нужно убрать, чтобы вернуть исходное представление.

Чтобы обучение шло быстрее и давало более точные результаты, добавляют REPA‑Loss: он сравнивает промежуточные признаки с векторами из DINOv2‑L. Благодаря этому даже при очень жесткой компрессии (от 1 до 256 токенов), FlexTok успешно восстанавливает детали изображения.

FlexTok легко встраивается в текстово‑ориентированные модели и может улучшить соответствие изображения описанию, даже если число токенов меняется. К тому же его адаптивная токенизация применима не только к картинкам, но и к аудио или видео.

▶️Набор токенизаторов:

🟢Flextok_d12_d12_in1k - 12\12 слоев энкодер-декодер, датасет IN1K;
🟢Flextok_d18_d18_in1k - 18\18 слоев энкодер-декодер, датасет IN1K;
🟢Flextok_d18_d28_in1k - 18\28 слоев энкодер-декодер, датасет IN1K;
🟢Flextok_d18_d28_dfm - 18\28 слоев энкодер-декодер, датасет DFN.

▶️ VAE:

🟠Flextok_vae_c4 - 4 каналов латента, коэффициент понижающей дискретизации 8;
🟠Flextok_vae_c8 - 8 каналов латента, коэффициент понижающей дискретизации 8;
🟠Flextok_vae_c16 - 16 каналов латента, коэффициент понижающей дискретизации 8.


🟡Страница проекта
🟡Набор на HF
🟡Arxiv
🟡Demo
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #Tokenizer #Flextok #Apple
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍43
Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
📓🦙 NotebookLlama —Практически полный функционал NotebookLM — в опенсорсе.

Особенности:
✔️ Создаёт базу знаний из документов — с точным разбором через LlamaCloud
✔️ Автоматически пишет резюме и строит mind map-графы
✔️ Позволяет генерировать подкасты (работает на базе ElevenLabs)
✔️ Позволяет вести чат с агентом по документам
✔️ Метрики и аналитика через opentelemetry

🛠 Всё в открытом репо — можешь форкать, кастомизировать, заменять компоненты под себя.

Установка:


git clone https://github.com/run-llama/notebookllama


GitHub: https://github.com/run-llama/notebookllama
Попробовать в LlamaCloud: https://cloud.llamaindex.ai

@ai_machinelearning_big_data


#AI #ML #LLM #opensource #NotebookLM
Please open Telegram to view this post
VIEW IN TELEGRAM
174👍4
💡 BIM Просвет Офлайн в Москве!

Тема: ИИ в девелопменте
🗓 Когда: 22 июля (вторник) с 11.00 до 15.00

📍 Где: место сообщим чуть позже, но это будет удобная локация в центре

Спикеры:
- ПИК - Артур Ишмаев
- Нанософт - Максим Журавлев
- Клуб BIM-лидеров - Мария Бедовая
- Signal - Александр Попов
- Свободное место #5
- Свободное место #6

Регистрация: количество мест ограничено, так что сейчас мы начинаем сбор заявок на участие

🎤 Будет ли трансляция? Нет

Идеи и предложения:
@purtovsy @Andrey_Ryb

#BIMПросвет #BIMПросветAI #BIMSupport #AI #AIBIM #ИИ #ИИТИМ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7🔥541
💡 Видео с Просвета!

Как ПИК экспериментирует с ИИ в архитектуре — инсайты от первого лица

На BIM Просвете 22 июля Артур Ишмаев рассказал, как работает лаборатория искусственного интеллекта в ПИК — и почему им дали полную свободу, отделив от стандартной разработки.

Это не просто про «мы внедрили ИИ». Это — про поиск нового языка проектирования, в котором черновики, ошибки и даже недостроенные проекты становятся ценными данными.

Что в видео:
— Зачем ПИК создали отдельную ИИ-лабораторию и как она работает;
— Как open-source модели применяются к генерации массинга, планировок и BIM;
— Почему логи действий проектировщиков — это золото для обучения ассистентов;
— Где LLM оказываются эффективнее специализированных моделей;
— Как можно создавать собственные датасеты и зачем это нужно всей индустрии.

🤌🏼 Три сильные мысли от Артура:

«Цель цифровизации не в том, чтобы внедрять технологии — а в том, чтобы они становились естественным продолжением архитектуры.»

«Каждый проект, даже нереализованный, — это источник данных. Мы должны уметь фиксировать процесс, а не только результат.»

«LLM, даже без обучения, уже понимают, где север, сколько этажей, и как выглядит двор. Это фундамент для ассистентов нового поколения.»


🚨 Важно!
- Смотрите видео до конца
- Ставьте сердце
- Пишите вопросы в комментариях

➡️ Cмотреть на 💙 ВКонтакте | 📺 YoyTube | 📺 Rutube | 📝 Дзене
➡️ Смотреть презентацию
➡️ Подписаться на канал Артура

🟡Стать партнёром BIM Просвета


#BIMПросвет #BIMSupport #AI #AIBIM #ИИ #ИИТИМ
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1033👍1🏆1