AI LAB | Лаборатория ИИ
1.63K subscribers
548 photos
410 videos
23 files
839 links
Лаборатория ИИ
Эксперименты и интересные материалы на тему ИИ в архитектурном проектировании и не только.

По всем вопросам 24/7
@unrealartur

Вопросы сотрудничества и соучастия
@j_fede
加入频道
Forwarded from Data Secrets
⚡️ OpenAI показали свои новые модели GPT-4.1, GPT-4.1 mini и GPT-4.1 nano

В чате их не будет: они только для разработчиков в API. У всех трех моделей контекст 1 миллион токенов, для OpenAI это впервые. Знания до 1 июля 2024.

Для программирования модель действительно хороша: на SWE-bench обгоняет даже o1 high. При этом стоит намного дешевле ($2.00 / 1M инпут и $8.00 / 1M аутпут). Плюсом неплохие способноси на мультимодальных задачах и математике.

Последний график – масштабирование на росте контекста. Видно, что 4.1 на голову лучше остальных моделей OpenAI на длинных последовательностях, то есть даже на огромных документах или кодовых базах не будет терять детали.

Ну и вишенка: семь дней модель будет абсолютно бесплатной вот тут

Цены и детали – здесь, а вот блогпост со всеми метриками
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍21
This media is not supported in your browser
VIEW IN TELEGRAM
GPT-4.1 для понимания статей arXiv 🚀

Выделите любой раздел статьи, чтобы задать вопросы, и отметьте «@» другие статьи, чтобы быстро добавить их в контекст и сравнить результаты, показатели и т. д.
👍21
Forwarded from Data Secrets
This media is not supported in your browser
VIEW IN TELEGRAM
Теперь официально: OpenAI делает соцсеть

Она будет похожа на X. Сейчас уже даже есть внутренний прототип: галерея изображений, сгенерированных пользователями. Ее ночью раскатили на всех юзеров, уже можно посмотреть (бесплатным тоже доступно, да). Пока что стартап собирает фидбэк.

Зачем им это? Первая причина – это данные. Вторая – тоже данные. Много открытых онлайн данных для обучения, как у Meta и XAI. Ну и бесплатная реклама через интеграцию моделей, как для Grok в X.

А теперь вспомним, как пару месяцев назад в ответ на запрос Маска купить OpenAI Альтман ответил «Мы бы лучше купили X». Масштабы пасхалки представили?
3👍1
AI LAB | Лаборатория ИИ
"Спустя более двух лет после запуска ChatGPT , искусственный интеллект продолжает оставаться раскаленным добела центром венчурного капитала и делового мира в целом. Некоторые из самых популярных стартапов переключили внимание с гонки за выпуском моделей ИИ…
Небольшой анализ списка Forbes AI 50.
Основные тенденции и участники:

1.Генеративный ИИ и ИИ-агенты: Многие компании в списке сосредоточены на разработке генеративных моделей и ИИ-агентов, способных выполнять задачи, ранее требовавшие участия человека. Например, Harvey предоставляет юридическим фирмам инструменты для автоматизации анализа документов и поиска прецедентов, а Abridge использует ИИ для создания медицинской документации на основе голосовых записей врачей и пациентов. ​

2.Инфраструктура и инструменты для разработчиков: Компании, такие как LangChain, Baseten и Unstructured, предлагают решения для упрощения разработки и внедрения ИИ-приложений, предоставляя разработчикам необходимые инструменты и платформы.​
Forbes

3.Открытые модели и европейские стартапы: Французская компания Mistral AI выделяется среди европейских участников, предлагая открытые ИИ-модели, которые требуют меньше вычислительных ресурсов, что делает их более доступными для широкого круга пользователей. ​

4.Разнообразие отраслей: Стартапы из списка охватывают различные сферы, включая здравоохранение, оборону, робототехнику и продуктивность. Например, Figure AI разрабатывает гуманоидных роботов, а Notion интегрирует ИИ в инструменты для повышения продуктивности.​

В списке нет компаний, непосредственно специализирующихся на строительстве или архитектурном проектировании. Но некоторые из представленных имеют потенциал применения в этой области.

1. LangChain: предоставляет инструменты для создания ИИ-приложений, которые могут быть использованы для разработки систем автоматизированного проектирования и управления строительными проектами.​

2.Baseten: предлагает платформу для развертывания и масштабирования моделей машинного обучения, что может быть полезно для анализа данных в строительстве и архитектуре.​

3.Unstructured: специализируется на обработке неструктурированных данных, что может помочь в анализе архитектурной документации и строительных отчетов.
🤔3👍1
This media is not supported in your browser
VIEW IN TELEGRAM
Используем VR-технологии на благо ремонта

Вот так просто можно работать на этапе финишной отделки квартиры и создавать дизайн под заказчика.

Нам зашло😊 А вам как?
👍94🔥21😨1
This media is not supported in your browser
VIEW IN TELEGRAM
#ЛабораторияИИ #Эксперименты
Первые эксперименты нашей лаборатории исследований ИИ в архитектурном проектировании

Насколько LLM модели способны работать в контексте задач проектирования?
Наши первые эксперименты показали, что научить нейронную сеть общаться на "языке геометрии" очень интересная задача, которая имеет очень мощный потенциал.

На видео несколько демонстраций того, что модель способна ориентироваться в пространстве, хорошо интерпретирует исходный запрос, написанный "на коленке". И также удалось добиться понимания исходной геометрии.

P.S. Эксперименты проводятся на Платформе R2 ГК ПИК
🔥12👍31
This media is not supported in your browser
VIEW IN TELEGRAM
FramePack

Создатель ControlNet только что представил новый подход к генерации видео прогрессивным способом — вы можете генерировать очень длинные видео с малым объемом видеопамяти (всего 6 ГБ)
🔥6👍21
Forwarded from Всё о стройке
This media is not supported in your browser
VIEW IN TELEGRAM
«Нарисуй башню 33 этажа», — ПИК показал, как проектирует с помощью LLM на своей платформе R2

Пока это только эксперименты в лаборатории исследований ИИ, и основное внимание уделяется сбору данных, работе с текстовыми промтами и дообучению моделей. Гипотезы тестируют на разных версиях опенсорсных моделей — например, на Llama, Gemma и других. Их разворачивают локально и подключают к платформе R2 через API. Результаты впечатляют:

«Пишем промт, и ответ сразу преобразуется в геометрию с атрибутами. Также придумали способы отправлять геометрию в теле запроса. Нашей команде очень удобно экспериментировать — для этого есть наша платформа R2 или робот, которые мы разрабатываем в ПИК. Все инструменты, вплоть до создания геометрии, мы создали сами и поэтому можем работать прямо под капотом программы», — рассказал Всеостройке.pф Артур Ишмаев, руководитель группы автоматизации градостроительного проектирования ПИК Digital.

Желаем коллегам успехов с LLM и ждем новых видео😊

#роботизация #цифровизация
👍73🔥1
Media is too big
VIEW IN TELEGRAM
#эксперименты
Новый функционал Stage для работы со сценой и генерацией 3д в сервисе Krea.ai
Начинаем тестировать⚡️⚡️⚡️
5👍2👌1
#вкопилкуэрудита #пытаюсьпонять
"Уверенность" LLM модели в своих ответах.

Функция потерь (Loss Function) — это математический инструмент, который измеряет, насколько предсказания модели отличаются от истинных данных. Она направляет обучение, помогая модели минимизировать ошибки.

Cross-Entropy Loss — самая эффективная и стандартная функция потерь для трансформеров в большинстве задач благодаря их вероятностной природе. И можно сказать, что это сердце LLM моделей.
LLM предсказывают вероятности слов или токенов, а Cross-Entropy идеально измеряет, насколько предсказания модели близки к истине. Будь то генерация текста, перевод или что-то еще — эта функция потерь помогает моделям учиться и становиться умнее.
Поскольку Кросс-энтропия работает с вероятностными предсказаниями, можно сделать описать ее так
Cross-Entropy Loss — это мера того, насколько модель "не уверена" в правильном ответе.
🔥5👍21
This media is not supported in your browser
VIEW IN TELEGRAM
И снова LLM в архитектуре. На этот раз используют связку chatGPT и p5.js

Экспериментируете с нейросетями на благо стройки — делитесь в бота
@alliance_of_digital_leaders_bot
👍752
Media is too big
VIEW IN TELEGRAM
#unrealneural
Очень впечатляющее демо ИИ сервиса, будущее сервисов обслуживания клиентов.

Агенты, которые могут понимать текст, речь, изображения и даже живое видео.

Скоро все будет с открытым исходным кодом.
62🤯2
This media is not supported in your browser
VIEW IN TELEGRAM
#ЛабораторияИИ #Эксперименты
Генерация планировки квартиры с помощью нейронной сети

Наша лаборатория активно работает над решением задачи генерации планировочных решений. Очень важно учитывать весь спектр ограничений и контекста, положение квартиры на типовом этаже и т.д, Это очень важно при генерации результата. В рамках модуля R2.ОПР нашей платформы мы начали тестирование технологий на базе нейронных сетей, которые позволяют учитывать ряд нужных критериев, а самое главное, понимают неявные принципы, признаки получения результата - для этого и нужны нейронные сети. Вот несколько экспериментов на пути решения этой задачи.
1🔥87👍71
Forwarded from Data Secrets
Google предложили новую обобщенную архитектуру нейросетей, устроенную так, что трансформеры и RNN являются ее частными случаями

Основная проблема сегодняшних моделей – память. У нас есть трансформеры, но их сложно масштабировать на длинный контекст из-за квадратичной сложности операций. У нас есть RNN, но они не параллелятся и постоянно все забывают.

Так что в последнее время выходит все больше работ про все новые и новые подходы к моделированию памяти. И все они строятся на каких-то видах скрещивания: атеншена с линейностью, или гейтов забывания с трансформерами, или скалярной памяти с матричной, ну и тд и тп.

В Google заметили, что почти все эти методы можно описать единым набором правил. Свой фреймворк они назвали MIRAS, и его главная идея в том, что любое проектирование памяти нейросетей сводится к четырем основным выборам:

1. Выбор архитектуры памяти. Память может быть вектором, как в RNN, матрицей, как в трансформерах, отдельной маленькой нейросетью, как в test-time-training подходах, ну или чем-то другим.

2. Выбор attentional bias. Это функция потерь, которую память будет оптимизировать при обновлении. Цель, по сути, всегда одна: точно сопоставлять ключи со значениями, то есть верно восстаналивать связи между словами. В трансформерах, например, attention bias – это непараметрический ℓ₂‑MSE.

3. Retention Gate. Это регуляризация, которая контролирует, как и когда мы избавляемся от ненужной информации. Другими словами, мера консервативности или забывания.

4. Выбор метода оптимизации. Это конкретный рецепт того, как перейти из прошлого состояния памяти в новое, учитывая все компоненты выше. Например, в трансформерах это просто вычисление softmax‑attention, но также это может быть градиентный спуск или его модификации.


Вот и все. Похоже на выбор гиперпараметров. Перебираем набор по рамке и получаем либо уже известную модель, либо новую, с нужными свойствами по стоимости/емкости/устойчивости. И да, трансформеры, RNN и всякие Mamba – тоже частные случаи MIRAS (картинка 2).

И главное: получается, по этому пространству параметров можно гулять и искать локальные минимумы. Google для примера показали три MIRAS инстанса: Moneta, Yaad, Memora. Moneta достигает 93.5% на иголке в стоге сена, при этом перплексия падает мягко и метрики вполне себе на уровне.

Красивая и стройная работа. Читаем полностью тут
41🤯1
This media is not supported in your browser
VIEW IN TELEGRAM
#unrealneural #mcp
Twitter MCP
MCP протокол и Твиттер!

Поиск и получение твитов и профилей пользователей (без необходимости использования Twitter/X API)

https://github.com/exa-labs/exa-mcp-server
👍3🤯32
3d3.gif
21.1 MB
#эксперименты
Играюсь с инструментом Scene Stage в Krea
5👍32
#лабораторияИИ #PROГОРОD2025
Фотоотчет о посещении форума PROГОРОD2025
Выступал с рассказом о наших экспериментах
👍1143🔥3