Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
🤖 Fourier Intelligence выпустила Fourier N1 — первого полностью open-source гуманоидного робота!
Fourier N1 — это компактный робот ростом 1.3 м и весом 38 кг, способный развивать скорость до 3.5 м/с.
За плечами более 1000 часов полевых испытаний.
🌟 Всё открыто: → список комплектующих (BOM)
→ CAD-чертежи и 3D-модели
→ спецификации приводов
→ управляющий код — на GitHub
⚙️ В основе робота — фирменные приводы FSA 2.0, обеспечивающие высокую устойчивость и манёвренность даже на пересечённой местности.
🔜 Github
🔜 Документация (включайте автоперевод)
#ai #robots #opensource
Fourier N1 — это компактный робот ростом 1.3 м и весом 38 кг, способный развивать скорость до 3.5 м/с.
За плечами более 1000 часов полевых испытаний.
→ CAD-чертежи и 3D-модели
→ спецификации приводов
→ управляющий код — на GitHub
⚙️ В основе робота — фирменные приводы FSA 2.0, обеспечивающие высокую устойчивость и манёвренность даже на пересечённой местности.
#ai #robots #opensource
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡9❤🔥4👍2👀2👾2
This media is not supported in your browser
VIEW IN TELEGRAM
🚀 Наткнулся на полезный фрейм - Transformer Lab — многофункциональную "песочницу" для экспериментов с LLM!
Главное о проекте:
• 100% Open Source с GUI для работы с LLM
• Все этапы ML-жизненного цикла под одной крышей: скачивание, обучение, файнтюнинг, общение
• Работает на вашем железе — никаких облачных зависимостей
Чем круто:
✨ Один клик для загрузки топовых моделей: DeepSeek, Llama3, Qwen, Phi4, Gemma, Mistral
✨ Кроссплатформенность: Windows/Mac/Linux
✨ Гибкий инференс: MLX для Apple Silicon, HuggingFace, vLLM, Llama CPP
✨ RLHF и preference optimization: DPO, ORPO, SIMPO, Reward Modeling (для тех, кто любит потюнить модель под себя)
✨ Полноценный REST API для автоматизации
👨💻 Встроенный Monaco Code Editor позволяет писать свои плагины и видеть, что происходит под капотом.
Практика:
• Стартапы могут файнтюнить модели под свою специфику без ML-команды
• Исследователи получают полигон для экспериментов с различными подходами к обучению
• RAG-энтузиасты найдут здесь drag-and-drop интерфейс для работы с документами
• DevOps'ы оценят возможность раздельного деплоя UI и inference engine
Поддержка от Mozilla через Mozilla Builders Program.
Интересная альтернатива LMStudio, при этом с бОльшим набором полезностей для разработчиков.
#TransformerLab #OpenSource #frameworks
———
@tsingular
Главное о проекте:
• 100% Open Source с GUI для работы с LLM
• Все этапы ML-жизненного цикла под одной крышей: скачивание, обучение, файнтюнинг, общение
• Работает на вашем железе — никаких облачных зависимостей
Чем круто:
✨ Один клик для загрузки топовых моделей: DeepSeek, Llama3, Qwen, Phi4, Gemma, Mistral
✨ Кроссплатформенность: Windows/Mac/Linux
✨ Гибкий инференс: MLX для Apple Silicon, HuggingFace, vLLM, Llama CPP
✨ RLHF и preference optimization: DPO, ORPO, SIMPO, Reward Modeling (для тех, кто любит потюнить модель под себя)
✨ Полноценный REST API для автоматизации
👨💻 Встроенный Monaco Code Editor позволяет писать свои плагины и видеть, что происходит под капотом.
Практика:
• Стартапы могут файнтюнить модели под свою специфику без ML-команды
• Исследователи получают полигон для экспериментов с различными подходами к обучению
• RAG-энтузиасты найдут здесь drag-and-drop интерфейс для работы с документами
• DevOps'ы оценят возможность раздельного деплоя UI и inference engine
Поддержка от Mozilla через Mozilla Builders Program.
Интересная альтернатива LMStudio, при этом с бОльшим набором полезностей для разработчиков.
#TransformerLab #OpenSource #frameworks
———
@tsingular
👍12⚡4✍2❤1🔥1😐1
Forwarded from Анализ данных (Data analysis)
🚀 LTX-Video 13B — один из самых мощных open-source видеогенераторов.
Разработчики внедрили в модель мультимасштабный рендеринг.
✅ Обычные генеративные модели видео рендерят всё изображение целиком, одним разрешением.
Когда в сцене много движущихся объектов или деталей, модель может "размазать" их, потерять чёткость или неправильно совместить фон и передний план.
📝 А мультимасштабный рендеринг — это параллельная отрисовка картинки на разных уровнях детализации:
один поток отвечает за фон (низкая детализация, большой масштаб),
другой — за объекты в центре, движущиеся элементы (высокая детализация, малый масштаб).
Потом всё объединяется в один кадр, как слои в Photoshop.
🎯 Зачем это нужно?
Фон остаётся стабильным, не "дергается"
Движущиеся объекты остаются чёткими и отдельными от фона
Картинка в целом не разваливается (нет смешивания движений, артефактов)
Такой подход помогает удерживать высокое качество картинки даже при сложном движении — например, если в кадре бежит персонаж на фоне движущегося города.
👉 По сути, это умное раздельное внимание к разным частям кадра, чтобы не терять детали ни в статике, ни в движении.
Что нового?
– Модель 13 миллиардов параметров
– Multiscale rendering → больше деталей, чётче текстуры
– Лучше понимает движение и сцену
– Запускается локально на GPU
– Поддержка keyframes, движения камеры/персонажей, мультисценных секвенций
Запускается даже на RTX 4090.
#AI #videoAI #ltxvideo #deeplearning #generativeAI #opensource #videogeneration
▪Попробовать можно тут→ https://app.ltx.studio/ltx-video
▪Code → https://github.com/Lightricks/LTX-Video
▪Weights → https://huggingface.co/Lightricks/LTX-Video
Разработчики внедрили в модель мультимасштабный рендеринг.
✅ Обычные генеративные модели видео рендерят всё изображение целиком, одним разрешением.
Когда в сцене много движущихся объектов или деталей, модель может "размазать" их, потерять чёткость или неправильно совместить фон и передний план.
📝 А мультимасштабный рендеринг — это параллельная отрисовка картинки на разных уровнях детализации:
один поток отвечает за фон (низкая детализация, большой масштаб),
другой — за объекты в центре, движущиеся элементы (высокая детализация, малый масштаб).
Потом всё объединяется в один кадр, как слои в Photoshop.
🎯 Зачем это нужно?
Фон остаётся стабильным, не "дергается"
Движущиеся объекты остаются чёткими и отдельными от фона
Картинка в целом не разваливается (нет смешивания движений, артефактов)
Такой подход помогает удерживать высокое качество картинки даже при сложном движении — например, если в кадре бежит персонаж на фоне движущегося города.
👉 По сути, это умное раздельное внимание к разным частям кадра, чтобы не терять детали ни в статике, ни в движении.
Что нового?
– Модель 13 миллиардов параметров
– Multiscale rendering → больше деталей, чётче текстуры
– Лучше понимает движение и сцену
– Запускается локально на GPU
– Поддержка keyframes, движения камеры/персонажей, мультисценных секвенций
Запускается даже на RTX 4090.
#AI #videoAI #ltxvideo #deeplearning #generativeAI #opensource #videogeneration
▪Попробовать можно тут→ https://app.ltx.studio/ltx-video
▪Code → https://github.com/Lightricks/LTX-Video
▪Weights → https://huggingface.co/Lightricks/LTX-Video
👍9⚡4🔥1
Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
🗣️ RealtimeVoiceChat — живой голосовой чат с ИИ.
RealtimeVoiceChat — это open-source проект, который позволяет общаться с LLM в реальном времени голосом. Он объединяет распознавание речи, LLM и синтез речи в единую систему с минимальной задержкой — около 500 мс при локальной установке.
➡️ Как работает:
1. Запись речи в браузере
2. Передача аудио по WebSocket на сервер
3. Распознавание речи через
4. Ответ от LLM (Ollama, OpenAI и др.)
5. Озвучка ответа через
6. Обратная передача аудио в браузер
7. Поддержка прерываний и динамики через
✨ Особенности:
- Задержка ~500 мс
- Поддержка разных LLM и TTS движков
- Быстрый запуск через Docker Compose
- Чистый веб-интерфейс на Vanilla JS + Web Audio API
✔️ Стек:
- Backend: Python + FastAPI
- Frontend: JS + WebSockets
- ML: transformers, torchaudio, Ollama, Whisper, TTS
- Контейнеризация: Docker
✔️ Требуется CUDA-совместимая видеокарта (для Whisper/TTS) и Docker.
🔥 Отличный проект для тех, кто хочет интегрировать голосовой интерфейс с LLM — например, для ассистентов, чат-ботов, презентаций или UX-экспериментов.
🔜 Репозиторий: https://github.com/KoljaB/RealtimeVoiceChat
🔜 Демо: https://www.youtube.com/watch?v=-1AD4gakCKw
@ai_machinelearning_big_data
#tts #llm #opensource
RealtimeVoiceChat — это open-source проект, который позволяет общаться с LLM в реальном времени голосом. Он объединяет распознавание речи, LLM и синтез речи в единую систему с минимальной задержкой — около 500 мс при локальной установке.
1. Запись речи в браузере
2. Передача аудио по WebSocket на сервер
3. Распознавание речи через
RealtimeSTT
(на базе Whisper)4. Ответ от LLM (Ollama, OpenAI и др.)
5. Озвучка ответа через
RealtimeTTS
(Coqui XTTSv2, Kokoro и др.)6. Обратная передача аудио в браузер
7. Поддержка прерываний и динамики через
turndetect.py
✨ Особенности:
- Задержка ~500 мс
- Поддержка разных LLM и TTS движков
- Быстрый запуск через Docker Compose
- Чистый веб-интерфейс на Vanilla JS + Web Audio API
- Backend: Python + FastAPI
- Frontend: JS + WebSockets
- ML: transformers, torchaudio, Ollama, Whisper, TTS
- Контейнеризация: Docker
@ai_machinelearning_big_data
#tts #llm #opensource
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6👍3⚡2❤1
VS Code превращается в открытую среду для ИИ разработки
Команда VS Code объявила о планах открыть исходный код расширения GitHub Copilot Chat под MIT-лицензией.
Это важный шаг в превращении редактора в полноценный open source AI-инструмент.
Ключевые компоненты расширения будут перенесены в ядро VS Code.
Разработчики также обещают выпустить инфраструктуру для тестирования промптов, чтобы сделать вклад сообщества в AI-функциональность максимально простым.
Сначала Курсор вырос из VSCode, а теперь Майкрософт такие - ящик шампанского и всех разработчиков обратно :)
#VSCode #OpenSource #кратко
———
@tsingular
Команда VS Code объявила о планах открыть исходный код расширения GitHub Copilot Chat под MIT-лицензией.
Это важный шаг в превращении редактора в полноценный open source AI-инструмент.
Ключевые компоненты расширения будут перенесены в ядро VS Code.
Разработчики также обещают выпустить инфраструктуру для тестирования промптов, чтобы сделать вклад сообщества в AI-функциональность максимально простым.
Сначала Курсор вырос из VSCode, а теперь Майкрософт такие - ящик шампанского и всех разработчиков обратно :)
#VSCode #OpenSource #кратко
———
@tsingular
⚡5🔥4👍1 1
Forwarded from Machinelearning
Главное:
• Глубокое рассуждение — на уровне моделей Google
• Улучшена генерация текста — более естественно, структурировано и аккуратно
• Уникальный стиль reasoning — не просто быстро, а вдумчиво и последовательно
• Может работать над одной задачей 30–60 минут, удерживая контекст
Новая модель показывает результат почти на уровне o3 (High) на бенчмарк LiveCodeBench.
https://huggingface.co/deepseek-ai/DeepSeek-R1-0528
@ai_machinelearning_big_data
#DeepSeek #opensource
Please open Telegram to view this post
VIEW IN TELEGRAM
👍19
Forwarded from Machine learning Interview
This media is not supported in your browser
VIEW IN TELEGRAM
🚀 Теперь можно запускать модели Hugging Face прямо в Google Colab — бесплатно!
Больше не нужно настраивать окружение вручную. Просто заходишь на страницу модели — и нажимаешь "Open in Colab". Всё готово для запуска за секунды.
✅ Отлично подходит для:
- Быстрого теста модели
- Прототипирования и экспериментов
- Обучения и демонстраций
💡 Бонус для разработчиков:
Добавь файл
Пользователи смогут запускать твой пример сразу, без копирования кода!
🔥 Работает с Google Colab — бесплатно, быстро, удобно.
#HuggingFace #Colab #ML #AI #OpenSource #DeepLearning
✔️ Подробнее
@machinelearning_interview
Больше не нужно настраивать окружение вручную. Просто заходишь на страницу модели — и нажимаешь "Open in Colab". Всё готово для запуска за секунды.
✅ Отлично подходит для:
- Быстрого теста модели
- Прототипирования и экспериментов
- Обучения и демонстраций
💡 Бонус для разработчиков:
Добавь файл
notebook.ipynb
в свой репозиторий модели — и Hugging Face автоматически подхватит его. Пользователи смогут запускать твой пример сразу, без копирования кода!
🔥 Работает с Google Colab — бесплатно, быстро, удобно.
#HuggingFace #Colab #ML #AI #OpenSource #DeepLearning
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8⚡2✍1❤1👍1
Hugging Face запустила MCP Server для подключения ИИ к своей экосистеме
Hugging Face представила первую версию MCP сервера - теперь можно подключить языковые модели напрямую к их API через VSCode, Cursor, Claude Desktop и другие MCP-совместимые приложения.
Сервер предоставляет встроенные инструменты: поиск по статьям и Spaces, исследование моделей и датасетов. Но главная фишка - динамический список всех MCP-совместимых Gradio приложений, размещённых на Spaces.
Проект полностью open source. Это не просто сервер - это попытка стандартизировать экосистему AI-инструментов с Gradio как основным UI-слоем.
HuggingFaceMCP
#HuggingFace #MCP #OpenSource
------
@tsingular
Hugging Face представила первую версию MCP сервера - теперь можно подключить языковые модели напрямую к их API через VSCode, Cursor, Claude Desktop и другие MCP-совместимые приложения.
Сервер предоставляет встроенные инструменты: поиск по статьям и Spaces, исследование моделей и датасетов. Но главная фишка - динамический список всех MCP-совместимых Gradio приложений, размещённых на Spaces.
Проект полностью open source. Это не просто сервер - это попытка стандартизировать экосистему AI-инструментов с Gradio как основным UI-слоем.
HuggingFaceMCP
#HuggingFace #MCP #OpenSource
------
@tsingular
⚡6✍3🔥3🤔1
LightAutoML - быстрый AutoML фреймворк от Сбера
LightAutoML (LAMA) — opensource фреймворк для создания ML моделей за несколько строк кода от команды Sber AI Lab.
Поддерживает табличные данные, временные ряды, изображения и тексты. Можно использовать готовые пресеты или собирать кастомные пайплайны из блоков.
Особенности:
- Быстрое прототипирование моделей
- Готовые решения для разных типов задач
- Гибкая настройка под конкретные нужды
- GPU и Spark поддержка в разработке
#AutoML #Сбер #OpenSource
------
@tsingular
LightAutoML (LAMA) — opensource фреймворк для создания ML моделей за несколько строк кода от команды Sber AI Lab.
Поддерживает табличные данные, временные ряды, изображения и тексты. Можно использовать готовые пресеты или собирать кастомные пайплайны из блоков.
Особенности:
- Быстрое прототипирование моделей
- Готовые решения для разных типов задач
- Гибкая настройка под конкретные нужды
- GPU и Spark поддержка в разработке
#AutoML #Сбер #OpenSource
------
@tsingular
✍6
Forwarded from Machinelearning
Первая полностью open-source, готовая к продакшену PBR 3D генеративная модель!
PBR (Physically Based Rendering) - это технология, при которой внешний вид 3D-объектов рассчитывается с учётом реальных физических законов взаимодействия света и поверхности.
✅ Модель выдает кинематографичное качество: синтез PBR-материалов — кожа, бронза и другие поверхности выглядят фотореалистично с красивыми эффектами освещения.
✅ Open source: доступны веса модели, код для обучения и инференса, пайплайны — всё можно доработать под себя.
✅ Запускается даже на потребительских GPU (Модель тестировалась на GPU A100 с Python 3.10 и PyTorch 2.5.1+cu124.) — с моделью создавать 3D-контент могут не только студии, но и любые разработчики и малые команды.
▪ Модель: https://huggingface.co/tencent/Hunyuan3D-2.1
▪ Github: https://github.com/Tencent-Hunyuan/Hunyuan3D-2.1
▪ Hunyuan 3D Creation Engine: https://3d.hunyuan.tencent.com
@ai_machinelearning_big_data
#Hunyuan3D #OpenSource #3DCreation #tencent
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
✍5👍3⚡2❤1