✨ Google представили GenAI Processors — open-source библиотеку для создания AI-приложений в реальном времени
GenAI Processors — это новый инструмент от команды Google DeepMind, разработанный для быстрой сборки потоковых и мультимодальных AI‑систем. Библиотека обеспечивает удобную работу с цепочками обработки данных, модульную архитектуру и поддержку стриминга.
Основные возможности:
— Потоковый ввод/вывод (stream-based I/O)
— Простая сборка пайплайнов через chaining
— Модульность и переиспользуемость (composability)
— Поддержка Gemini и Gemini Live API
— Асинхронная архитектура с минимальной задержкой
🔧 GenAI Processors позволяет разработчикам легко собирать голосовых агентов, мультимодальные интерфейсы и реактивные приложения на базе LLM.
🔗 GitHub: https://github.com/google-gemini/genai-processors
📖 Блог: https://developers.googleblog.com/en/genai-processors
GenAI Processors — это новый инструмент от команды Google DeepMind, разработанный для быстрой сборки потоковых и мультимодальных AI‑систем. Библиотека обеспечивает удобную работу с цепочками обработки данных, модульную архитектуру и поддержку стриминга.
Основные возможности:
— Потоковый ввод/вывод (stream-based I/O)
— Простая сборка пайплайнов через chaining
— Модульность и переиспользуемость (composability)
— Поддержка Gemini и Gemini Live API
— Асинхронная архитектура с минимальной задержкой
🔧 GenAI Processors позволяет разработчикам легко собирать голосовых агентов, мультимодальные интерфейсы и реактивные приложения на базе LLM.
🔗 GitHub: https://github.com/google-gemini/genai-processors
📖 Блог: https://developers.googleblog.com/en/genai-processors
❤4🔥2👍1
🐍 Совет дня для продвинутых Python-разработчиков
Хочешь писать чище и безопаснее, когда работаешь с вложенными
А вот компактный трюк на каждый день — безопасное извлечение с
📌 Почему это полезно:
- Нет KeyError
- Код читаемый
- Масштабируемо для любых уровней вложенности
🔥 Применяй в проектах, где много данных с API или JSON — избавит от лишних try/except и защитит от неожиданных крашей.
Python — это не только про лаконичность, но и про стабильность
Хочешь писать чище и безопаснее, когда работаешь с вложенными
dict
? Забудь про dict.get(...).get(...)
и используй collections.ChainMap
или types.SimpleNamespace
— но ещё лучше: pydantic
или dotmap
.А вот компактный трюк на каждый день — безопасное извлечение с
functools.reduce
:
from functools import reduce
def deep_get(dictionary, keys, default=None):
return reduce(lambda d, key: d.get(key, default) if isinstance(d, dict) else default, keys, dictionary)
data = {"user": {"profile": {"email": "[email protected]"}}}
email = deep_get(data, ["user", "profile", "email"])
📌 Почему это полезно:
- Нет KeyError
- Код читаемый
- Масштабируемо для любых уровней вложенности
🔥 Применяй в проектах, где много данных с API или JSON — избавит от лишних try/except и защитит от неожиданных крашей.
Python — это не только про лаконичность, но и про стабильность
❤3
This media is not supported in your browser
VIEW IN TELEGRAM
🐧 Продвинутый совет для Linux: как узнать, какой процесс держит файл, даже если он уже удалён
Иногда файл удаляется (`rm`), но система продолжает занимать под него место. Почему?
Потому что процесс всё ещё держит этот файл открытым, и диск не освобождается, пока он не завершится.
🔥 Найти такие случаи можно так:
📌
Пример вывода:
→ Процесс с PID
✅ Что можно сделать:
- Освободить диск — завершить процесс (`kill 12345`)
- Или: очистить через
(только если вы точно знаете, какой дескриптор используется)
⚠️ Часто встречается при работе с логами, Docker-контейнерами и временными файлами.
📌 Используйте
Иногда файл удаляется (`rm`), но система продолжает занимать под него место. Почему?
Потому что процесс всё ещё держит этот файл открытым, и диск не освобождается, пока он не завершится.
🔥 Найти такие случаи можно так:
lsof | grep deleted
📌
lsof
покажет все файлы, которые открыты процессами. Если строка содержит (deleted)
— это значит, что файл был удалён, но всё ещё используется.Пример вывода:
python3 12345 user txt REG 8,1 20480 123456 /tmp/log.txt (deleted)
→ Процесс с PID
12345
держит удалённый файл /tmp/log.txt
.✅ Что можно сделать:
- Освободить диск — завершить процесс (`kill 12345`)
- Или: очистить через
/proc
без остановки:
: > /proc/12345/fd/3
(только если вы точно знаете, какой дескриптор используется)
⚠️ Часто встречается при работе с логами, Docker-контейнерами и временными файлами.
📌 Используйте
lsof | grep deleted
как диагностику, если "всё удалили, но место не освободилось".❤6👍1
Рассмотрим ситуацию, когда случайно/специально удалился исполняющийся bash-скрипт.
Чтобы не попадать в такие ситуации, всегда храните исходники в git — это избыточно, но бекапы никто не отменял.
Скрипт удалён с диска, но продолжает работать в фоне, значит его можно как-нибудь восстановить.
Создадим подопытный скрипт.
touch /tmp/script.sh
:#!/bin/bash
sleep 1000
exit
Делаем его исполняемым
chmod +x /tmp/script.sh
и запускаем в фоне /tmp/script.sh &
.Символ
&
может служить разделителем между командами command & command
, две команды выполнятся параллельно.Скрипт запустили, он крутится в фоне. Удалим сам файл:
rm -f /tmp/script.sh
Ключ
-f
позволит удалить без лишних вопросов.Восстанавливаем:
lsof -c 'script.sh'
На экран выведется простыня. Нам нужна строка, где в конце указан путь к удаленному скрипту:
COMMAND PID USER FD TYPE DEVICE SIZE/OFF NODE NAME
script.sh 261899 root 255r REG 8,1 51 130773 /tmp/script.sh
Берем PID = 261899, берем FD = 255 и делаем так:
cat /proc/261899/fd/255
А вот и исходник скрипта:
File: /proc/261899/fd/255
#!/bin/bash
sleep 1000
exit
Вот полезная инфа, которая была использована в гайде:
man 5 proc # /proc/[pid]/fd/
man lsof
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7❤5🔥3
📦 Pydantic Extra Types — коллекция дополнительных типов данных для Pydantic, которые не вошли в основную библиотеку. Проект расширяет возможности валидации данных, предлагая специфические форматы и проверки.
Типы подключаются как опциональные зависимости, позволяя выбирать только нужные компоненты. Например, можно добавить поддержку pendulum для работы с временными зонами.
🤖 GitHub
Типы подключаются как опциональные зависимости, позволяя выбирать только нужные компоненты. Например, можно добавить поддержку pendulum для работы с временными зонами.
🤖 GitHub
❤4👍2🥰1
📝 DocuSeal — open‑source альтернатива DocuSign, которую можно развернуть у себя
⚡️ Что умеет:
— WYSIWYG‑редактор PDF: подписи, даты, текстовые поля, вложения
— Мультиподписанты, мобильная адаптация
— Авторассылка писем, webhooks, API
— Можно хостить у себя через Docker, без сторонних сервисов
🚀 Работает сразу после запуска:
👨💻 В комплекте:
— UI‑компоненты под React, Vue, Angular
— SDK под JS, Python, PHP, Ruby
— Интеграции через iframe или embedding
🌐 GitHub (9.5k⭐):
https://github.com/docusealco/docuseal
⚡️ Что умеет:
— WYSIWYG‑редактор PDF: подписи, даты, текстовые поля, вложения
— Мультиподписанты, мобильная адаптация
— Авторассылка писем, webhooks, API
— Можно хостить у себя через Docker, без сторонних сервисов
🚀 Работает сразу после запуска:
docker run --name docuseal -p 3000:3000 -v .:/data docuseal/docuseal
👨💻 В комплекте:
— UI‑компоненты под React, Vue, Angular
— SDK под JS, Python, PHP, Ruby
— Интеграции через iframe или embedding
🌐 GitHub (9.5k⭐):
https://github.com/docusealco/docuseal
👍6🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
🎨 Встречайте Neta Lumina — самую продвинутую open-source модель для генерации аниме-артов!
Это уже 4-я модель в линейке, и она впечатляет:
🔹 Точная настройка под 200+ аниме-стилей: от Guofeng и Furry до пейзажей и редких тем
🔹 Хорошая согласованность промптов, даже при длинных описаниях на естественном языке
🔹 Мультиязычная поддержка
🔥 Идеальный выбор для художников, аниматоров и фанатов генеративного арта.
🔹 Model on Hugging Face (Commercial use allowed):https://huggingface.co/neta-art/Neta-Lumina
🔹 Playground (Free to test):https://huggingface.co/spaces/neta-art/NetaLumina_T2I_Playground
⚙️ Supports ComfyUI, LoRA tutorial → https://docs.google.com/document/d/1fSp8wgraQeeaM58DVbnFoRULyyhPvt3MgY0Qja0Otc0/edit?tab=t.0
@data_analysis_ml
Это уже 4-я модель в линейке, и она впечатляет:
🔹 Точная настройка под 200+ аниме-стилей: от Guofeng и Furry до пейзажей и редких тем
🔹 Хорошая согласованность промптов, даже при длинных описаниях на естественном языке
🔹 Мультиязычная поддержка
🔥 Идеальный выбор для художников, аниматоров и фанатов генеративного арта.
🔹 Model on Hugging Face (Commercial use allowed):https://huggingface.co/neta-art/Neta-Lumina
🔹 Playground (Free to test):https://huggingface.co/spaces/neta-art/NetaLumina_T2I_Playground
⚙️ Supports ComfyUI, LoRA tutorial → https://docs.google.com/document/d/1fSp8wgraQeeaM58DVbnFoRULyyhPvt3MgY0Qja0Otc0/edit?tab=t.0
@data_analysis_ml
❤4👍2🔥2🤬1
This media is not supported in your browser
VIEW IN TELEGRAM
🗣 FLOAT — новая open‑source модель для генерации говорящих портретов по аудио
Быстрее и реалистичнее SadTalker:
— Фотореалистичное видео с точной синхронизацией губ
— Плавные движения головы и эмоции
— Управление выражением лица и наклоном головы
💡 Основа — latent flow matching вместо диффузии:
⚡️ генерация быстрее, нет итераций, стабильные кадры
🌐 page: https://deepbrainai-research.github.io/float/
🧬code: https://github.com/deepbrainai-research/float
📄paper: https://arxiv.org/abs/2412.01064
🍊jupyter: https://github.com/camenduru/Float-jupyter
Быстрее и реалистичнее SadTalker:
— Фотореалистичное видео с точной синхронизацией губ
— Плавные движения головы и эмоции
— Управление выражением лица и наклоном головы
💡 Основа — latent flow matching вместо диффузии:
⚡️ генерация быстрее, нет итераций, стабильные кадры
🧬code: https://github.com/deepbrainai-research/float
📄paper: https://arxiv.org/abs/2412.01064
🍊jupyter: https://github.com/camenduru/Float-jupyter
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4👍2🔥2
Forwarded from Machinelearning
🧠 Qwen3-MT — Alibaba продолжает жечь и выпускает еще одну модель, в этот раз для машинного перевода.
🌍 Поддерживает 92+ языка, на которых говорит 95% населения мира
📚 Обучен на триллионах токенов из интернета, открытых документов и книгах, субтитров из видео.
🔬 Что внутри:
- Модель Qwen3-MoE-72B с архитектурой Mixture-of-Experts
- Заточена на переводческие фишки, поддерживает сложную терминологию и даже очень редкие слова.
- RLHF: обучение с подкреплением повышает точность и естественность модели
Возможности:
✅ Обеспечивает качественный перевод в реальном времени
✅ Контроль стиля и терминов
✅ Масштабируемость для API и продакшена
✅ Цена — от $0.5 за миллион токенов
🟡 Попробовать демку: https://huggingface.co/spaces/Qwen/Qwen3-MT-Demo
🟡 ModelScope: https://modelscope.cn/studios/Qwen/Qwen3-MT-demo
🟡 Документация API: https://alibabacloud.com/help/en/model-studio/translation-abilities
🟡 Блог с подробностями: https://qwenlm.github.io/blog/qwen-mt/
@ai_machinelearning_big_data
#Qwen #Alibaba #ml #llm #ai
🌍 Поддерживает 92+ языка, на которых говорит 95% населения мира
📚 Обучен на триллионах токенов из интернета, открытых документов и книгах, субтитров из видео.
🔬 Что внутри:
- Модель Qwen3-MoE-72B с архитектурой Mixture-of-Experts
- Заточена на переводческие фишки, поддерживает сложную терминологию и даже очень редкие слова.
- RLHF: обучение с подкреплением повышает точность и естественность модели
Возможности:
✅ Обеспечивает качественный перевод в реальном времени
✅ Контроль стиля и терминов
✅ Масштабируемость для API и продакшена
✅ Цена — от $0.5 за миллион токенов
@ai_machinelearning_big_data
#Qwen #Alibaba #ml #llm #ai
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4👍2🔥2
В этой статье мы рассмотрим разработку реального проекта машинного обучения на языке Python с использованием нейронных сетей.
Будем строить модель для классификации изображений, подробно объясняя каждый шаг и весь исходный код.
📌 Читать подробнее
@pro_python_code
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6👍2🔥2👎1
🔥 100 вопросов со собеседований по Docker с подробными ответами
Хочешь пройти собеседование по Docker без "ммм..." и "сейчас погуглю"?
Мы собрали 100 самых частых (и каверзных) вопросов с реальных интервью — с чёткими, техничными и понятными ответами. Это не шпаргалка, это твой боевой лист на собес.
К вопросам: https://uproger.com/100-voprosov-so-sobesedovanij-po-docker-s-podrobnymi-otvetami/
Хочешь пройти собеседование по Docker без "ммм..." и "сейчас погуглю"?
Мы собрали 100 самых частых (и каверзных) вопросов с реальных интервью — с чёткими, техничными и понятными ответами. Это не шпаргалка, это твой боевой лист на собес.
К вопросам: https://uproger.com/100-voprosov-so-sobesedovanij-po-docker-s-podrobnymi-otvetami/
❤7👍3🔥3
Разработка платформера на Python: подробный проект с кодом
В этой статье мы разберём, как создать простой, но функциональный платформер на Python с использованием библиотеки Pygame.
Платформер — это жанр игр, где игрок управляет персонажем,перемещающимся по уровням с препятствиями и платформами. Мы последовательно рассмотрим, как подготовить окружение, спроектировать игру, реализовать движок, персонажа, платформы и обработку столкновений.
📌 https://uproger.com/razrabotka-platformera-na-python-podrobnyj-proekt-s-kodom/
В этой статье мы разберём, как создать простой, но функциональный платформер на Python с использованием библиотеки Pygame.
Платформер — это жанр игр, где игрок управляет персонажем,перемещающимся по уровням с препятствиями и платформами. Мы последовательно рассмотрим, как подготовить окружение, спроектировать игру, реализовать движок, персонажа, платформы и обработку столкновений.
📌 https://uproger.com/razrabotka-platformera-na-python-podrobnyj-proekt-s-kodom/
❤6👍3🥰3
Супер подбора для подготовки к Собесу:
🟢 Более 100 вопросов с собеседования Python. Разбор реальных вопросов.
🟢 120 ключевых вопросов по SQL за 2025 год
🟢 100 вопросов с собеседований продвинутого DevOps специалиста: подробный разбор
🟢 100 вопросов со собеседований по Docker с подробными ответами
🟢 100 вопросов для продвинутого Linux администратора
🟢 100 вопросов c собесов в Data Science и ML
🟢 100 вопросов с собеседованию Go.
Please open Telegram to view this post
VIEW IN TELEGRAM
UPROGER | Программирование
100 вопросов с собеседований продвинутого DevOps специалиста: подробный разбор
В этой статье — 100 реальных и нетривиальных вопросов с собеседований DevOps-специалистов: от контейнеризации и CI/CD до сетей, безопасности и отказоустойчивости.
🛠 Каждый вопрос сопровождается подробным разбором, примерами и объяснением, что именно от…
🛠 Каждый вопрос сопровождается подробным разбором, примерами и объяснением, что именно от…
❤4👍4🔥2
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2🔥2👍1
Хороший Бесплатный Python курс от Google
Рассчитан для новичков и содержит эти темы:
- Настройка
- Введение в Python
- Списки
- Сортировка
- Дикты и файлы
- Обычные выражения
- Утилиты
и тп.
Тут есть ZIP с заданиями, которые нужно скачать и открыть в редакторе для решения (пример на скрине)
https://developers.google.com/edu/python/set-up?hl=ru
Рассчитан для новичков и содержит эти темы:
- Настройка
- Введение в Python
- Списки
- Сортировка
- Дикты и файлы
- Обычные выражения
- Утилиты
и тп.
Тут есть ZIP с заданиями, которые нужно скачать и открыть в редакторе для решения (пример на скрине)
https://developers.google.com/edu/python/set-up?hl=ru
👍5❤2👎1🔥1
Forwarded from Machinelearning
X-Omni - методика обучения T2I моделей, которая наглядно доказывает, что RL может вдохнуть новую жизнь в авторегрессионный подход и вывести такие модели на SOTA-уровень.
X-Omni построена на гибридной, но при этом унифицированной архитектуре. Схематично она выглядит так:
Семантический токенизатор изображений SigLIP-VQ с фиксированным словарем на 16 384 токена кодирует картинку в дискретные токены. Эти визуальные токены вместе с текстовыми подаются в единую авторегрессионную модель на базе Qwen2.5-7B. Наконец, в финальном рендеринге используется диффузионный декодер на основе FLUX.1-dev.
Вместо одного критерия, модель оценивается сразу по нескольким направлениям. За эстетику и соответствие предпочтениям человека отвечает HPSv2 и модель Unified Reward. За семантическую связь между промптом и изображением — VLM-модель Qwen2.5-VL-32B. А за самое сложное, отрисовку текста внутри картинки, отвечает отдельная награда на основе OCR-систем GOT-OCR2.0 и PaddleOCR.
Тестовую модель X-Omni обучали на смеси из 200 млн. изображений, которые после токенизации превратились в 600 млрд мультимодальных токенов, а на этапе SFT использовал ещё 1.5 млрд. токенов.
Для RL-фазы был отобран микс из 180 тыс. промптов, состоящий как из творческие запросы, так и задач на рендеринг текста.
На бенче OneIG-Bench X-Omni показала результат 0.901 для английского языка, обойдя GPT-4o (0.857). А на собственном LongText-Bench, специально созданном для оценки рендеринга длинных надписей, модель буквально разгромила всех в китайском языке, набрав 0.814 балла против 0.619 у GPT-4o.
В задачах общей генерации по тексту X-Omni также на высоте. На DPG-Bench модель достигла SOTA-результата 87.65, опередив GPT-4o (86.23) и Show-o2 (86.14). На GenEval результат составил 0.83, чуть-чуть не дотянув до модели Mogao (0.89).
Даже в задачах на понимание изображений X-Omni показывает себя достойно: на OCRBench ее результат (704) превосходит другие унифицированные модели, например Emu3 (687).
Во-первых, X-Omni не нуждается в CFG. В отличие от Emu3 или Janus-Pro, качество которых резко падает при отключении CFG, X-Omni работает стабильно.
Во-вторых, что, пожалуй, самое важное, RL превосходит даже SFT с последующим сэмплингом best-of-N.
Этот вывод идет вразрез с устоявшимся мнением в области языкового моделирования и доказывает, что для изображений холистическая оптимизация через RL дает существенный прирост качества.
@ai_machinelearning_big_data
#AI #ML #T2I #RL #XOmni #Tencent
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3👍2
🚀 GitHub решил главную боль open-source ИИ-проектов — теперь inference доступен всем
Новая инициатива GitHub Models позволяет запускать LLM прямо из кода или CI,
⚡️ без API-ключей OpenAI, без развёртывания моделей, без костылей.
🔧 Как это работает:
- Полная совместимость с
- Поддержка GPT‑4o, Llama 3, DeepSeek и др.
- Авторизация через обычный
- Бесплатно для OSS и личных аккаунтов
- Можно использовать даже в GitHub Actions (просто `permissions: models: read`)
💡 Зачем это нужно:
- Убирает барьер входа для пользователей и контрибьюторов
- Помогает легко добавлять ИИ‑фичи в open-source проекты
- Работает с OpenAI SDK, LangChain, Python, Node.js и другими библиотеками
📦 Теперь запускать AI в open-source так же просто, как
📝 Подробности:
https://github.blog/ai-and-ml/llms/solving-the-inference-problem-for-open-source-ai-projects-with-github-models
Новая инициатива GitHub Models позволяет запускать LLM прямо из кода или CI,
⚡️ без API-ключей OpenAI, без развёртывания моделей, без костылей.
🔧 Как это работает:
- Полная совместимость с
openai.ChatCompletion.create
- Поддержка GPT‑4o, Llama 3, DeepSeek и др.
- Авторизация через обычный
GITHUB_TOKEN
- Бесплатно для OSS и личных аккаунтов
- Можно использовать даже в GitHub Actions (просто `permissions: models: read`)
💡 Зачем это нужно:
- Убирает барьер входа для пользователей и контрибьюторов
- Помогает легко добавлять ИИ‑фичи в open-source проекты
- Работает с OpenAI SDK, LangChain, Python, Node.js и другими библиотеками
📦 Теперь запускать AI в open-source так же просто, как
git push
.📝 Подробности:
https://github.blog/ai-and-ml/llms/solving-the-inference-problem-for-open-source-ai-projects-with-github-models
❤4👍1