Media is too big
VIEW IN TELEGRAM
Что объединяет успешный собес и продвинутый анализ данных? Оба требуют способности выделять главное из информационного шума!
В мире данных этот суперскилл называется методом главных компонент (PCA) — это как рентген для ваших данных, который мгновенно показывает всю суть, отбрасывая неважные детали.
Например, мы проанализировали 453 акции компаний из списка S&P 500 и выяснили, что всего одна главная компонента объясняет 38% всей динамики рынка. Как такое возможно?
Вы будете работать с реальными данными, научитесь выявлять скрытые закономерности и применять эти инсайты в своих проектах.
Стоимость: 3990 ₽
Не беспокойтесь, если теоретическая база пока хромает — вы можете заранее посмотреть запись нашего вебинара по основам по ссылке ниже.
Реклама. ИП Дрёмов Артём Сергеевич, ИНН 771391651571. Erid 2VtzqvFafi1
Please open Telegram to view this post
VIEW IN TELEGRAM
🧹 Очистка данных в Docker: как освободить место и ускорить работу
Docker — мощный инструмент, но со временем он начинает засоряться контейнерами, образами, томами и сетями. Это тормозит систему и забивает диск.
Вот как быстро навести порядок:
▪ Удалить остановленные контейнеры
▪ Удалить неиспользуемые образы
▪ Удалить неиспользуемые сети
▪ Удалить неиспользуемые тома
▪ Комплексная очистка всего окружения
⚙️ Автоматизация очистки (раз в неделю через cron)
📦 Для Docker Compose-проектов
✅ Регулярная очистка — залог стабильности и свободного пространства. Привычка, за которую ваша система скажет спасибо.
@DevopsDocker
Docker — мощный инструмент, но со временем он начинает засоряться контейнерами, образами, томами и сетями. Это тормозит систему и забивает диск.
Вот как быстро навести порядок:
▪ Удалить остановленные контейнеры
docker container prune
▪ Удалить неиспользуемые образы
docker image prune
docker image prune -a
▪ Удалить неиспользуемые сети
docker network prune
▪ Удалить неиспользуемые тома
docker volume prune
▪ Комплексная очистка всего окружения
docker system prune
docker system prune -a
⚙️ Автоматизация очистки (раз в неделю через cron)
0 * * 0 /usr/bin/docker system prune -f
📦 Для Docker Compose-проектов
docker-compose down --remove-orphans
✅ Регулярная очистка — залог стабильности и свободного пространства. Привычка, за которую ваша система скажет спасибо.
@DevopsDocker
❓ Что выведет следующий код на Python?
🔢 Варианты ответа:
A)
B)
C)
D)
✅ Правильный ответ:B
💡 Почему?
- → , потому что от -5 до 256 кэшируются.
- → , число 257 не кэшируется.
- → , более того, .
- → — это разные типы (bool и int).
- → , → .
a = 256
b = 256
c = 257
d = 257
print(a is b) # #1
print(c is d) # #2
print(True + True + True == 3) # #3
print(True is 1) # #4
print(False == 0) # #5
print(False is 0) # #6
🔢 Варианты ответа:
A)
True
True
True
True
True
B)
False
True
False
True
False
C)
False
True
False
True
False
D)
True
False
False
False
False
✅ Правильный ответ:
💡 Почему?
-
a is b
True
int
-
c is d
False
-
True + True + True == 3
True
True == 1
-
True is 1
False
-
False == 0
True
False is 0
False
Реально огромная: более 5000 страниц, всё удобно разложено по категориям.
Можно пользоваться онлайн или скачать для локального использования.
#linux #commands #library
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🤖 Исследователи обнаружили тревожный тренд: ИИ-ассистенты вроде ChatGPT и Gemini всё чаще предлагают код с несуществующими зависимостями. Злоумышленники быстро адаптировались — они регистрируют эти галлюцинированные названия в PyPI и NPM, наполняя их вредоносным кодом.
Под особой угрозой разработчики, практикующие vibe-coding — бездумное копирование ИИ-подсказок. Некоторые фейковые пакеты выглядят убедительно: имеют документацию, GitHub-репозитории и даже блоги-однодневки.
‼️ Фонд Python называет эту тактику «слопсквоттинг» (от *slop* — «мусорный вывод ИИ») и усиливает защиту репозиториев. Пока главная рекомендация — вручную проверять каждую зависимость, даже если её рекомендует ИИ.
🔗 Ссылка - *клик*
Под особой угрозой разработчики, практикующие vibe-coding — бездумное копирование ИИ-подсказок. Некоторые фейковые пакеты выглядят убедительно: имеют документацию, GitHub-репозитории и даже блоги-однодневки.
‼️ Фонд Python называет эту тактику «слопсквоттинг» (от *slop* — «мусорный вывод ИИ») и усиливает защиту репозиториев. Пока главная рекомендация — вручную проверять каждую зависимость, даже если её рекомендует ИИ.
🔗 Ссылка - *клик*
@pro_python_code
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Новый Function (fxn) — фреймворк, который компилирует Python-функции в нативный код с производительностью, сравнимой с Rust.
🧠 Как это работает?
- Использует символическое трассирование на CPython для анализа функций
- Генерирует промежуточное представление (IR)
- Транслирует IR в C++ или Rust, а затем компилирует в бинарный код
- Поддерживает платформы: Linux, Android, WebAssembly и др.
📦 Пример:
@compile
def fma(x: float, y: float, z: float) -> float:
return x * y + z
После компиляции вы получаете нативный бинарник, который можно запускать без интерпретатора Python.
🔗 Подробнее
🔗 Github
@pro_python_code
#Python #Rust #fxn #Compiler #Performance #AI #ML #Wasm
Please open Telegram to view this post
VIEW IN TELEGRAM
Я пожалею об этом, но ладно...
В общем сливаю вам самый топовый источник слитых курсов, бесплатных книг, программ, лучших шпаргалок для разработчиков.
Если после этого не сможешь стать Сениором, то ты безнадежен!
Вот ссылка - https://yangx.top/+ZLrCusZbNeYyODli
В общем сливаю вам самый топовый источник слитых курсов, бесплатных книг, программ, лучших шпаргалок для разработчиков.
Если после этого не сможешь стать Сениором, то ты безнадежен!
Вот ссылка - https://yangx.top/+ZLrCusZbNeYyODli
Forwarded from Machinelearning
Kimi-Audio — инструктивная модель с 7 млрд. параметров, разработанная командой MoonshotAI, которая объединяет распознавание речи, анализ аудиоконтента и генерацию ответов в реальном времени в единую архитектуру. Модель показала SOTA-результаты на множестве аудиобенчмарков, от распознавания речи до эмоционального анализа.
Архитектура Kimi-Audio — это 3 компонента:
Отдельного внимания заслуживает пайплайн обучения, к нему команда разработки подошла ответственно и скрупулезно: 13 млн часов аудио были обработаны через автоматический конвейер, включающий шумоподавление, диаризацию и транскрипцию.
Для повышения качества сегменты объединялись по контексту, а транскрипции дополнялись пунктуацией на основе пауз. После предобучения на задачах ASR и TTS модель прошла этап SFT на 300 тыс. часов данных (развернутые диалоги и аудиочаты).
В тестах ASR Kimi-Audio показала: WER 1.28 на LibriSpeech test-clean против 2.37 у Qwen2.5-Omni. В аудиопонимании она лидирует на ClothoAQA (73.18) и MELD (59.13), а в классификации сцен (CochlScene) показывает 80.99 — на 17 пунктов выше ближайшего соперника. В диалогах модель близка к GPT-4o (3.90 против 4.06 по субъективной оценке).
@ai_machinelearning_big_data
#AI #ML #KimiAudio #MoonshotAI
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM