289K subscribers
3.97K photos
694 videos
17 files
4.56K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
加入频道
Новое решение на базе ИИ сможет анализировать снимки МРТ мозга младенцев за несколько минут вместо нескольких дней

Нейросеть, созданная Яндексом совместно со студентами ШАДа и экспертами СПбГПМУ, поможет улучшить качество диагнозов и повысит точность и скорость диагностики ДЦП и нарушений развития нервной системы на ранней стадии.

Как правило, ручная расшифровка снимков МРТ занимает у врачей до 72 часов. В случае, если это не первое исследование, то срок может увеличиться. Новый веб-сервис оценивает развитие мозга новорожденных за минуты, сокращая время анализа в десятки раз и позволяя врачам выбрать наиболее эффективную терапию для ребенка.

⚙️ Техническая реализация:

— Использовали 1500 обезличенных МРТ-снимков детей, которые предразметили в BIBSNet (Baby Intensity‑Based Segmentation Network — сегментационная сеть, основанная на фреймворке nnU‑Net) и распараллели процесс в Docker-контейнерах на 20 ВМ, что позволило быстро получить основу, которую доработали врачи.

— Протестировали несколько архитектур (U-Net, U-Net++, DeepLabV3) и бэкбонов (ResNet, ResNeXt). Лучшим экспериментом стало обучение U‑Net с ResNeXt50 в качестве сети для извлечения признаков с помощью функции потерь DiceLoss. Метрикой качества выступала IoU.

— Скорость обученной нейронной сети, запущенной на CPU, составляет порядка 3 секунд и не нуждается в дорогих GPU на стороне клиники.

В будущем код разработки планируют выложить в открытый доступ, чтобы её могли использовать в других медицинских проектах. Подробности о том, как разрабатывали нейросеть — на Хабре.
3👍6022🔥13🥱4🤣3
⚡️ 200+ готовых сценариев для n8n

Нашёл простой и полезный ресурс: GitHub-репозиторий с 200+ бесплатными workflow для n8n.

Темы: продажи, маркетинг, учёт финансов, кодинг и личная продуктивность.

Что такое n8n
- Open-source инструмент для автоматизации без кода
- Визуальный конструктор: соединяете блоки и получаете процесс
- Есть сотни интеграций: почта, CRM, таблицы, мессенджеры, вебхуки
- Можно добавлять свою логику на JavaScript
- Запуск по расписанию или по событию, работает в облаке или на своём сервере

Как воспользоваться:
1) Скачайте нужный workflow (.json) и импортируйте в n8n
2) Вставьте свои API-ключи и учётные данные в блоки
3) Проверьте шаги и включите запуск по cron или webhook

Github

Update - еще 300 готовых решений: https://github.com/kossakovsky/n8n-installer

@ai_machinelearning_big_data

#n8n #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
143👍18🥰6🔥4🤣3💋2
AI VK & Pro: как это было

Вчера прошел первый ивент AI VK & Pro в .оригинале: встреча про рекомендательные системы собрала, кажется, всех, кто делает RecSys (и не только). Ребята раздали стиля.

Из интересного: команда RecSys VK рассказала про стратегию рекомендаций в VK, про технологии глубокого понимания контента, про единую рекомендательную платформу и многое другое

Определенный плюс вайб: DJ-сеты, интерактивы, турнир по су-е-фа и нетворк

Спасибо организаторам и спикерам за контент и настроение. Если делаете рекомендации, такое пропускать не стоило

@ai_machinelearning_big_data
57🔥42😁40🤣11👍10🥱9❤‍🔥5🤬5🥰1😍1🎃1
🖥 OpenAI представили gpt-realtime: свою самую продвинутую на сегодня модель «речь-в-речь».

Цены:
> $32 за 1 миллион аудио-входных токенов
> ($0.40 за 1 миллион кэшированных входных токенов)


> $64 за 1 миллион аудио-выходных токенов

📊 MultiChallenge (Audio), точность следования инструкциям:
- gpt-realtime: 30.5%
- gpt-4o-realtime-preview-2025-06-03: 26.5%
- gpt-4o-realtime-preview-2024-12-17: 20.6%

🎯 ComplexFuncBench (Audio), точность выполнения инструкций по голосу:
- gpt-realtime: 66.5%
- gpt-4o-realtime-preview-2025-06-03: 58.9%
- gpt-4o-realtime-preview-2024-12-17: 49.7%

Чем интересна:
- Скачок в понимании голосовых инструкций и точном следовании аудио-командам
- Меньше косяков в понимании речи
- Модель готова для реального продакшена в голосовых ассистентах и колл-ботах

GPT-Realtime обучали на качественных данных и с помощью специализированных reward-моделей, звучит очень годно.

🟢 Попробовать

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5020🔥11🤔8😴3🤬2
🚀 Grok Code Fast 1 — новая модель от xAI, быстрый и недорогой агент для кодинга.

Новая модель для повседневных задач программирования с упором на agentic-coding (циклы рассуждений + вызовы инструментов: grep, терминал, редактирование файлов). Обучена на огромном корпусе кода и дообучена на реальных PR/задачах.

🙌 Модель уже доступна бесплатно на популярных платформах:
GitHub Copilot, Cursor, Cline, Kilo Code, Roo Code, opencode и Windsurf.

Контекст 256k токенов, лимиты: до 2M токенов в минуту и 480 запросов в минуту.

Особенности:
- Новая лёгкая архитектура, разработанная с нуля
- Заточена на скорость и эффективность
- Показвает хорошие результаты в TypeScript, Python, Java, Rust, C++, Go

💰 Стоимость через xAI API:
- $0.20 / 1M входных токенов
- $1.50 / 1M выходных токенов
- $0.02 / 1M кешированных токенов
в 6 раз дешевле, чем GPT-5.


Команда Grok обещает выпускать регулярные обновления и уже тренирует вариант с мультимодальным вводом, параллельными tool-calls и расширенным контекстом.

🟠 Подробности: https://x.ai/news/grok-code-fast-1
🟠 Гайд по промпт-инжинирингу: https://docs.x.ai/docs/guides/grok-code-prompt-engineering

@ai_machinelearning_big_data


#xAI #Grok #AI #coding
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6319🔥9😁4🍓2🤔1😈1
Media is too big
VIEW IN TELEGRAM
✔️ Microsoft AI представила первые полностью собственные ИИ-модели.

Корпорация анонсировала 2 новые модели, разработанные полностью внутри компании: MAI-Voice-1 для синтеза речи и большую языковую модель MAI-1-preview. Разработку возглавляет Мустафа Сулейман, сооснователь DeepMind, который теперь руководит подразделением Microsoft AI.

Модель MAI-Voice-1 может генерировать минуту высококачественного аудио менее чем за секунду на одном GPU. Она уже используется в некоторых функциях Copilot и доступна для тестирования разработчиками.

MAI-1-preview - первая собственная фундаментальная языковая модель Microsoft. Она уже проходит тестирование на LMArena, и в ближайшие недели ее начнут интегрировать в отдельные функции Copilot. Внешним разработчикам также предоставят ранний доступ.
microsoft.ai

✔️ Copilot появился на телевизорах и мониторах Samsung.

Microsoft интегрировала Copilot в линейки Neo QLED, OLED и The Frame телевизоров и мониторов Samsung . Ассистент доступен через операционную систему Tizen в интерфейсе «Samsung Daily+» и активируется кнопкой микрофона на пульте.

Пользователи могут задавать вопросы, получать рекомендации и искать информацию о фильмах. Ответы предоставляются в виде голосовых реплик и визуальных карточек с изображениями и рейтингами. На экране появляется анимированный персонаж, синхронизирующий мимику с разговором. Функция бесплатна, но на старте доступна только в некоторых регионах.
microsoft.com

✔️ Google открыла бесплатный доступ к ИИ-видеоредактору Vids.

Google сделала Vids доступным для всех владельцев аккаунтов Google. Ранее инструмент был эксклюзивом для подписчиков Workspace. Бесплатная версия включает базовые шаблоны, доступ к стоковым медиа и часть ИИ-возможностей.

Одновременно с этим, подписчики Workspace и Google AI получили новые премиум-функции: image-to-video на базе Veo 3, фотореалистичные ИИ-аватары, способные зачитывать текст пользователя, и функция автоматической обрезки, которая убирает паузы и слова-паразиты из записанной речи. В будущем появятся функции шумоподавления и поддержка вертикальных форматов кадра.
workspace.google.com

✔️ Anthropic начнет обучать модели Claude на данных пользователей.

Компания объявила о кардинальном изменении своей политики конфиденциальности. Теперь данные из чатов и сессий кодирования пользователей будут использоваться для обучения ИИ-моделей компании, а срок их хранения увеличится до 5 лет. Новые правила вступают в силу 28 сентября.

Изменение коснется всех потребительских тарифов Claude, включая бесплатный. При этом оно не затронет корпоративные и образовательные планы, а также использование через API. Пользователям будет предложено сделать выбор во всплывающем окне. Важно отметить, что опция, разрешающая использование данных, включена по умолчанию.

Хотя решение можно будет изменить в любой момент в настройках, это не будет иметь обратной силы для уже собранных данных.
anthropic.com

✔️ Исследование: люди начали использовать в речи слова, характерные для ChatGPT.

В Университете штата Флорида провели исследование 22 миллионов слов из подкастов и спонтанной речи и обнаружили статистически значимый рост употребления терминов, которые часто используют большие языковые модели, в частности, ChatGPT.

С момента публичного запуска чат-бота в конце 2022 года частота использования слов "surpass", "boast", "meticulous" и "strategically", выросла более чем вдвое. В то же время, частота их синонимов, не популярных у ИИ, не изменилась.

Исследователи отмечают, что впервые в новейшей истории лингвистики наблюдается столь быстрый и масштабный сдвиг в словарном запасе, вызванный нечеловеческим фактором.
news.fsu.edu

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
😁4428👍13🔥4💘2🤔1
⚡️ OLMoASR: открытые ASR-модели от AI2.

Институт искусственного интеллекта Аллена выпустил OLMoASR, семейство из 6 моделей для автоматического распознавания английской речи.

▶️Линейка моделей:

🟢OLMoASR-tiny.en (39M);
🟢OLMoASR-base.en (74M);
🟢OLMoASR-small.en (244M);
🟢OLMoASR-medium.en (769M);
🟠OLMoASR-large.en-v1 (1.5B) обученная на 440 тыс. часов аудио;
🟠OLMoASR-large.en-v2 (1.5B) обученная на 680 тыс. часов аудио;

По результатам тестов на 21 датасете, модели OLMoASR показали производительность, сопоставимую с Whisper от OpenAI, а в некоторых случаях и превзошли ее, особенно при работе с длинными аудиозаписями.

Проект полностью открытый: опубликованы не только веса моделей, но и датасет, код для обработки данных, а также скрипты для обучения и оценки. Все компоненты, включая код и данные, доступны на GitHub и Hugging Face.


📌Лицензирование:  Apache 2.0 License.


🟡Статья
🟡Набор моделей
🟡Техотчет
🟡Demo
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #ASR #OLMoASR #AI2
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3915👍7🥰6