293K subscribers
3.99K photos
700 videos
17 files
4.57K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
加入频道
✔️ Nvidia соберет тысячи специалистов на конференции по AI-технологиям GTC 2025.

Nvidia анонсировала проведение ежегодной конференции GTC, которая пройдет в Сан-Хосе с 17 по 21 марта. Ожидается 25 тысяч участников очно и 300 тысяч онлайн. На конференции выступит главы Nvidia Дженсен Хуанг, его доклад будет посвящен AI и технологиям ускоренных вычислений.

В рамках GTC запланировано более 1000 сессий с участием 2000 спикеров и около 400 экспозиций, демонстрирующих применение AI в здравоохранении, робототехнике и автономном транспорте. Участники смогут посетить более 80 практических семинаров и впервые бесплатно сдать сертификационные экзамены.

На GTC в этом году впервые состоится Quantum Day, посвященный квантовым вычислениям.
nvidia.com

✔️ OpenAI планирует тарифы стоимостью до 20 тысяч долларов в месяц за специализированные ИИ-агенты.

OpenAI намерена представить ряд дорогостоящих "агентских" продуктов, ориентированных на задачи сортировки и ранжирования лидов и разработку программного обеспечения. Так, стоимость "агента для высококвалифицированных специалистов" может составить 2 тыс. долларов в месяц, а "агента-разработчика" – 10 тыс. долларов.

Наиболее дорогостоящий вариант, по слухам, будет нацелен на поддержку исследований на уровне PhD. Хотя сроки запуска и круг потенциальных пользователей пока не определены, известно об инвестициях SoftBank в размере 3 миллиардов долларов в эти продукты OpenAI на текущий год.
theinformation.com

✔️ Microsoft переработала приложение Copilot для Windows 11.

Microsoft полностью переосмыслили Copilot, сделав его нативным и интегрированным непосредственно в операционную систему. Теперь Copilot использует Windows-технологии XAML и WinUI. Тестировщики обновленного Copilot отмечают повышенную производительность: приложение работает практически без задержек и требует значительно меньше памяти – в среднем от 50 до 100 МБ RAM.

Предполагается, что благодаря глубокой интеграции с Windows 11, Copilot будет лучше понимать систему и предоставлять более персонализированные ответы. Новая версия Copilot под индексом 1.25023.101.0 уже доступна участникам Windows Insider.
pcworld.com

✔️ Директор по продуктам Anthropic: "в ближайшие 3 года программисты будут отвечать только за проверку сгенерированного кода".

Майк Кригер, директор по продуктам Anthropic, прогнозирует, что работа инженеров-программистов существенно изменится в ближайшие 3 года. Уже сейчас разработчики тратят больше времени на проверку кода, сгенерированного ИИ, чем на его написание самостоятельно. Он считает, что по мере того, как ИИ будет все шире использоваться в программировании, разработчики начнут решать абстрактные задачи - разработка концепций, проектирование взаимодействия с пользователем и эффективное делегирование задач моделям.

Несмотря на автоматизацию отдельных процессов, Кригер не ожидает полного исчезновения профессии программиста, но подчеркивает, что для сохранения актуальности потребуется мультидисциплинарный подход, где знание того, что строить, становится столь же важным, как и знание как это реализовать.
businessinsider.com

✔️ VLM-run Hub – платформа для централизованного управления, развертывания и мониторинга VLM-пайплайнов. Она служит в качестве «хаба», куда можно интегрировать различные модели, алгоритмы и компоненты, необходимые для создания и эксплуатации систем, объединяющих обработку изображений и текста. Благодаря интуитивно понятному интерфейсу и расширяемой архитектуре, инструмент упрощает сложные процессы и позволяет быстро адаптировать решения под специфические задачи.
Github

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3113🔥11🕊1💯1
✔️ Google Research разрабатывает систему AMIE для долгосрочного медицинского сопровождения пациентов.

Разработанная Google в августе 2024 года ИИ-система AMIE теперь способна не только диагностировать, но и длительное время "вести" пациента. Инженеры Research-подразделения усовершенствовали AMIE, внедрив возможности, позволяющие ей учитывать динамику развития заболевания, реакцию на лечение и безопасно назначать лекарства, опираясь на клинические рекомендации.

В ходе эксперимента AMIE продемонстрировала результаты, не уступающие, а порой и превосходящие решения практикующих врачей в вопросах лечения и назначений. Система использует двухкомпонентную архитектуру, где один агент общается с пациентом, а другой анализирует данные и разрабатывает планы лечения на основе клинических руководств.
research.google

✔️ Проект Google Astra переходит к команде Gemini AI.

Разработку ИИ-агента Astra теперь ведет команда приложения Gemini, это означает переход от исследовательской стадии к коммерческому продукту. Инсайдеры осторожно намекают на релиз уже в марте этого года. Перенос проекта в целевое подразделение должен ускорить выпуск продукта, который был анонсирован в мае 2024 года.

Ожидается, что интеграция Astra даст возможность подписчикам Gemini Advanced на Android использовать видео и демонстрацию экрана для контекстных бесед. Часть исследовательской группы Astra останется в прежней структуре.
9to5google.com

✔️ DuckDuckGo представил новые ИИ-функции.

Поисковик DuckDuckGo представил новые функции на базе ИИ, которые являются приватными, полезными и необязательными. Теперь пользователи могут бесплатно и анонимно пользоваться популярными чат-ботами по адресу Duck.ai. Среди доступных моделей – GPT-4o mini, Llama 3.3 и Claude 3 Haiku. Для удобства реализована функция «Recent Chats», которая сохраняет историю чатов локально на устройстве.

Кроме того, DuckDuckGo внедряет ИИ в поисковую выдачу, предлагая бесплатные ИИ-ответы на английском языке без необходимости регистрироваться. Пользователи могут настроить, как часто такие ответы будут появляться в результатах поиска, или отключить их вообще. Специальная кнопка «Assist» позволяет запросить ИИ-ответ, при этом запросы отправляются анонимно, что гарантирует защиту личной информации.
spreadprivacy.com

✔️ Tavus выводит ИИ-видеокоммуникацию на новый уровень.

Tavus представила усовершенствованный интерфейс Conversational Video Interface (CVI), который помогает сделать взаимодействие между людьми и ИИ более человечным. CVI позволяет создавать AI-агентов, способных видеть, слушать, понимать и общаться в реальном времени.

В основе системы лежат три модели: Phoenix-3 – обеспечивает реалистичную анимацию лица, включая детали мимики, Raven-0 – анализирует визуальный контекст, намерения и эмоции, Sparrow-0 – управляет очередностью реплик для создания естественного диалога.

CVI может использоваться в различных сферах – от медицинской помощи до клиентского сервиса. Разработчики могут легко интегрировать CVI в свои приложения с помощью API.
tavus.io

✔️ Llama 4 будет поддерживать голосовые функции.

Гигант социальных сетей активно наращивает усилия в сфере голосового ИИ. Согласно Financial Times, компания Марка Цукерберга планирует внедрить улучшенные голосовые функции в Llama 4. Разработчики убеждены, что будущее AI-агентов будет именно за разговорным взаимодействием, а не за текстовым.

Компания на протяжении последних 2 лет делает значительные инвестиции в ИИ, а Марк Цукерберг объявил о планах потратить до 65 млрд. долларов в 2025 году на укрепление AI-направлений. Создатели Lllama стремятся расширить возможности ИИ за пределы социальных сетей и рассматривают возможность пробного запуска премиум-подписок на своего AI-ассистента для выполнения агентских функций. Главный продуктовый директор, Крис Кокс, охарактеризовал грядущую Llama 4 как "омни-модель", которая генерирует речь вместо трансляции голоса в текст.
pymnts.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5018🔥6🥰2
🏜 GamingAgent – это простое решение для развертывания локальных игровых агентов (CUA – Computer Use Agents).

В репозитории представлены примеры агентов для:

- Super Mario Bros (1985) – классическая платформенная игра;
- Sokoban – головоломка с перемещением коробок;
- 2048 – логическая игра-головоломка;
- Tetris – культовая аркадная игра;
- Candy Crush – популярная головоломка с элементами стратегии и другие.

В каждом примере описаны этапы установки, настройки, запуска игры и агента, а также приведены рекомендации по оптимизации и настройке параметров, таких как политика агентов или количество рабочих потоков.

GamingAgent предоставляет подробную документацию по установке и настройке. С помощью простых команд можно легко развернуть агентов и тестить их.

Поддерживает API от ведущих И:

- OpenAI: gpt-4o, gpt-4o-mini, o1, o3-mini;
- Anthropic: claude-3-5, claude-3-7 и другие;
- Gemini: gemini-1.5, gemini-2.0 и варианты с режимом "thinking";
- Deepseek: chat и reasoner.
Такой широкий выбор позволяет разработчикам тестировать различные модели и выбирать наиболее подходящую под конкретную задачу.

Можно применять разные стратегии игровых агентов, используя встроенные режимы: «long», «short», «alternate» или можно реализовывать собственные алгоритмы.

Это интересно для тех, кто работает в области планирования и принятия решений в реальном времени.

GamingAgent позволяет запускать агентов локально.

Алекс Альберт, руководитель отдела по связям с клиентами Antropic лайкнул это проект, Claude-3.7 отлично показывает себя в игре в Марио.

Установка:
git clone https://github.com/lmgame-org/GamingAgent.git
cd GamingAgent


Github

@ai_machinelearning_big_data


#python #aiagents #gaminga
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3715🔥8🤩3🥰1
✔️ Стартап Manus представил универсального ИИ-агента, выглядит очень впечатляюще. Он объединяет возможности OpenAI Operator и глубокую аналитику, но работает ещё эффективнее. Этот агент не только умеет управлять компьютером, но и собирает информацию для проведения серьёзных научных исследований.

— В этом видео Manus одновременно регистрирует и активно управляет 50 аккаунтами в Твиттере.
— Агент провел всесторонний анализ акций Tesla и предложила свой прогноз на будущее.
— Manus вычислил оптимальную орбиту для космического корабля, направляющегося к Марсу, с учётом текущего расположения планет.

Подать заявку на доступ можно здесь. А здесь вы найдете сравнение ManusAI и OpenAI DeepResearch.
Manus


✔️ Очень годный сборник учебных материалов, обучающих созданию нейросетей и обучению нейросетей её с нуля.

• Всё работает в облаке.
• 20 детально проработанных глав: от архитектуры нейросетей и NLP до основ глубокого обучения.
• Теория подкреплена практическими задачами
• Большое количество понятных примеров
Colab


✔️ Nomic Embed v2 — это новая SOTA для создания текстовых эмбеддингов, использующая архитектуру Mixture-of-Experts (MoE). Поддерживает около 100 языков и была обучена на более чем 1,6 миллиарда пар данных. Модель полностью открыта.
HF


✔️ Smart-turn — это открытая модель для определения смены речевых реплик (turn detection) в системах голосового взаимодействия. Она предназначена для более точного определения момента, когда голосовой агент должен начать свою реакцию на речь пользователя. Очень полезный инструмент для разработчиков голосовых агентов, стремящихся улучшить естественность и эффективность взаимодействия с пользователями.
Github

@ai_machinelearning_big_data


#news #ai #ml #aiagents
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5316🥰13🔥7
🌟 AMD Instella: открытая языковая модель, обученная на ROCm и оборудовании AMD.

Instella - полностью опенсорсная модель с 3 млрд. параметров, обученная с нуля на GPU AMD Instinct MI300X. Instella не только превосходит существующие LLM сопоставимого размера, но и показывает конкурентоспособную производительность по сравнению с Llama-3.2-3B, Gemma-2-2B и Qwen-2.5-3B.

Разработка Instella основана на опыте AMD с OLMo, на которой была доказана возможность обучения LLM на стеке AMD. В процессе создания Instella прошлые наработки были масштабированы для создания модели с 3 млрд. параметров. Она обучалась на 128 GPU MI300X с использованием 4,15 трлн. токенов. В процессе применялись методы FlashAttention-2, Torch Compile и FSDP с гибридным шардированием.

Процесс обучения Instella состоял из 4-х этапов, постепенно наращивая возможности модели от базового понимания естественного языка до следования инструкциям и соответствия предпочтениям человека.

Первый этап претрейна задействовал 4 трлн. токенов из набора данных OLMoE-mix-0924 (код, академические тексты, математика и общие знания). Второй этап - 57 млрд. токенов из датасетов Dolmino-Mix-1124 и SmolLM-Corpus (python-edu).

На третьем этапе проводилась SFT модели с использованием 8,9 млрд. токенов текстовых пар "инструкция-ответ". Наконец, для приведения модели в соответствие с предпочтениями человека был выполнен четвертый этап - DPO модели Instella-3B-SFT с использованием 0,76 млрд токенов.

Instella получила 36 слоев, каждый из которых имеет 32 attention heads и поддерживает длину последовательности до 4096 токенов.

Финальный вариант Instella-3B превосходит существующие открытые модели в среднем на 8,08%.

▶️ Состав релиза:

🟢Instella-3B-Stage1 - претрейн-чекпоинт после первого этапа обучения;
🟢Instella-3B - чекпоинт после второго этапа;
🟢Instella-3B-SFT - версия модели после SFT;
🟢Instella-3B-Instruct - финальная версия после DPO;
🟠Instella-GSM8K-synthetic - датасет, использованный на 2 этапе обучения;
🟠Код для трейна и инференса


📌 Лицензирование: ReasearchRAIL License.


🟡Статья
🟡Коллекция на HF
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #LLM #RoCM #AMD #Instella
Please open Telegram to view this post
VIEW IN TELEGRAM
👍61🔥2011🙏3
Подборка полезных ИИ- каналов для обучения

🎓 1) Andrej Karpathy
Глубокие, но доступные лекции по глубокому обучению, языковым моделям и введению в нейронные сети.
Ссылка: https://www.youtube.com/c/AndrejKarpathy

📊 2) 3Blue1Brown
Потрясающие визуализации, которые делают абстрактные математические концепции понятными и интуитивными.
Ссылка: https://www.youtube.com/c/3blue1brown

🎙️ 3) Lex Fridman
Глубокие беседы с лидерами индустрии ИИ, позволяющие получить широкий взгляд на современные тенденции.
Ссылка: https://www.youtube.com/c/LexFridman

🤖 4) Machine Learning Street Talk
Технические погружения и обсуждения с ведущими исследователями в области ИИ и машинного обучения.
Ссылка: https://www.youtube.com/c/MachineLearningStreetTalk

💼 5) Uproger
Множество полных кусрсов, уроков с уклоном на практику
https://www.youtube.com/@uproger

🍉 6) Serrano Academy (Luis Serrano)
Ясный и доступный контент о машинном обучении, глубоких нейронных сетях и последних достижениях в ИИ.
Ссылка: https://www.youtube.com/c/LuisSerrano

💻 7) Jeremy Howard
Практические курсы по глубокому обучению и обучающие видео по созданию AI-приложений, основанные на опыте Fast.ai.
Ссылка: https://www.youtube.com/c/Fastai

🛠️ 8) Hamel Husain
Практические уроки по работе с языковыми моделями (LLMs), RAG, тонкой настройке моделей и оценке ИИ.
Ссылка: https://www.youtube.com/c/HamelHusain

🚀 9) Jason Liu
Экспертные лекции по RAG и советы по фрилансу в области ИИ для специалистов по машинному обучению.
Ссылка: https://www.youtube.com/c/JasonLiu

⚙️ 10) Dave Ebbelaar
Практические руководства по созданию ИИ-систем и применению технологий в реальных проектах.
Ссылка: https://www.youtube.com/c/DaveEbbelaar

📚 11) StatQuest with Joshua Starmer PhD
Доступные и понятные объяснения основ машинного обучения и статистики для начинающих.
Ссылка: https://www.youtube.com/c/statquest

Эти каналы предлагают разнообразный и качественный контент для всех, кто хочет углубиться в изучение искусственного интеллекта. Независимо от вашего уровня подготовки, здесь каждый найдёт что-то полезное для себя!

@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍84🔥2712🥰2🥱1
🔥 «The State of LLM Reasoning Models» свежая статья от Себастьяна Рашка, которая посвящена современному состоянию исследований в области рассуждений (reasoning) и масштабирования выводов (inference scaling) для больших языковых моделей (LLM).

Основные моменты:
- Эволюция возможностей рассуждения:
В статье показано, как с увеличением размеров моделей и вычислительных ресурсов появляются «внезапные» способности, позволяющие моделям выполнять сложное логическое и пошаговое рассуждение. Это включает методы вроде chain-of-thought, которые помогают моделям структурировать ответ.

- Масштабирование и его эффекты:
Анализируются закономерности масштабирования — как увеличение числа параметров и использование более мощных аппаратных средств влияет на точность и способность моделей к рассуждению. Выявляются пределы, где дополнительные вычисления начинают давать менее заметное улучшение.

- Инновации в инференсе:
Статья рассматривает новые подходы к оптимизации процесса инференса, что особенно важно для применения LLM в реальном времени и на устройствах с ограниченными ресурсами. Поднимается вопрос балансировки между качеством ответов и затратами на вычисления.

- Практические выводы для исследований:
Сатья служит ориентиром, показывающим, какие направления развития (например, улучшение алгоритмов рассуждения, оптимизация инференс-методов) могут принести наибольший эффект при дальнейшем увеличении масштабов моделей. Это позволяет понять, куда двигаться в будущих исследованиях и как лучше интегрировать существующие технологии в практические приложения.

Отличное воскресенье чтиво 📕

📌 Читать

#ai #ml #reasoning #llm
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥53👍3021🤔4🤓1🎃1
📌LADDER: как научить LLM решать сложные задачи без учителя.

Tufa Labs опубликовала пейпер фреймворка LADDER, который дает возможность языковым моделям самостоятельно улучшать навыки решения сложных задач.

Технология имитирует человеческое обучение: ИИ разбивает проблемы на простые шаги, создаёт «учебный план» из упрощённых вариантов и постепенно наращивает мастерство решения. Например, модель Llama 3.2 с 3 млрд. параметров, изначально решавшая лишь 1% интегралов студенческого уровня, после обучения по методу LADDER достигла 82% точности.

Самые интересные результаты LADDER показал на тесте MIT Integration Bee — ежегодном соревновании по интегральному исчислению. На нем модель Qwen2.5 (7B), доработанная с помощью LADDER, набрала 73%, обойдя GPT-4o (42%) и большинство студентов, а с применением TTRL — результат вырос до 90%. Это превзошло даже показатели OpenAI o1, хотя последний не использовал числовую проверку решений.

TTRL (Test-Time Reinforcement Learning) — это метод «микрообучения», который позволяет языковым моделям адаптироваться к сложным задачам прямо во время их решения.


В основе LADDER - принцип рекурсивной декомпозиции: модель разбивает непосильную задачу на цепочку постепенно усложняющихся шагов, создавая собственную «учебную программу». Столкнувшись со сложным интегралом, ИИ генерирует его упрощённые версии — снижает степень полинома, убирает дробные коэффициенты или заменяет составные функции базовыми. Каждый такой вариант становится ступенью, ведущей к решению целевой задачи.

Работа фреймворка делится на три этапа:

Первый — генерация «дерева вариантов»: модель создаёт десятки модификаций задачи, ранжируя их по сложности.

Второй — верификация: каждое решение проверяется численными методами (например, сравнение значений интеграла в ключевых точках).

Третий — обучение с подкреплением: система поощряет успешные стратегии, используя баллы за правильные ответы и штрафуя за ошибки.

Дополняющее применение TTRL позволяет проводить «экспресс-тренировки» прямо во время теста: ИИ генерирует варианты конкретной задачи и адаптируется к ней за секунды, не требуя вмешательства человека.


🟡Arxiv

@ai_machinelearning_big_data

#AI #ML #RL #LADDER #Paper
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥73👍2112🤬3😁1