ReasonFlux - методика, которая используется как для обучения, так и для инференса, чтобы повысить способность LLM к сложному логическому мышлению. Применение метода позволяет превосходить OpenAI o1-preview и DeepSeek V3 в задачах математического рассуждения.
При использовании в обучении ReasonFlux использует иерархическую структуру с подкреплением на последовательности высокоуровневых шаблонов мышления. Это позволяет базовой LLM научиться планировать оптимальную траекторию шаблонов для решения сложных задач. В процессе обучения ReasonFlux анализирует и обобщает информацию о решении задач, выявляя общие закономерности, и на основе этого создает шаблоны мышления.
Во время инференса ReasonFlux автоматически извлекает релевантные шаблоны мышления и масштабирует их для достижения превосходной производительности в сложных задачах рассуждения. Он динамически выбирает наиболее подходящий шаблон высокого уровня для каждой подзадачи, упрощая поиск путей рассуждений. ReasonFlux использует новую систему масштабирования во время вывода, которая адаптирует шаблоны мышления.
В экспериментальных тестах ReasonFlux-32B достиг 91,2% точности на MATH benchmark, опередив o1-preview на 6,7%. На AIME benchmark модель решила в среднем 56,7% задач, превзойдя o1-preview и DeepSeek-V3 на 27% и 45% соответственно.
Практическая реализация метода доступна в репозитории проекта, в нем cодержится необходимый код и описание для файнтюна LLM на примере SFT-датасета решений GaoKao Bench.
⚠️ Для трейна моделей на SFT-сете проект использует фреймворк LLaMA-Factory.
# Clone the repository
git clone https://github.com/ReasonFlux
cd ReasonFlux
# Create a Conda venv
conda create -n ReasonFlux python==3.9
conda activate ReasonFlux
# Install dependencies
pip install -r requirements.txt
# When you complete your first-stage training, you can try to use simple inference
from reasonflux import ReasonFlux
reasonflux = ReasonFlux(navigator_path='path-to-navigator',
template_matcher_path='jinaai/jina-embeddings-v3',
inference_path='path-to-infernece-model',
template_path='template_library.json')
problem = """Given a sequence {aₙ} satisfying a₁=3, and aₙ₊₁=2aₙ+5 (n≥1), find the general term formula aₙ"""
@ai_machinelearning_big_data
#AI #ML #LLM #ReasonFlux
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤31👍11🔥9🥰2
🌟Глава Т-Банка рассказал о компетенциях, которыми должны обладать ИТ–специалисты
В рамках совместного проекта “Ъ” и Центрального университета “Директора и люди” состоялось интервью главы Т-Банка Станислава Близнюка.
Он рассказал, что для построения успешной карьеры у ИТ-специалиста должны быть хардовые навыки, бизнес-ориентированность и софтскильность.
“Плох тот разработчик, который не понимает из чего выстраивается продукт, ИТ-структура или ИТ-ландшафт, а также тот, кто не понимает потребности клиентов и маркетинг продукта. Поэтому человеку с техническими хардами нужно раскрывать шоры на маркетинг и финансы”.
Обучать совокупности этих качеств нужно еще в вузе, а на вопрос, какие именно харды нужны, должен ответить работодатель и быть в плотной связке с университетами.
🟡Страница проекта
@ai_machinelearning_big_data
#news
В рамках совместного проекта “Ъ” и Центрального университета “Директора и люди” состоялось интервью главы Т-Банка Станислава Близнюка.
Он рассказал, что для построения успешной карьеры у ИТ-специалиста должны быть хардовые навыки, бизнес-ориентированность и софтскильность.
“Плох тот разработчик, который не понимает из чего выстраивается продукт, ИТ-структура или ИТ-ландшафт, а также тот, кто не понимает потребности клиентов и маркетинг продукта. Поэтому человеку с техническими хардами нужно раскрывать шоры на маркетинг и финансы”.
Обучать совокупности этих качеств нужно еще в вузе, а на вопрос, какие именно харды нужны, должен ответить работодатель и быть в плотной связке с университетами.
🟡Страница проекта
@ai_machinelearning_big_data
#news
🥱62👍14❤8🤬7🙈6🔥3🌭3🗿3😁2
NVIDIA в соавторстве с Arc Institute опубликовали Evo-2, самую большую ИИ-модель для биологии, обученную на 9,3 трлн. пар ДНК из геномного атласа всех форм жизни.
Можно считать, что это LLM, ориентированная на ДНК. Вместо текста Evo 2 генерирует геномные последовательности, читает и интерпретирует сложную ДНК, включая некодирующие регионы, которые обычно считаются неинформативными, генерирует целые хромосомы, новые геномы и предсказывает мутации, вызывающие заболевания, даже те, которые еще не изучены.
Тем самым, можно утверждать, что ИИ переходит от описания биологии к ее проектированию. Это позволяет создавать синтетическую жизнь с нуля, программируемые белковые последовательности, потенциальные новые генные терапии и закладывает основу для моделирования целых клеток. Evo 2 делает биологию вычислительной дисциплиной.
Evo-2 использует StripedHyena 2 - многогибридную модель, сочетающую различные типы операторов для баланса между качеством модели, эффективностью обучения и инференса. StripedHyena 2 опирается на комбинацию из 3 вариантов сверточных операторов, зависящих от входных данных, и механизма внимания. Она моделирует ДНК в нескольких масштабах, улавливая даже слабые взаимодействия, и автономно обучается таким характеристикам, как границы экзонов и интронов, сайты связывания транскрипционных факторов, без участия человека.
Модель была обучена в два этапа (претрейн с контекстом 8192 и последующее обучение с увеличенным до 1 млн.) на датасете из 9,3 триллиона пар оснований бактерий, архей, эукариот и бактериофагов. Evo 2 обрабатывает до 1 млн. пар оснований в одном контекстном окне, умеет "держать в уме" целые хромосомы и может выявлять эволюционные закономерности, ранее не замеченные человеком.
Evo-2 была протестирована на практических возможности генерации, создав синтетические дрожжевые хромосомы, митохондриальные геномы и минимальные бактериальные секвенции и продемонстрировала высокую производительность в задачах, связанных с вариациями генов, включая некодирующие и сплайсинговые варианты
Проект полностью открыт: веса моделей, код и набор данных OpenGenome 2. Представлены два вида моделей:
@ai_machinelearning_big_data
#AI #ML #Evo2 #NVIDIA
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥70❤36👍9😐5🦄3🥰1🤔1
DeepSeek запустил мероприятие OpenSourceWeek и на следующей неделе откроет исходный код в пяти репозиториях, чтобы поделиться своими достижениями в исследовании AGI. Начиная с понедельника DeepSeek будет каждый день открывать исходный код нового проекта. Каждый проект был проверен в реальных онлайн-сервисах и имеет полную документацию.
Deepseek в X
OpenAI выявила и пресекла 2 попытки использования своих инструментов искусственного интеллекта в рамках китайских кампаний влияния. Согласно опубликованному отчету OpenAI, одна из кампаний, названная "sponsored discontent", использовала ChatGPT для создания англоязычных комментариев, атакующих китайского диссидента Цай Ся. Часть этих материалов была размещена на платформе X, а статьи появились на различных новостных сайтах Латинской Америки, иногда в качестве спонсируемого контента.
Другая кампания, получившая название "peer review", включала использование ChatGPT для создания маркетинговых материалов инструмента мониторинга социальных сетей, который, по утверждениям создателей, использовался для отправки отчетов о протестах китайским службам безопасности. Найденные аккаунты заблокированы.
openai.com
Исследователи из Калифорнийского университета представили фреймворк S*, который значительно повышает качество и надежность кода, создаваемого языковыми моделями. S* использует одновременно параллельное и последовательное масштабирование, позволяя системе не только генерировать несколько вариантов кода, но и последовательно улучшать их за счет систематической отладки.
Ключевая особенность - использование "адаптивного синтеза входных данных". В процессе тестирования модель GPT-4o mini создает специальные тестовые входные данные, которые помогают выявить различия между разными версиями генерации. Это позволяет анализировать результаты и выбирать наиболее эффективное решение.
Даже небольшие модели, в тестах - Qwen2.5-7B-Coder-Instruct, с использованием S* показывают результаты на 10% лучше, чем более мощные модели без этого фреймворка. В некоторых случаях они даже превосходят GPT-4o mini. Однако, пока S* оптимизирован только для задач программирования в рамках соревнований, и его применение в более сложных инженерных проектах еще не изучено.
arxiv.org
Google выпустила новое поколение SigLIP 2, которое превосходит предыдущие версии в задачах классификации, поиска изображений и текста, а также в создании визуальных представлений для VLMs. В новой версии энкодера улучшено семантическое понимание, локализации и dense features. Модели семейства теперь лучше справляются с задачами, требующими тонкого анализа изображений и текста.
Ключевая особенность SigLIP 2 - поддержка динамического разрешения (
naflex
), что полезно для задач, чувствительных к изменению пропорций и разрешения изображений. Новые модели, включая варианты с динамическим разрешением, уже доступны для использования через библиотеку Hugging Face.huggingface.co
ElevenLabs расширяет свою программу Impact Program, чтобы помочь людям, потерявшим голос из-за тяжелых заболеваний. В прошлом году программа была запущена для пациентов с боковым амиотрофическим склерозом, а теперь ее поддержку смогут получить люди, страдающие от множественной системной атрофии и рака полости рта.
В сотрудничестве с организациями MSA Trust, Mission MSA и Mouth Cancer Foundation, ElevenLabs предоставляет бесплатный доступ к своим инструментам для создания цифровых копий голоса. Пациенты получают пожизненный доступ к этим технологиям, а больные раком полости рта могут подать заявку на бесплатный Pro-план, чтобы сохранить свой голос до потери речи.
ElevenLabs ставит перед собой амбициозную цель — помочь миллиону человек через Impact Program.
elevenlabs.io
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
3🔥51👍24❤14🥰1😁1💯1
Он предназначенный для преобразования PDF-документов в персонализированный аудиоконтент с использованием технологий генеративного ИИ.
Ключевые компоненты:
- Инструмент преобразования PDF в Markdown: Извлекает содержимое из PDF-файлов и конвертирует его в формат Markdown для дальнейшей обработки.
- Сервис создания монологов или диалогов: Обрабатывает Markdown-контент, обогащая или структурируя его для создания естественного аудиоконтента.
- Сервис преобразования текста в речь (TTS): Преобразует обработанный контент в высококачественную речь.
Преимущества использования:
- Персонализация: Возможность адаптации решения под специфические потребности организации, включая брендинг, аналитику, реальное время перевода или интерфейс цифрового человека для повышения вовлеченности.
- Конфиденциальность: Решение соответствует требованиям конфиденциальности на всех этапах обработки данных.
- Гибкость: Модульная структура позволяет добавлять дополнительные функции, соответствующие потребностям пользователей.
- Микросервисы NVIDIA NIM используются для развертывания и масштабирования моделей на GPU.
- Модели Llama 3.1 применяются для обработки и генерации текста.
- Langchain используется для обработки и интеграции данных.
- Docling применяется для парсинга документов.
- ElevenLabs предоставляет сервисы преобразования текста в речь.
Лицензирование:
Использование моделей в этом проекте регулируется NVIDIA AI Foundation Models Community License.
▪ Github: https://github.com/NVIDIA-AI-Blueprints/pdf-to-podcast
▪Project: build.nvidia.com/nvidia/pdf-to-podcast
@ai_machinelearning_big_data
#nim #tts #pdftopodcast
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍48❤11🔥6🗿2🕊1
Он позволяет существенно снизить потребление памяти и ускорить вычисления по сравнению с классическим полносвязным вниманием.
Одним из главных преимуществ данного решения является его высокая эффективность при обработке длинных последовательностей.
За счёт вычисления внимания только по выбранным элементам (а не по всем парам токенов) удаётся уменьшить сложность алгоритма.
Кроме того, инструмент интегрируется непосредственно с PyTorch и использует нативные CUDA-ядра, что позволяет достичь оптимальной производительности на GPU.
Репозитория поможет в экспериментах с архитектурами, где внимание применяется к длинным последовательностям – будь то тексты, временные ряды или изображения – и обеспечивает возможность более эффективного использования вычислительных ресурсов.
native-sparse-attention-pytorch даёт существенные преимущества в снижении затрат памяти и ускорении вычислений, что делает его ценным инструментом для глубокого обучения.
$ pip install native-sparse-attention-pytorch
▪ Github
@ai_machinelearning_big_data
#deeplearning #artificialintelligence #attention #sparseattention #ml #ai
Please open Telegram to view this post
VIEW IN TELEGRAM
👍41🔥9❤3🥰2👏2
Исследователи из Мюнхенского университета предложили методику генерации изображений, основанную на байесовском выводе. Экспериментальная модель, которая получила название Bayesian Sample Inference (BSI), имитирует процесс постепенного уточнения данных: ее инференс начинается с «размытого» представления об изображении и последовательно корректируется с использованием шумовых измерений до финального результата. По заверениям авторов, их метод позволяет точнее воспроизводить распределение данных, чем классические решения на основе диффузии.
BSI-модель стартует с априорного распределения, где начальная точность намеренно задаётся низкой — это эквивалентно «размытой картинке», покрывающей всё множество возможных изображений. На каждом шаге генерации, предиктор, построенный на U-Net или ViT, анализирует текущий промежуточный «результат» и генерирует оценку соответствия относительно "идеального" изображения, который, в свою очередь, участвует в пересчете среднего значения и точности для следующего шага генерации.
Такой подход позволяет BSI-модели балансировать между имеющимися знаниями и новыми данными, избегая переобучения и сохраняя разнообразие генерации. Эксперименты выявили, что BSI сохраняет разнообразие сгенерированных образцов даже при малом числе шагов — это выгодно отличает её от аналогов, склонных к «повторяющимся» генерациям.
BSI напрямую сравнивали с диффузионными VDM- и EDM-моделями и BFNs. Оказалось, что BSI-архитектура не только включает BFNs как частный случай, но и превосходит их в тестах на правдоподобие. Например, на наборах CIFAR10 и ImageNet BSI показала лучшие результаты, достигнув 2.64 (BFNs) и 3.22 (VDM) бит на измерение соответственно, но не смогла превзойти модели с точным расчетом правдоподобия (i-DODE).
Эта новая потенциально методика может стать гейм-чейнджером для генерации изображений.
#AI #ML #Bayesian #GenAI
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤50🔥31👍23👌1🤝1
scGPT-spatial - расширенная версия модели scGPT в помощь ученым-биологам для анализа пространственной транскриптомики. Основная цель scGPT-spatial — интегрировать информацию о пространственной локализации клеток и их транскриптомных профилях с знаниями scGPT для расширения понимания организации тканей и взаимодействия клеток в микроокружении.
scGPT-spatial обучалась с с учётом пространственных координат на наборе данных SpatialHuman30M (30 миллионов клеток и спотов из 4 протоколов секвенирования: Visium, Visium HD, MERFISH и Xenium) и использует архитектуру MoE.
В тестах scGPT-spatial показала отличные результаты в задачах кластеризации клеточных типов, деконволюции спотов и импутации генной экспрессии. В экспериментах на интеграцию данных из нескольких слайдов и модальностей модель обошла методы PCA и Seurat v4, достигнув показателя AvgBIO 0.86.
В задаче деконволюции клеточных типов scGPT-spatial превзошла Tangram и Cell2location, со средним Macro F1 в 0.58, а медианный коэффициент корреляции Пирсона в импутации генной экспрессии составил значение 0.6.
Веса модели опубликованы в открытом доступе, а в репозитории проекта на Github - подробная инструкция по настройке окружения для scGPT и ipynb демо-ноутбук инференса.
@ai_machinelearning_big_data
#AI #ML #MedML #ScGPT
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥72👍19❤9👌1