Media is too big
VIEW IN TELEGRAM
VibeVoice - опенсорсная система синтеза речи на английском и китайском языках для создания выразительного аудиоконтента длиной до 90 минут с участием до 4 различных спикеров.
В системе используются непрерывные токенизаторы речи на сверхнизкой частоте 7.5 Гц и комбинация из LLM для понимания контекста и диффузионная модель для генерации высококачественного аудио.
Код для инференса уже доступен на GitHub, а модель на 1.5 млрд. параметров и токенизатор - на Hugging Face. Обещают более крупную (7B) и компактную (0.5B) версии модели.
microsoft.github.io
Теперь возможность превращать загруженные документы и заметки в короткие видеопрезентации доступна на 80 языках, включая русский. Ранее функция работала только на английском.
Одновременно компания улучшила и Audio Overviews, позволив создавать более длинные и детализированные аудиосводки на разных языках.
Оба обновления уже начали развертываться и, по заявлению Google, станут доступны всем пользователям по всему миру в течение недели.
blog.google
Jetson AGX Thor - наиболее производительный на сегодняшний день компьютер для периферийных ИИ-вычислений и робототехники. Платформа обещает производительность в 2070 терафлопс (FP4), что примерно в 7.5 раз превосходит предыдущее поколение Jetson Orin.
В основе системы - GPU на архитектуре Blackwell, 14-ядерный процессор Arm и 128 ГБ памяти LPDDR5X. Это позволяет запускать большие языковые и мультимодальные модели локально, обрабатывая данные с нескольких сенсоров с минимальной задержкой. Платформа совместима с программными стеками Nvidia: Isaac, Metropolis и Holoscan.
Набор для разработчиков уже доступен для заказа по цене $3499, а поставки начнутся в следующем месяце. Серийные модули Jetson T5000 для готовых роботов появятся в конце 2025 года по цене $2999 за штуку при заказе от 1000 единиц.
cnbc.com
xAI и X подали в федеральный суд США антимонопольный иск на сумму 1 млрд. долларов против Apple и OpenAI. В иске утверждается, что компании вступили в незаконный сговор с целью захвата рынков смартфонов и генеративного ИИ, нарушая антимонопольное законодательство США.
Согласно 61-страничному документу, эксклюзивная интеграция ChatGPT в iOS и манипуляции с ранжированием в App Store целенаправленно занижают позиции конкурирующих чат-ботов. Это, по мнению Маска, делает "невозможным для любой другой ИИ-компании, кроме OpenAI, достичь первого места в магазине приложений".
В Apple отказались от комментариев. В OpenAI назвали иск "продолжением систематических нападок со стороны господина Маска".
wsj.com
Проблема, по словам Brave, заключается в так называемых "непрямых инъекциях промптов". Злоумышленники могут встраивать вредоносные команды в веб-страницы, которые ИИ-ассистент Comet при анализе контента воспринимает как инструкции от пользователя.
В ходе тестов Brave продемонстрировала, как можно заставить Comet прочитать и отправить атакующим конфиденциальные данные, email-адреса и одноразовые пароли. Perplexity выпустила обновления, однако, проблема все еще не решена полностью.
brave.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤41👍17🔥6👀3
По слухам, которые появились из-за поста инженера DeepMind Патрика Лоебера в сети Х, на этой неделе мы увидим инпейнт-модель для редактирования изображений под названием Nano Banana.
Модель наделала шуму на Lmarena, да и тестеры предварительных версий отмечают способность вносить очень точечные изменения в изображение, не затрагивая другие его элементы.
При этом качество изображений, генерируемое Nano Banana сопоставимо с результатами более крупных и ресурсоемких систем.
Официально Google пока не объявляла дату запуска и не раскрывала информацию о ценах.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤54👍18🔥14😁5❤🔥1
✔️ Российские учёные предложили новый способ борьбы с галлюцинациями ИИ
Одна из главных проблем больших языковых моделей — они могут генерировать правдоподобные, но ложные ответы.
Исследователи из Сбера разработали метамодели, которые повышают точность обнаружения ложных ответов обучаемыми локальными моделями почти на 30% при использовании малого количества данных для обучения. На тестах подход сработал лучше, чем многие закрытые коммерческие решения: уже при обучении на 250 примерах удалось добиться результатов, сопоставимых с применением крупнейших LLM в качестве оценщиков.
Выгода очевидна — компании могут сильно сэкономить ресурсы на разметку данных, ученые получают новый инструмент для анализа больших языковых моделей, а пользователи — более точные ответы от AI-моделей.
Одна из главных проблем больших языковых моделей — они могут генерировать правдоподобные, но ложные ответы.
Исследователи из Сбера разработали метамодели, которые повышают точность обнаружения ложных ответов обучаемыми локальными моделями почти на 30% при использовании малого количества данных для обучения. На тестах подход сработал лучше, чем многие закрытые коммерческие решения: уже при обучении на 250 примерах удалось добиться результатов, сопоставимых с применением крупнейших LLM в качестве оценщиков.
Выгода очевидна — компании могут сильно сэкономить ресурсы на разметку данных, ученые получают новый инструмент для анализа больших языковых моделей, а пользователи — более точные ответы от AI-моделей.
❤73👍41🤣30🔥14😁8🤔7🤷2😢1👨💻1
Три округа во Флориде готовятся к испытаниям системы беспилотников, предназначенной для нейтрализации нападающих. Дроны, разработанные компанией Campus Guardian Angel, могут быть активированы в течение 5 секунд после сигнала тревоги и достигнуть стрелка за 15 сек.
Они оснащены шариками с перцовым спреем, чтобы ослепить или замедлить преступника, могут разбивать окна для отвлечения внимания и транслировать видео в реальном времени для правоохранителей.
По словам CEO компании, если это не поможет, дроны будут «продолжать таранить» нападающего до прибытия полиции.
Проект уже вызвал серьезные этические вопросы, касающиеся безопасности, но штат выделил на пилотный проект 557 тыс. долларов. Установка систем в школах запланирована на осень, а полноценный запуск — на январь.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍89❤24😁21🔥11🤔4🙈3👀1
Исследователи из Yandex B2B Tech и ШАДа совместно с Педиатрическим университетом Петербурга представили первую в России нейросеть для анализа МРТ головного мозга младенцев. Модель работает в облаке и за несколько минут определяет соотношение серого и белого вещества с точностью более 90%.
Для обучения использовали 1500 обезличенных снимков и открытый датасет MICCAI Grand Challenge. Архитектура включает BIBSNet для автоматической разметки и ResNet с U-Net для сегментации изображений. Разработчики отмечают, что основной вызов был связан с малым количеством доступных данных и сложностью разметки.
Система уже проходит пилот в клинике и доступна врачам на специальной странице сервиса на платформе Yandex Cloud. В дальнейшем её планируют выложить в опенсорс, чтобы расширить возможности исследований и внедрения подобных решений в здравоохранении.
Для обучения использовали 1500 обезличенных снимков и открытый датасет MICCAI Grand Challenge. Архитектура включает BIBSNet для автоматической разметки и ResNet с U-Net для сегментации изображений. Разработчики отмечают, что основной вызов был связан с малым количеством доступных данных и сложностью разметки.
Система уже проходит пилот в клинике и доступна врачам на специальной странице сервиса на платформе Yandex Cloud. В дальнейшем её планируют выложить в опенсорс, чтобы расширить возможности исследований и внедрения подобных решений в здравоохранении.
❤109👍36🔥14😁4🤔3👾2💯1👀1
Deep Think with Confidence (DeepConf) - способ улучшить рассуждения LLM, который в отличие от стандартного голосования по большинству, предлагает фильтровать варианты на лету, используя внутренние сигналы уверенности самой модели.
Идея в том, чтобы не ждать генерации полной цепочки рассуждений, а отслеживать её качество в реальном времени. Для этого придумали метрику "групповой уверенности" (group confidence) — усредненную уверенность модели на небольшом скользящем окне токенов.
Если эта метрика падает ниже определенного порога, генерация траектории рассуждения просто останавливается. Это позволяет отсекать низкокачественные цепочки на ранней стадии, экономя огромное количество токенов. При этом сам метод не требует дополнительного обучения или тюнинга гиперпараметров.
В офлайн-режиме, когда все варианты уже сгенерированы, он позволяет применять взвешенное голосование или фильтрацию. Вместо простого подсчета голосов, каждый ответ взвешивается по уверенности породившей его цепочки рассуждений.
Результаты на бенчмарке AIME 2025: для GPT-OSS-120B стандартное голосование по 512 вариантам (cons@512) даёт точность 97.0%. Взвешивание с фильтрацией по уверенности (DeepConf@512) поднимает эту планку до 99.9%, практически решая бенчмарк.
Здесь происходит та самая ранняя остановка генерации. Для GPT-OSS-120B на том же AIME 2025 DeepConf в агрессивной конфигурации
DeepConf-low
сокращает количество сгенерированных токенов на 84.7% по сравнению с полной генерацией 512 вариантов. При этом точность не только не падает, а даже немного растeт — с 97.1% до 97.9%. В более консервативном режиме,
DeepConf-high
, экономия токенов составляет 56.0%, а точность остается на уровне 97.0%. Схожие результаты наблюдаются и на моделях DeepSeek-8B и Qwen3-32B, где экономия токенов достигает 77.9% и 66.8% соответственно.Для оценки уверенности прогнали несколько метрик, но наиболее эффективными оказались те, что фокусируются на слабых местах в рассуждениях. Например, метрика Bottom 10% Group Confidence (средняя уверенность по 10% наименее уверенных групп токенов) и Tail Confidence (уверенность на последних токенах цепочки) оказались лучше, чем простое усреднение по всему трейсу.
Порог для ранней остановки определяется на лету для каждого нового промпта. Сначала генерируется небольшое количество "разогревочных" трасс, на основе которых вычисляется порог уверенности. Затем запускается основная генерация, и любой вариант, чья групповая уверенность падает ниже этого порога, немедленно останавливается.
@ai_machinelearning_big_data
#AI #ML #LLM #CoT #DEEPCONF
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤40🔥17👍13🗿3
This media is not supported in your browser
VIEW IN TELEGRAM
- Высокая динамическая согласованность — модель генерирует плавную и устойчивую анимацию на протяжении всего видео
- Высокое качество аудио-видео синхронизации — точное соответствие мимики и артикуляции звуку
- Контроль движения и среды через текстовые промпты — возможно задавать жесты, эмоции, фон и поведение персонажа (например, человек «идёт по рельсам», «девочка поёт под дождём», «старик играет на пианино у моря»)
- Поддержка сложных сценариев — включая движение камеры, дождь, ветер, парашют, съёмку в движущемся поезде и другие кинематографические эффекты
🖼️ + 🎵 = 🎥
Wan2.2-S2V принимает на вход одно изображение и аудиофайл, а на выходе создаёт синхронизированное видео, соответствующее заданному промпту.
📊 По результатам тестов модель демонстрирует лучшие или близкие к лучшим показатели среди конкурентов:
- FID ↓ 15.66 — высокое качество видео
- EFID ↓ 0.283 — естественность выражения лица
- CSIM ↑ 0.677 — сохранение идентичности персонажа
- Хорошие результаты на SSIM, PSNR и Sync-C подтверждают визуальную чёткость, стабильность и аудиосинхронизацию
🔓 Проект полностью открытый — исходный код, веса модели.
И судя по всему, что модель совместима с LoRA-адаптерами от Wan 2.x
@ai_machinelearning_big_data
#AI #ML #Wan
Please open Telegram to view this post
VIEW IN TELEGRAM
👍64🔥35❤14🏆3
Media is too big
VIEW IN TELEGRAM
InternVL 3.5 - набор мультимодальных моделей размером от 1 до 38 млрд. параметров, плюс варианты с архитектурой MoE на 241 млрд. Семейство показывает SOTA-результаты в работе с изображениями и текстом. По сравнению с предыдущей версией, производительность в логических задачах выросла на 16%, а скорость инференса - в 4 раза.
Такой прогресс - заслуга фреймворка Cascade Reinforcement Learning, который сочетает офлайн- и онлайн-обучение для улучшения способности модели к рассуждениям. Все модели InternVL3.5 доступны на Hugging Face под лицензией Apache 2.0.
huggingface.co
Apple провела внутренние обсуждения о возможном приобретении Mistral AI и Perplexity AI. Обсуждения находятся на ранней стадии и сталкиваются с внутренними разногласиями. Глава сервисного подразделения Эдди Кью является главным сторонником сделки, а вот руководитель разработки ПО Крейг Федериги предпочитает развивать ИИ-технологии внутри компании.
Покупка любой из этих компаний станет крупнейшей сделкой в истории Apple, значительно превысив приобретение Beats за 3 миллиарда долларов в 2014 году. Оценка Mistral составляет около 10 миллиардов, а Perplexity — от 14 до 18 миллиардов долларов.
Ситуацию осложняет неопределенность с многомиллиардным соглашением с Google, которое обеспечивает статус поисковика по умолчанию на iPhone.
theinformation.com
Google представила 2 крупных обновления для мобильного приложения Translate. Новый режим "Live translate" позволяет вести диалоги на более чем 70 языках, переводя речь и отображая текст на экране почти в реальном времени. Инструмент работает на моделях Gemini, умеет распознавать паузы, акценты и фоновый шум. Он уже доступен на iOS и Android в США, Индии и Мексике.
Вторая новинка - пилотная функция для практики языков. Она генерирует персонализированные упражнения на аудирование и говорение, основываясь на уровне и целях пользователя. Бета-версия доступна бесплатно и на старте поддерживает несколько языковых пар.
blog.google
Prefect открыла публичное бета-тестирование платформы FastMCP Cloud. Она позволяет разворачивать серверы, использующие протокол MCP из GitHub-репозитория менее чем за минуту. Сервис предоставляет безопасный и масштабируемый эндпоинт одним кликом, избавляя от необходимости настраивать хостинг и CI/CD-пайплайны.
FastMCP Cloud предлагает встроенную OAuth-аутентификацию, бессерверное автомасштабирование и аналитику. Платформа уже интегрирована с Claude, GPT и Cursor. Сервис бесплатен на время беты, а в будущем появится постоянный бесплатный тариф.
prefect.io
Лаборатория цифровой экономики Стэнфордского университета представила одни из первых статистических доказательств влияния ИИ на рынок труда. Анализ данных о заработной плате миллионов работников в США с конца 2022 по середину 2025 года показал, что занятость среди специалистов в возрасте от 22 до 25 лет в профессиях, наиболее подверженных влиянию генеративного ИИ, сократилась на 13%.
Потери в основном коснулись должностей начального уровня в разработке ПО и обслуживании клиентов, где ИИ способен полностью автоматизировать задачи. При этом занятость их старших коллег на тех же позициях осталась стабильной или даже выросла. Уровень заработной платы существенно не изменился, что говорит о том, что компании скорее сокращают наем, чем урезают зарплаты. В то же время, в профессиях, где ИИ дополняет, а не заменяет человека, сокращения рабочих мест не наблюдается.
stanford.edu
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍35❤21💋3🤝2🔥1🥰1
🔥 VK выложил VK-LSDV, датасет коротких видео для рекомендательных систем
📊 Что внутри:
- 40 миллиардов уникальных обезличенных взаимодействий
- 20 миллионов единиц контента
- 10 миллионов пользователей
- период: январь-июнь 2025
- данные: лайки, дизлайки, шеры, длительность просмотра, реакции, контекст воспроизведения
🟢 Возможности для инженеров и исследователей:
- Настраивать выборку под задачу: задавать нужный объём данных
- Выбирать метод отбора - случайный или по популярности
- Адаптировать датасет под доступные вычислительные мощности
⚡️ Почему это важно:
🟠 Это большой открытый датасет сервиса коротких видео для систем рекомендаций.
🟠 Позволяет строить и проверять модели на реальных и качественных данных, а не на «игрушечных» выборках.
🟠 VK-LSVD - шаг к созданию полноценной исследовательской среды, где можно тестировать гипотезы и развивать алгоритмы персонализации.
Такой ресурс открывает новые возможности для ученых и инженеров по всему миру и поднимает планку в развитии рекомендательных технологий.
🟠 SET: https://huggingface.co/datasets/deepvk/VK-LSVD
- 40 миллиардов уникальных обезличенных взаимодействий
- 20 миллионов единиц контента
- 10 миллионов пользователей
- период: январь-июнь 2025
- данные: лайки, дизлайки, шеры, длительность просмотра, реакции, контекст воспроизведения
- Настраивать выборку под задачу: задавать нужный объём данных
- Выбирать метод отбора - случайный или по популярности
- Адаптировать датасет под доступные вычислительные мощности
⚡️ Почему это важно:
Такой ресурс открывает новые возможности для ученых и инженеров по всему миру и поднимает планку в развитии рекомендательных технологий.
Please open Telegram to view this post
VIEW IN TELEGRAM
🤣61🔥26❤20👍18🥱2
This media is not supported in your browser
VIEW IN TELEGRAM
Anthropic запустила в режиме исследовательского превью ИИ-агента, который интегрируется в Chrome в виде расширения. Агент работает на базе Claude и позволяет общаться с чат-ботом в боковом окне, которое сохраняет контекст всего происходящего в браузере. Агент может выполнять некоторые задачи от имени пользователя, получив на это разрешение.
В Anthropic заверяют, что предусмотрели меры безопасности. Пользователи могут ограничить доступ агента к определенным сайтам, а по умолчанию уже заблокированы финансовые сервисы и ресурсы с NSFW контентом.
Перед выполнением "рискованных" действий, таких как публикация данных или совершение покупок, агент будет запрашивать разрешение.
Доступ к Claude for Chrome открыт для 1000 подписчиков тарифа Max. Для остальных желающих открыт лист ожидания.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍59❤14🔥6🤬3🤷♂2🫡2🕊1
Проект OpenBMB выпустил MiniCPM-V 4.5, мультимодальную модель на основе Qwen3-8B и SigLIP2-400M для распознавания изображений, серий изображений и видео, которая может работать на мобильных устройствах на более чем 30 языках.
OpenBMB - некоммерческое подразделение китайской технологической компании ModelBest, под патронажем Университета Цинхуа.
Среди инвесторов материнской ModelBest - Habo (Huawei), Primavera Capital Group и государственный Shenzhen Guozhong Venture Capital Management.
Благодаря унифицированному 3D-Resampler модель сжимает видео в 96 раз: шесть кадров разрешением 448x448 преобразуются всего в 64 токена, тогда как большинству MLLM для этого потребовалось бы 1536 токенов.
Это позволяет обрабатывать видео с частотой кадров до 10 FPS и длинные ролики без роста вычислительных затрат, что подтверждается топовыми результатами на наборах Video-MME, LVBench и MLVU.
Архитектура LLaVA-UHD позволяет модели работать с изображениями до 1,8 мегапикселей и любым соотношением сторон, используя в 4 раза меньше визуальных токенов.
Модель предлагает гибкий режим работы: быстрый ризонинг для повседневных задач и глубокий для сложных сценариев, переключаемый по требованию.
При общем объеме в 8 млрд. параметров, MiniCPM-V 4.5 набирает 77.0 баллов по комплексному бенчу OpenCompass. Этот результат не просто улучшает предыдущие версии, модель превосходит GPT-4o-latest и Gemini-2.0 Pro, обходит открытую Qwen2.5-VL с 72 миллиардами параметров и устанавливает новый стандарт для общего MLLM на OmniDocBench.
Доступны варианты для CPU через llama.cpp и ollama, есть квантованные версии в форматах int4, GGUF и AWQ, поддержка бэкендов SGLang и vLLM, возможность дообучения через Transformers и LLaMA-Factory, а также WebUI и оптимизированное iOS-приложение.
@ai_machinelearning_big_data
#AI #ML #MMLM #MiniCPM #OpenBMB
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤48👍16🔥13🍾2
Media is too big
VIEW IN TELEGRAM
Поиск айтишников вышел за рамки GitHub и Хабр
Теперь мы идём прямо на улицы города, чтобы найти будущих лидеров цифровой трансформации. Может, это именно ты?
Подавай заявку до 18 сентября.
Погнали менять будущее вместе с нами, hackathon is coming...👀
Please open Telegram to view this post
VIEW IN TELEGRAM
😁30❤15🌚9🔥6❤🔥4🗿4🤔3😴3🤬2🙈2🌭1
Jet-Nemotron - новая архитектура языковых моделей, которая, по заявлениям NVIDIA, превосходит по эффективности топовые опенсорс-модели.
На H100 обещают ускорение пропускной способности при генерации до 53.6 раз, если работать с контекстом в 256 тыс. токенов и максимальным размером батча. Такой скачок производительности стал возможен благодаря двум ключевым инновациям: пайплайну PostNAS и новому блоку линейного внимания JetBlock.
Суть PostNAS состоит в отказе от дорогостоящего обучения новых архитектур с нуля. Вместо этого берут уже предварительно обученную модель и запускают процесс постобработки. Пайплайн сначала анализирует модель и определяет, какие слои внимания вносят наибольший вклад в её работу, а какие - не так уж и важны. Дальше он ищет оптимальное расположение для слоёв полного внимания и подбирает улучшенный дизайн для остальных блоков.
Его фишка - динамические сверточные ядра, генерируемые на лету в зависимости от входных данных и применяемые к value-токенам.
Прямое сравнение с Mamba2 Block, проведенное на идентичных данных и с одинаковыми параметрами обучения, показало существенный прирост в точности при сохранении той же пропускной способности во время обучения и инференса.
Вместо того чтобы использовать количество параметров в качестве прокси-метрики для эффективности, авторы напрямую оптимизируют архитектуру под целевое железо (H100), используя в качестве цели именно пропускную способность генерации.
Ключевое открытие тут в том, что размер KV-кэша, а не количество параметров, является критическим фактором, ограничивающим скорость генерации на длинных контекстах, поскольку декодирование упирается в пропускную способность памяти.
Фиксируя размер кэша, они провели поиск по размерности ключей/значений и числу голов внимания, обнаружив конфигурации, которые при том же объеме кэша и схожей пропускной способности используют больше параметров для достижения более высокой точности.
Итоговый дизайн Jet-Nemotron, построенный на базе Qwen 2.5, включает всего 2 full-attention слоя (для retrieval) и 2 слоя со скользящим вниманием (SWA, для MMLU), остальные — JetBlock.
Что касается конкретных моделей, то уже есть
Jet-Nemotron-2B
и Jet-Nemotron-4B
. По результатам тестов, они как минимум не уступают по точности ведущим эффективным моделям, например, Qwen3, на целом ряде бенчмарков. При этом младшая модель Jet-Nemotron-2B работает в 21 раз быстрее, чем Qwen3-1.7B-Base, а старшая, Jet-Nemotron-4B, обгоняет её уже в 47 раз. @ai_machinelearning_big_data
#AI #ML #LLM #NVIDIA #JetNemotron
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍51❤23🔥19💘2❤🔥1👏1
🔹 Современные LLM способны решать широкий круг задач — от генерации кода до подготовки аналитических отчётов.
Но на практике многие сталкиваются с тем, что ответы модели слишком общие, неточные или требуют значительной доработки.
Причина в том, что результат напрямую зависит от формулировки запроса.
Грамотный промт превращает LLM из «демонстрации технологий» в рабочий инструмент, который экономит время и снижает количество ошибок.
📘 На Stepik стартовал курс
«Prompt Engineering: искусство работы с ИИ»
Что вы освоите:
* методы составления чётких и воспроизводимых запросов;
* управление форматом вывода (код, JSON, таблицы, структурированные тексты);
* построение последовательных цепочек промтов для комплексных задач;
* практические подходы к проверке и улучшению качества ответов модели;
* примеры применения в IT, аналитике, управлении и образовании.
🎯 Формат курса: концентрированные уроки с обязательной практикой.
🎓 По итогам — сертификат Stepik и собственный набор рабочих промтов, готовых к применению в реальной работе.
⚡ В течение 24 часов действует скидка 25%
👉 Пройти курс на Stepik
Но на практике многие сталкиваются с тем, что ответы модели слишком общие, неточные или требуют значительной доработки.
Причина в том, что результат напрямую зависит от формулировки запроса.
Грамотный промт превращает LLM из «демонстрации технологий» в рабочий инструмент, который экономит время и снижает количество ошибок.
📘 На Stepik стартовал курс
«Prompt Engineering: искусство работы с ИИ»
Что вы освоите:
* методы составления чётких и воспроизводимых запросов;
* управление форматом вывода (код, JSON, таблицы, структурированные тексты);
* построение последовательных цепочек промтов для комплексных задач;
* практические подходы к проверке и улучшению качества ответов модели;
* примеры применения в IT, аналитике, управлении и образовании.
🎯 Формат курса: концентрированные уроки с обязательной практикой.
🎓 По итогам — сертификат Stepik и собственный набор рабочих промтов, готовых к применению в реальной работе.
⚡ В течение 24 часов действует скидка 25%
👉 Пройти курс на Stepik
👍21❤10🌚7🤨7🤬5