Стратегии со смыслом
89 subscribers
6 photos
7 links
Добрый день.

Меня зовут Сергей. Я более 15 лет занимаюсь реализацией ИТ проектов связанных с ML и AI.
В этом телеграм канале я в основном буду рассуждать про применение genAI в бизнес кейсах и обычной жизни. Ну и иногда о чем-то другом.
加入频道
Привет, меня зовут Сергей Семенов.
Я занимался по жизни очень многими разными вещами: играл в покер, была своя компания по разработке мобильных приложений, дренажные системы для дачных участков, усилители сотовой связи, кальянная (ZOOM), работал на американский венчурный фонд. Например мы делали робота-шар и он учил детей в частной калифорнийской школе (на кикстартере осталась часть материалов https://www.kickstarter.com/projects/1982398759/ai-professor-your-child-friend-in-education)
А еще я участвовал в создании устройство, на котором выращиваются живые клетки на микросхемах и сейчас оно стоит в Стенфорде

Последние значимые проекты, которыми я занимался
Ponimau.com (в роли СТО) - Платформа корпоративного благополучия - онлайн специалисты для сотрудников компаний (психологи, юристы, коучи)
Ecomanagement.com (CTO, затем CPO) - Экономия электроэнергии с помощью автоматического управления.
MedaboutMe (Head of AI) - Медицинский портал. Я делал там приложения по распознаванию кожных заболеваний, рекомендательные системы и еще пару достаточно интересных ML-based решений.

Сейчас я живу в Сербии. Я обязательно расскажу про себя подробнее в дальнешем, когда в этом канале появятся хоть какие-то люди, ну а пока этого достаточно.

https://www.linkedin.com/in/sergeissemenov/
👍2🔥2
#realbusiness
Всем привет.
Хотел бы разобрать кейс компании Ramp. Это компания, которая занимается автоматизацией финансовых и бухгалтерских процессов в компаниях различного размера.

Суть кейса
В кейсе ниже мы разберем как они внедряли RAG в свою систему классификации контрагентов и платежей по типу отрасли.
Это важно с точки зрения налоговой отчетности и внутренней финансовой аналитики.
Зачастую категории контрагентов выставляются настолько общими, что это делает их абсолютно бесполезными.
Например WizeHire (платформа для найма) был классифицирован как "профессиональные услуги", слишком общий тег, что делало его абсолютно бесполезным.
Зачастую проблема возникала из-за того, что сами контрагенты использовали 2 разных системы классификации NAICS и SIC. А Ramp вообще использовало свою собственную внутреннюю систему

Ramp приняли решение взять за основу NAICS
Решение через внедрение RAG
Как работает RAG?
RAG состоит из трех этапов:
1️⃣ Создание векторных представлений (эмбеддингов) текста для запроса и базы знаний.
2️⃣ Поиск и отбор наиболее похожих элементов из базы знаний на основе метрики схожести.
3️⃣ Использование LLM для выбора финального предсказания из отобранных вариантов.
Главное преимущество RAG — способность ограничивать вывод LLM заданной областью знаний. Вместо открытого ответа LLM получает строго определенный список возможных вариантов (в данном случае – валидные NAICS-коды).

Метрики
При решении любой задачи с помощью AI/ML, метрики качества - это ключевой элемент. Перед началом работы нужно понимать как будем оценивать результат.
1️⃣ Генерация рекомендаций
🔹 Accuracy@k (acc@k) – насколько часто правильный NAICS-код оказывается в top-k рекомендаций?
✔️ Если правильный код не входит в top-k, LLM не сможет его выбрать, что накладывает верхний предел на точность всей системы.
2️⃣ Выбор финального предсказания
🔹 Fuzzy Accuracy – если предсказанный код частично совпадает с правильным, он оценивается выше, чем полностью неверный.
✔️ Например, если правильный код 123456, а модель выбрала 123499, это лучше, чем 999999, потому что первые четыре цифры совпадают.

Генерация рекомендаций
Этап выбора релевантных NAICS-кодов зависит от множества параметров:
Какие поля из базы знаний использовать
Какие атрибуты бизнеса учитывать
Какую модель эмбеддингов применять
Сколько рекомендаций выдавать

Ramp протестировали разные настройки и построили графики acc@k. Важно учитывать, что если на этом этапе просто максимизировать acc@k, можно получить систему, которая рекомендует все возможные коды — но это не улучшит итоговую классификацию.
Оптимизация на этом этапе дала прирост точности до 60% и позволила использовать экономичные модели эмбеддингов без потери качества.
🔥1
Выбор финального предсказания
После получения топ-рекомендаций LLM выбирает наиболее подходящий код. Здесь тоже есть несколько ключевых параметров:
🔹 Сколько рекомендаций включать в запрос?
🔹 Какие поля данных о бизнесе использовать?
🔹 Как структурировать промпт?
Больше рекомендаций – выше вероятность найти правильный код, но это увеличивает контекст и может ухудшить точность. Аналогично, более детальное описание бизнесов помогает модели, но делает запросы длиннее.
Решение Ramp:
Двухэтапный процесс:
1️⃣ Первый промпт – анализируем большой список кодов без детальных описаний.
2️⃣ Второй промпт – уточняем выбор среди оставшихся кодов, добавляя больше контекста.
Оптимизация на этом этапе увеличила fuzzy accuracy на 5-15%.

Финальный дизайн системы
🛠 RAG работает онлайн, используя:
Clickhouse для быстрого поиска похожих эмбеддингов
Kafka для логирования промежуточных данных
Внутренние сервисы для генерации эмбеддингов и LLM-запросов
Ramp также добавили предохранители от галлюцинаций LLM. Хотя иногда LLM выдаёт правильный код, даже если его не было в рекомендациях, проверяется, действительно ли он является валидным NAICS-кодом.
👍4
Итоги и результаты
Внедрение RAG-системы дало множество преимуществ:
Точность классификации выросла
Полный контроль над алгоритмом – Можно менять настройки, адаптироваться под новые задачи и оптимизировать работу
Прозрачность решений – модель объясняет, почему был выбран тот или иной код
Снижение зависимости от сторонних сервисов – больше не нужно ждать обновлений у внешних провайдеров

До и после:
🔹 В старой системе похожие бизнесы могли получать разные коды.
🔹 В новой системе классификация стала более логичной и точной.

Это пример демонстрирует очень хороший кейс автоматической разметки слабоструктурированных данных, который раньше требовал разработки большой тяжеловесной системы, а сейчас с появлением LLM порог входа радикально снизился.


Напишите пожалуйста в чате что бы вы хотели увидеть в этом сообществе:
Что такое RAG - как он работает, в чем проблемы?
Что такое embeding'и и зачем они нужны?
Пошаговую инструкцию для разворачивания и тестирования RAG у себя? (даже в самом простом случае потребует базовых знаний программирования и http запросов)
Какие проблемы возникают при внедрении RAG и что с ними делать?

В конце хочу привести ссылку на оригинальный материал с кейсом, который я разобрал: https://engineering.ramp.com/industry_classification
👍4🙏3
Всем привет!
Давайте сегодня поговорим о простом и приятном.
Что такое AI агенты и как их делать?

AI-агенты - это программы, которые могут самостоятельно выполнять задачи, анализировать данные и принимать решения. Они находят применение в чат-ботах, персональных помощниках, автоматизации бизнеса и многом другом.

Как работают AI-агенты?
В основе их работы лежат три ключевых компонента:
1️⃣ Восприятие - агент получает информацию из окружающей среды (текст, голос, изображения).
2️⃣ Принятие решений - анализирует данные, использует алгоритмы машинного обучения или простую логику.
3️⃣ Действие - выполняет задачу, взаимодействует с пользователем или другими системами.

Те. AI агент, это некая сущность, которая умеет делать что-то полезное! А в подавляющем большинстве случаев сегодня в качестве "мозга" агента используется LLM, чтобы принять на вход слабоструктурированные данные и понять, что нужно сделать. Раньше разработка таких "чат-ботов" требовала детальной проработки сценариев, а сейчас это все упростилось на порядки! Так что давайте попробуем успеть за стремительно убегающими вперед технологиями =)

Простые методы создания AI-агента
💡 1. No-code платформы – сервисы типа Chatbot.com, Make (ex-Integromat), Zapier позволяют создавать ботов без программирования.
💡 2. Python + LangChain – библиотека, которая помогает быстро интегрировать языковые модели (ChatGPT, Claude, Mistral) в рабочие процессы.
💡 3. OpenAI GPT + API – можно подключить ChatGPT через API и настроить его для автоматических ответов на запросы.
💡 4. AutoGPT / BabyAGI – фреймворки для создания автономных агентов, которые могут работать с файлами, выполнять поиск в интернете и автоматизировать задачи.

Для тех, кто хочет копнуть в эту тему поглубже, я очень рекомендую небольшой курс от hugging face: https://huggingface.co/learn/agents-course/
Очень качественная подача материала, очень глубокая проработка. Но это курс достаточно сложный, он требует знания и понимания программирования и подходит только для людей из ИТ.
🔥3👍2🙏1
Давайте теперь разберем какой-нибудь простой пример.

Сделаем телеграм бота, который будет через OpenAI Whisper расшифровывать голосовые и возвращать текст.
Создавать мы его будем на no-Code платформе Make.com, потому что она является одной из самых мощных, популярных и простых (хотя простота относительная, мне как программисту было бы проще все это просто куском кода написать)

🔧 Что понадобится?
Make.com - зарегистрируйся и создай новый сценарий (здесь думаю проблем быть не должно)
Telegram Bot - создай бота через @BotFather (на всякий случай вот видео https://www.youtube.com/watch?v=UQrcOj63S2o)
OpenAI API - получи API-ключ (Нам нужен API и Organization ID. Получить можно либо на https://platform.openai.com/. Либо нашел вот такую статью например https://dzen.ru/a/ZZgTdbChZQJn9PLO)

Какой сценарий мы будем реализовывать?
Вот итоговый сценарий в Make, который у меня получился
1️⃣ Telegram > Watch Updates – ловим голосовые.
2️⃣ HTTP > Make a Request – получаем file_path.
3️⃣ JSON > Parse JSON – извлекаем file_path.
4️⃣ HTTP > Get a File – скачиваем голосовой файл.
5️⃣ OpenAI Whisper – расшифровываем аудио в текст.
6️⃣ Telegram > Send a Message – отправляем результат обратно.
👍1🙏1
Давайте теперь разберем все это по шагам

1️⃣ Ловим голосовое сообщение в Telegram
📌 Добавляем модуль "Telegram > Watch Updates"
Там все интуитивно понятно, надо будет настроить коннект с вашим ботом по API ключу.
2️⃣ Получаем file_path для скачивания файла
📌 Добавляем "HTTP > Make a Request"
URL:
https://api.telegram.org/bot<TOKEN>/getFile?file_id={{1.message.voice.file_id}} (вместо <TOKEN> надо подставить ваш ключ от ТГ бота)
Ответ Telegram содержит путь к файлу (file_path).

▶️Промежуточный фильтр - теперь нам надо сделать так, чтобы бот реагировал только на голосовые сообщения, поэтому нажимаем на "гаечный ключ" между нашими двумя модулями, выбираем "Set up filter"
и ставим там: message.voice и условие "Exists"

3️⃣ Разбираем ответ предыдущего шага
📌Добавляем "JSON > Parse JSON"
Ответ, который мы получаем на этапе 2️⃣, к сожалению, содержит не просто имя файла, а JSON строку вида:
{"ok":true,"result":{"file_id":"AwACAgIAAxkBAANeZ8f4h0zm8TLf4XFLQoqGliFEOugAAg1kAAI5FEFKpgzOZTIDgik2BA","file_unique_id":"AgADDWQAAjkUQUo","file_size":6788,"file_path":"voice/file_8.oga"}}
Которую еще надо разобрать. Подаем на фход "Data" из предыдущего шага
4️⃣ Скачиваем аудиофайл
📌 Добавляем "HTTP > Get a File"
URL:
https://api.telegram.org/file/bot<TOKEN>/{{3.result.file_path}} (вместо <TOKEN> надо подставить ваш ключ от ТГ бота)

5️⃣ Отправляем аудио в Whisper
📌 Добавляем "OpenAI > Whisper Transcription"
Здесь есть хитрость: Надо выбрать не просто HTTP-GetFile (потому что get file меняет название на file.bin и Whisper ругается на формат), а надо выбрать MAP и указать file name "file.oga" например
Получаем текстовую расшифровку.
6️⃣ Отправляем текст обратно в Telegram
📌Добавляем "Telegram > Send a Message"
Chat ID: {{1.message.chat.id}}
Text: {{5.text}} (где 5 – шаг Whisper).

Ну и теперь это все должно работать!
Попробуйте и расскажите насколько просто вам показалось собрать такого агента.
2🔥1
Всем привет!
Давайте сегодня поговорим про то, что же такое пресловутый "промт" в 2025 году.
С одной стороны профессия "промт-инженера" очевидно умерла так и не родившись, с другой понимание того, как LLM анализирует ваш промт и как его обрабатывает может существенно помочь получать от нее более качественные результаты.

💡 Как AI обрабатывает промты?
Когда вы пишете запрос, AI разбирает его так:
1️⃣ Определяет цель (что вы хотите получить).
2️⃣ Анализирует контекст (учитывает предыдущий диалог).
3️⃣ Генерирует ответ, следуя встроенным настройкам (системный промт).

🛠 1. Как сделать промт точным?
🚀 Формула хорошего промта:

[Роль AI] + [Задача] + [Контекст] + [Формат ответа] + [Ограничения]

Пример:
"Сделай описание продукта"
"Ты – маркетолог. Напиши описание продукта для лендинга в 3 абзаца, с акцентом на выгоды, без технических деталей. По описанию продукта ниже:" + дальше длинный текст с описанием вашего продукта
Разебрем подробнее.
Роль AI: Ты – маркетолог
Задача: Напиши описание продукта для лендинга
Контекст: длинный текст с описанием вашего продукта
Формат ответа + Ограничения (в данном примитивном случае оба эти элемента сливаются): в 3 абзаца, с акцентом на выгоды, без технических деталей

📌 Дополнительные техники:
Делайте запросы чёткими и пошаговыми (AI любит структуру).
Например каждый раз когда я прошу какуб-то инструкцию я добавляю "четкий пошаговый план". Это очень помогает не только получить ответ лучше, но и в дальнейшем продолжать обсуждать его с LLM
Используйте примеры.
Если вам надо получить ответ в определенном формате или стиле, похожий или непохожий на что-то, то лучше всего будет просто загрузить их как примеры с комментариями
Разбивайте сложные задачи на несколько промтов.
Если вы видите, что LLM выдает какую-то чушь, постарайтесь разбить задачу на подзадачи. Можно даже попросить саму LLM это сделать
Не пытайтесь получить готовый результат за 1 промт!!
На мой взгляд это самый важный и самый недооцениваемый элемент. Это диалоговый агент и самые лучшие результаты получаются по ходу обогащения контекста в ходе диалога!
Более того, если вы берете результат от LLM в качестве "черновика", а потом сами его правите до состояния "чистовика", то скиньте его обратно в чат, для того чтобы он попал в контекст для будущих бесед

⚙️ 2. Что такое системный промт и почему он важен?
Системный промт – это скрытый текст, который настраивает поведение AI перед началом диалога.

Пример системного промта:
"Ты — эксперт по инвестициям, твои ответы должны быть точными, профессиональными и краткими."
В случае с ChatGPT есть 2 способа задать системный промт:
1️⃣ В настройках. Там есть несколько полей от "как к тебе обращаться?" до "Чем вы занимаетесь", которые используются как системный промт для любого чата и любого запроса. Туда имеет смысл написать максимальное количество информации о себе и своих пожеланий к терминологии и формату ответа.
2️⃣ В CustomGPTs. У вас есть возможность создавать отдельных агентов со своим контекстом. Туда можно загрузить каки-нибудь файлы или уточнить системный промт только для диалогов с этим конкретным GPT

📖 3. Как правильно формировать контекст?
AI запоминает контекст, но не всегда делает это идеально. Чтобы не потерять информацию, самостоятельно формируйте вводные данные:

Повторяйте ключевые моменты в каждом запросе (особенно в длинных диалогах).
Используйте списки и таблицы – AI лучше работает со структурированной информацией.
Задавайте уточняющие вопросы, если AI сбивается.

Если говорить образно... То всегда представляйте себе, что вы формируете задачу для нового сотрудника. Он ничего не знает о вас, вашей работе, задачах и опыте. Но сотрудник ОЧЕНЬ трудолюбивый и старательный!!! А главное безумно быстрый. Поэтому постарайтесь дать ему максимальное количество данных и контекста связанного с задачей.
Не надо давать ему все подряд, давайте то, что связано с задачей.
🔥43
В следующих постах я постараюсь рассказать как это работает технически, что такое механизм "внимания" и почему это не просто "предсказание следующего слова", хотя по прежнему LLM не имеют ни малейшего понятия о чем говорят и у них нет никакой структуры понятий внутри, это исключительно текстовая модель.
👍32
Ну что же, не прошло и месяца! Я возвращаюсь с обещанным постом, который прояснит почему же промты в том или ином виде всегда останутся актуальны и что они дают

🧠 Как работают большие языковые модели (LLM), простыми словами
Все наши любимые чатики ChatGPT, Claude, Mistral, Grok, Deepseek - все они относятся к классу LLM (Large Language Models). Но как они вообще работают? Почему они такие «умные»? Погнали разбираться без математики

🔡 Как LLM выбирает следующее слово?
На самом деле модель не «понимает», она угадывает следующее слово на основе контекста.

🧠 Пример:

«Скоро Новый...» → модель предложит варианты: год, праздник, вечер — и выберет самый вероятный.


LLM обучена на гигантских объёмах текстов, поэтому она знает, какие слова обычно идут друг за другом.

Каждое новое слово выбирается так:
1)Посмотрели на предыдущие слова
2)Посчитали вероятность всех возможных вариантов
3)Выбрали наиболее подходящее (или с небольшим элементом случайности)

НО, если бы все было так просто, то мы бы получили примитивную штуку из 2000х годов, которая вам при наборе СМСок подсказывала следующее слово. Все мы помним, что работало это достаточно посредственно. Давайте разберем весь процесс, особое внимание уделив механизму "внимания" (attention) нашей LLM

🧱 Как всё это устроено внутри?
1️⃣ Токенизация - текст разбивается на кусочки (токены):
«Привет, мир!» → ["Пр", "ив", "ет", ",", "м", "ир", "!"]

2️⃣ Векторизация - Мы превращаем токены в вектора чисел.
Когда LLM (типа GPT) читает текст, она не видит слова как «текст». Всё переводится в цифры, потому что нейросеть умеет работать только с числами. Этот процесс называется векторизацией, а результат - эмбединги.
Эмбединги не только показывают сходство между словами (чем ближе вектора чисел, тем ближе смысл слов), но и умеют обобщать и группировать понятия. Операции над ними осмысленные!
📌 Пример:
- «король» – «мужчина» + «женщина» ≈ «королева»
- «франция» + «столица» ≈ «париж»
Это абсолютная база любой языковой модели!
3️⃣ Механизм внимания - определяет, какие токены влияют на выбор следующего.
Но смысл каждого слова зависит еще и от того самого "контекста"
- Слово «банка» (в смысле "стеклянная банка") и
- Слово «банка» (в смысле "финансовое учреждение")
могут начинаться с одного токена, но в разных контекстах у них будут разные эмбединги благодаря attention.
📌 То есть:
- На старте: у каждого токена есть свой "сырой" вектор (lookup в таблице эмбедингов)
- Потом: attention-контекст обновляет этот вектор с учётом всех других токенов

4️⃣ Нейросеть - прогоняет данные через сотни «слоёв» и на выходе говорит:
«Следующее слово с вероятностью 87% — это "год"»

И начинаем все этапы по новой, пока на этапе 4 не будет предсказан спецсимвол "окончание ответа"

Ну а теперь немножко технических деталей
Чтобы модель могла решить, какие слова в предложении важны и на какие стоит "обратить внимание". Это как если бы каждое слово в тексте спрашивало у других: “А ты важен для меня?”
Механизм внимания работает по формуле:
Attention(Q, K, V) = softmax(Q × Kᵀ / √d) × V
- Q (Query) – «что я хочу найти?»
- K (Key) – «что ты предлагаешь?»
- V (Value) – «что ты мне дашь, если я выберу тебя?»
- d – размерность вектора
Каждое слово имеет свой Q, K и V — это просто разные проекции одного и того же токена.

🔍 Что делает формула:
1. Q × Kᵀ
Мы сравниваем "вопрос" текущего слова с "ключами" всех других слов.
👉 Получаем насколько каждое слово подходит текущему — это и есть внимание.
2. Делим на √d
Это нормализация, чтобы значения не стали слишком большими.
(иначе softmax сойдёт с ума — начнёт давать почти 0 или 1)
3. Применяем softmax()
Теперь превращаем все оценки в вероятности, которые суммируются до 1.
👉 Это веса: каким словам мы доверяем больше всего?
4. Умножаем на V
Каждое значение (V) умножается на свой вес.
👉 В результате получаем новый вектор, в котором учтён весь контекст.
👍21
🧠 Пример:
«Маша дала Оле книгу, потому что она...»

- Слово "она" (Query) хочет понять, кого оно означает
- Сравнивает себя с "Маша", "Оля", "дала" и т.д. (Keys)
- Вычисляет, кому верить больше всего
- Берёт значения (Values) от этих слов с разными весами
- В итоге вектор "она" получает информацию о том, что речь скорее про Машу

Итог:
Эта формула — сердце трансформеров.
Она позволяет каждой части текста гибко взаимодействовать с другими, а не просто читать по порядку.

В результате модель:
Понимает связи между словами
Учитывает контекст
Выбирает, что важно
3👍1
Стратегии со смыслом
[Роль AI] + [Задача] + [Контекст] + [Формат ответа] + [Ограничения]
Отлично, а теперь вернемся немного к практике.
По сути своими промтами мы можем влиять только на один этап из всех перечисленных - этап механизма "внимания".

То есть чем больше мы поможем нейросети правильно выстроить связи и сформировать контекст, тем более высокого качества мы получим результат.
Это не значит, что надо пихать в запрос все подряд, потому что если там будут противоречащие друг другу факты, то никакого улучшения результата мы не получим.
Важно следовать нашей формуле:
- Роль - помогает нашей нейросети существенно сузить фокус и определить предметную область
- Задача - четкая формулировка задачи - это конечно ключевой элемент. Нужно четко объяснить какого результата мы хотим добиться от нейросети. Ответ на какой запрос получить
- Контекст - по сути это входные данные для нашей задачи. В идеальном случае это должен быть набор данных достаточный для решения нашей задачи и без лишней информации, которая может сместить фокус внимания
- Формат ответа - если вы приводите примеры или пожелания по стилистике или описываете формат выходных данных. Опять же это помогает сети понять что конкретно вы хотите получить на выходе
- Ограничения - опять же, помогает существенно сузить фокус внимания, всегда указывайте если они есть.

Что на мой взгляд важно понять. Нет никаких "магических" промтов и волшебных слов. Нет никакой железобетонной структуры, которой надо придерживаться (особенно если речь идет о бытовом использовании через родной интерфейс), но есть необходимость максимально полно сформулировать задачу, так как вы бы формулировали ее новому сотруднику или стороннему фрилансеру. Чем больше уточнений вы дадите LLM, тем лучше будет финальный результат.

Сразу возникает резонный вопрос "А что если я сам не понимаю как правильно сформулировать задачу?"
Отступите на шаг назад и попросите LLM помочь вам с формулированием задачи. Попросите сформулировать вопросы или помочь описать результат и тд.
Очень часто хороший вариант для старта - это попросить LLM декомпозировать вашу задачу и задать доп вопросы и тогда уже решить каждую из подзадач по отдельности.
Не пытайтесь решить все за один промт, не пытайтесь писать туда запросы как в гугл "огнетушитель дешево купить", ведите с ним диалог и я уверен вы сразу заметите разницу
3🔥3
UPD. Неожиданно желающих оказалось больше, чем я расчитывал. Я пока не готов брать больше 3 задач в работу.
Вы можете мне писать и я обязательно отвечу, но имейте в виду, что я скорее всего не смогу заняться вашим кейсом раньше 6-7 июня.


Всем привет!
Хочу поработать с вашими реальными задачами по применению GenAI - от простых взаимодействий с GPT до комплексных решений с интеграциями и автоматизацией.

Если у вас есть идея или процесс, который хочется улучшить с помощью нейросетей - давайте вместе превратим её в работающий кейс. Неважно, что это:
- диалог с GPT в чате для ваших личных задач
- low-code/no-code автоматизация (Make, n8n и др.)
- или полноценный AI-продукт
Я готов помочь спроектировать и собрать решение под вашу задачу.

Как мы с вами будем работать:
1)Вы описываете ваш кейс - голосом или текстом. Уточняем цели, проводим короткий созвон при необходимости.
2)Через несколько дней я возвращаюсь с планом и оценкой, сколько времени потребуется.
3)Далее - одна или несколько Zoom-сессий (по часу каждая), где я:
- показываю промежуточные или финальные решения
- объясняю логику каждого шага
- отвечаю на любые вопросы: от "как это вообще работает?" до "почему выбран именно такой подход" - с обоснованиями, кейсами и ссылками на статьи
Стоимость каждой сессии - 10 000₽
Формат гибкий, с максимальной пользой и прозрачностью.

Если хотите погрузиться в GenAI без воды, но с результатом и пониманием - пишите мне. Буду рад обсудить и придумать что-то классное под вашу задачу.
🔥6👍32
Forwarded from AI Community
Почему у LLM есть галлюцинации? И как с ними бороться при создании ИИ-решений для бизнеса?

Большие языковые модели (LLM), такие как ChatGPT, стали мощным инструментом для автоматизации, аналитики и взаимодействия с клиентами. Но вместе с преимуществами они приносят и вызовы — один из главных из них — галлюцинации: когда модель уверенно выдает недостоверную или вымышленную информацию.

На вебинаре разберем:
🔹 Почему LLM "галлюцинируют" — что происходит под капотом?
🔹 В каких ситуациях это особенно критично для бизнеса
🔹 Как снизить риски: подходы к валидации, архитектурные решения и лучшие практики
🔹 Кейсы использования LLM в бизнесе с контролем качества генерации

Этот вебинар будет полезен:
🔸 Разработчикам и ML-инженерам
🔸Продуктовым менеджерам и владельцам ИИ-продуктов
🔸Руководителям, рассматривающим внедрение LLM в бизнес-процессы
🔸C-level и владельцам бизнеса
🔸 Бизнес-аналитикам и лидерам трансформаций

Почему нужно прийти?
🔹 Поймёте, как и почему ИИ «галлюцинирует»
🔹Узнаете, как снизить риски при внедрении LLM в бизнес
🔹Получите стратегии надёжной интеграции ИИ в процессы
🔹Разберёте реальные кейсы компаний и лучшие практики


🎙 Спикер: Сергей Семёнов — Chief Technical Officer (CTO) | Head of Al
📆Когда: 25 июня с 16:00-17:00 (Мск)
📍Где: Zoom
💰 Стоимость: бесплатно, через регистрацию
👉 Регистрация по ссылке: https://forms.gle/NXRp2r3DqH1bVwp49

👉 Добавить в календарь
Please open Telegram to view this post
VIEW IN TELEGRAM
6👍1
Forwarded from Павел Доронин
Что такое RAG — и зачем он бизнесу?

Дата: 14 августа (четверг)
Время: 16:00 - 17:30 мск
Формат: Закрытая Zoom-встреча


Retrieval-Augmented Generation (RAG) - это архитектура, которая помогает LLM быть точнее, использовать внешние источники данных и снижать «галлюцинации». Она уже становится стандартом в создании ИИ-продуктов - от ассистентов до внутренних поисковых систем.

Но как она работает? Зачем нужна? И как бизнесу использовать её с умом?

На вебинаре разберем:
🔹 Что такое RAG - простыми словами, на понятных примерах
🔹 Как устроена архитектура: генерация + поиск = результат
🔹 Когда RAG действительно нужен, а когда - нет
🔹 Как внедрять RAG в ИИ-продукты: MVP, стек, ошибки, метрики
🔹 Примеры кейсов применения в стартапах и корпоративных продуктах

Этот вебинар будет полезен:
🔸 AI/ML-разработчикам и архитекторам
🔸 Продуктовым менеджерам ИИ-направлений
🔸 Руководителям цифровой трансформации
🔸 СЕО и предпринимателям, запускающим ИИ-продукты
🔸 Техническим лидерам и консультантам

Почему стоит прийти:
🔹 Поймёте, как работает RAG и зачем он нужен бизнесу
🔹 Узнаете, когда его использовать, а когда - нет
🔹 Получите набор подходов, инструментов и best practices
🔹 Узнаете реальные примеры и практики внедрения

🎙 Спикер: Сергей Семёнов - Chief Technical Officer (CTO) | Head of AI, 10+ лет опыта в построении ИИ-продуктов в стартапах

🔥 Можно звать свои +1

👉 Регистрация на мероприятие для ваших +1

⭐️ Мероприятие проходит в рамках бизнес-группы AI Community PRO, запись будет выложена в закрытом чате. По вопросам вступления писать @pdoronin
👍42