VIRSUN
14.3K subscribers
473 photos
268 videos
2 files
278 links
📥 در کانال @rss_ai_ir هر روز: 🔹 جدیدترین خبرهای AI و فناوری
🔹 کانال توسط اساتید هوش مصنوعی مدیریت میشود
🗯اولویت ما هوش مصنوعی در صنعت میباشد اما نیم نگاهی به موارد دیگر در این زمینه داریم

ارتباط با ادمین 1:
@Ad1_rss_ai_ir
加入频道
📚🤖 RAG؛ نسل ترکیبی از بازیابی و تولید متن

یکی از قدرتمندترین روش‌های ترکیبی در حوزه NLP روش RAG (Retrieval-Augmented Generation)است که از دو دنیای متفاوت استفاده می‌کند:

🔹 🔍 بازیابی اطلاعات (Retrieval):
مدل ابتدا از یک پایگاه داده یا اسناد بیرونی، مرتبط‌ترین متون را پیدا می‌کند.

🔹 🧠 تولید متن (Generation):
سپس با کمک یک مدل زبان (مثل T5 یا BART)، براساس متن‌های بازیابی‌شده، پاسخ دقیق و طبیعی تولید می‌شود.

---

ویژگی‌ها و مزایا:

* اتصال مدل زبان به حافظه خارجی (external knowledge)
* کاهش hallucination در مدل‌های بزرگ
* پاسخ‌دهی دقیق‌تر در سیستم‌های پرسش‌وپاسخ (QA)
* کاربردی در چت‌بات‌ها، جستجو، و تولید گزارش‌های تخصصی

---

📌 ساختار کلی RAG:

پرسش → جستجوی متون مرتبط → ترکیب → تولید پاسخ نهایی


📎 پروژه‌های متن‌باز معروف:
🟢 [Haystack (by deepset)](https://github.com/deepset-ai/haystack)
🟢 [Facebook RAG (Hugging Face)](https://huggingface.co/facebook/rag-token-base)

---

\#RAG #RetrievalAugmentedGeneration #NLP #هوش\_مصنوعی #مدل\_زبان #LLM #پرسش\_و\_پاسخ

📍 @rss_ai_ir
1🤯1🙏1
🧠 خلاصه‌سازی و جستجوی ویدیویی با ایجنت‌های چندمدلی از NVIDIA!

کمپانی NVIDIA یک ریپازیتوری فوق‌العاده منتشر کرده که به شما امکان می‌ده یک ایجنت هوشمند بسازید که:

🔍 ویدیو را فریم‌به‌فریم پردازش می‌کند
📝 خلاصه‌سازی انجام می‌دهد
📌 قابلیت جستجوی درون ویدیو دارد
💬 به سوالات مربوط به محتوای تصویری پاسخ می‌دهد

این پروژه یک Blueprint کامل برای ساخت ایجنت‌های چندمدلی است که می‌تواند برای حوزه‌های دیگر نیز به‌کار رود.

📌 از مدل‌ها و سرویس‌های زیر استفاده شده:

✳️مدل‌های متنی Nemotron و NeMo Retriever
✳️مدل‌های دیداری-زبانی (VLM)
✳️معماری‌های RAG برداری (Vector RAG) و گرافی (Graph-RAG)


📦 با وجود اینکه از NVIDIA NIM استفاده شده، به راحتی می‌تونید با مدل‌ها و APIهای دیگر جایگزین کنید!

🔗 پروژه را اینجا ببینید و تست کنید: https://github.com/NVIDIA-AI-Blueprints/video-search-and-summarization

#هوش‌_مصنوعی #AI_Agent #RAG #Nvidia
🆔 @rss_ai_ir
🔥2👍1👏1
🧠 پشته‌ی توسعه‌دهندگان RAG (بازیابی + تولید) به زبان ساده!

♻️این تصویر، نمای کاملی از ابزارها و لایه‌های مورد استفاده برای ساخت سیستم‌های RAG رو نشون می‌ده — از استخراج داده گرفته تا مدل زبانی و ارزیابی نهایی.


📌 خلاصه مهم‌ترین اجزا:
🔹 مدل‌های زبانی (LLMs):
متن‌باز: LLaMA 3.3، Mistral، Phi-4، Qwen 2.5، Gemma 3، DeepSeek
بسته: GPT (OpenAI)، Claude (Anthropic)، Gemini (Google)، Cohere، Amazon

🔹 فریم‌ورک‌ها برای پیاده‌سازی RAG:
LangChain، LlamaIndex، Haystack، Txtai

🔹 دیتابیس برداری (Vector DBs):
Chroma، Pinecone، Weaviate، Qdrant، Milvus

🔹 استخراج داده:
از وب: Crawl4AI، ScrapeGraphAI، FireCrawl
از اسناد: MegaParser، Docling، LlamaParse، ExtractThinker

🔹 مدل‌های برداری متن (Text Embedding):
SBERT، Nomic، Ollama، OpenAI، Cohere


🔹 ارزیابی عملکرد:
Giskard، Ragas، Trulens، Voyage AI
🔧 همه این ابزارها با هدف ساخت یک سیستم هوشمند RAG ترکیب می‌شن که بتونه اطلاعات رو از منابع مختلف بگیره، بفهمه، و خروجی دقیق تولید کنه.


📣 اگر می‌خوای مدل‌های Retrieval-Augmented Generation حرفه‌ای بسازی، این پشته‌ی ابزارها دقیقاً چیزیه که باید بلد باشی!


📍 آموزش‌ها و ابزارهای بیشتر در:
@rss_ai_ir
#RAG #هوش_مصنوعی #LLM #LangChain #پردازش_زبان #بردار_متن #استخراج_داده #پشته_توسعه #AItools #openai #gemini #cohere #ragstack
👏21🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
📦 مجموعه‌ای کامل برای مهندسان هوش مصنوعی منتشر شده است!

در مخزن LLM Engineer Toolkit، بیش از ۱۲۰ کتابخانه تخصصی برای توسعه و استقرار مدل‌های زبانی بزرگ (LLM) گردآوری شده است، به‌صورت دسته‌بندی‌شده:

🔹 آموزش، فاین‌تیون و ارزیابی مدل‌ها
🔹 استقرار سریع و مقیاس‌پذیر مدل‌ها
🔹 یکپارچه‌سازی LLM با اپلیکیشن‌ها و سیستم‌های RAG
🔹 پردازش و تولید داده‌های ساختاریافته و مصنوعی
🔹 طراحی ایجنت‌های خودگردان مبتنی بر LLM
🔹 بهینه‌سازی پرامپت و تضمین استفاده امن در محیط واقعی

📥 این مجموعه برای هر توسعه‌دهنده‌ی حرفه‌ای LLM ضروری است.

🔗 لینک مستقیم:
https://github.com/KalyanKS-NLP/llm-engineer-toolkit
🔗 مجموعه مشابه برای اپلیکیشن‌های LLM:
https://github.com/Shubhamsaboo/awesome-llm-apps

#هوش_مصنوعی #LLM #پرامپت_مهندسی
#ایجنت #RAG #فاین_تیون #AItools
@rss_ai_ir
👏26🔥17👍14😁1413🎉13🥰11
مفهوم دیپلوی در مدل‌های زبانی بزرگ یعنی رساندن مدل از آزمایشگاه به محیط واقعیِ تولید، با تمرکز همزمان بر کیفیت، سرعت و هزینه 🚀

🧭 اهداف کلیدی در دیپلوی

❇️تضمین تأخیر پایین (Latency/SLA)، پایداری و مقیاس‌پذیری
❇️کنترل هزینه به‌ازای هر توکن و مصرف GPU/CPU
❇️پایش ایمنی محتوا و حفظ حریم خصوصی داده‌ها

🏗 الگوهای دیپلوی

✳️سرویس ابری مدیریت‌شده: راه‌اندازی سریع، اما وابستگی و هزینه متغیر
✳️استقرار خودمیزبان: کنترل کامل و بهینه‌سازی عمیق، اما نیازمند تخصص عملیاتی
✳️معماری هیبرید: استفاده از مزیت هر دو رویکرد برای سناریوهای حساس به داده

🧩 آماده‌سازی مدل

انتخاب اندازه و کانتکست‌لِن مناسب نیاز کسب‌وکار
کوانتیزه‌سازی (INT8/4) و دیستیل برای کاهش حافظه و افزایش سرعت
فاین‌تیون سبک با LoRA/PEFT برای شخصی‌سازی کم‌هزینه
یکپارچه‌سازی با ابزارها و بازیگرها (توابع، جستجو، پایگاه دانش/RAG)

⚡️ سروینگ و بهینه‌سازی اجرا

بهره‌گیری از فریم‌ورک‌های سروینگ (مانند vLLM، TGI، TensorRT-LLM) برای مدیریت هم‌زمانی و صف درخواست‌ها
استفاده از تکنیک‌های Continuous Batching، KV-Cache، Flash-Attention، Speculative Decoding برای افزایش توکن‌برثانیه
تنظیم طول پاسخ، دمای نمونه‌برداری و حداکثر توکن‌ها برای کنترل کیفیت/هزینه

🧮 ظرفیت‌سنجی و منابع

♨️برآورد حافظه وزن‌ها متناسب با اندازه مدل و دقت عددی (مثلاً حدوداً: 7B با INT8 ≈ نزدیک 7–8GB؛ با FP16 ≈ حدود 14–16GB)
♨️درنظرگرفتن حافظه KV-Cache که با طول متن، تعداد درخواست‌های هم‌زمان و دقت عددی رشد می‌کند
♨️سنجش عملی با بار مصنوعی برای رسیدن به هدف‌های Tokens/s و هم‌زمانی

🔐 ایمنی، امنیت و انطباق

💢احراز هویت، ریت‌لیمیت و جداسازی محیط اجرا
💢فیلترینگ محتوایی، ممیزی لاگ‌ها و حذف داده‌های حساس
💢پایبندی به مقررات (حریم خصوصی و نگهداری داده)

🧪 ارزیابی و تضمین کیفیت

❇️طراحی Golden Set از پرامپت‌ها و پاسخ‌های مرجع
❇️اجرای ارزیابی خودکارِ کیفیّت، واقع‌نمایی RAG و آزمون‌های رگرسیونی قبل از هر انتشار
❇️پایش پس از دیپلوی با A/B تست و تحلیل لاگ برای بهبود پرامپت و ریتونینگ

🧰 قابلیت مشاهده و نگه‌داری

🛑مانیتورینگ متریک‌ها: زمان پاسخ، نرخ خطا، مصرف منابع، هزینه/درخواست
🛑ردیابی سرگذشت نسخه‌ها (Model Registry) و انتشارِ ایمن با Canary/Blue-Green
🛑برنامه پشتیبان‌گیری، مقیاس‌گذاری خودکار و پلن بازیابی خرابی

📝 چک‌لیست پیش از استقرار

♻️تعریف SLA و بودجه هزینه
♻️انتخاب مدل، اندازه، کوانتیزیشن و کانتکست‌لِن
♻️آماده‌سازی فاین‌تیون/LoRA و سناریوهای RAG
♻️انتخاب چارچوب سروینگ و کانفیگ هم‌زمانی/Batching
♻️طراحی ارزیابی، لاگ‌گذاری و داشبورد مانیتورینگ
♻️پیاده‌سازی ایمنی محتوا، احراز هویت و ریت‌لیمیت
♻️برنامه انتشار تدریجی و بازگشت امن (Rollback)

🔎 جمع‌بندی کاربردی

⛔️برای چت‌بات داخلی با دانش سازمانی، ترکیب RAG + مدل میان‌رده کوانتیزه، به‌علاوه vLLM و Continuous Batching معمولاً بهترین نسبت کارایی/هزینه را می‌دهد.
⛔️برای تولید انبوه متن با تأخیر پایین، تمرکز بر KV-Cache، Speculative Decoding و بهینه‌سازی سطح GPU بیشترین اثر را دارد.

@rss_ai_ir 🤖📈

#هوش_مصنوعی #LLM #دیپلوی #MLOps #مدل_زبان #RAG #بهینه‌سازی #Quantization #Inference
🎉10😁65🥰5👍4🔥4👏2🙏1